Skip to content
34 канал
  Среда 13 мая 2026
  • Новости
  • Политика
  • Экономика
  • Мир
  • Аналитика
  • Регионы
  • Русский
    • Українська
    • Русский
    • English
    • Español
    • Português
    • Deutsch
34 канал
34 канал
  • Новости
  • Политика
  • Экономика
  • Мир
  • Аналитика
  • Регионы
  • Русский
    • Українська
    • Русский
    • English
    • Español
    • Português
    • Deutsch
34 канал
  Технологии  ИИ в руках мошенников: как фейковый голос дочери заставил женщину поверить в обман
Технологии

ИИ в руках мошенников: как фейковый голос дочери заставил женщину поверить в обман

Лисенко АртурЛисенко Артур—09.05.20260

Технологии искусственного интеллекта все чаще используются не только в полезных целях, но и в мошеннических схемах. Один из новых методов — создание поддельного голоса близкого человека, почти невозможно отличить от настоящего. Именно такие случаи уже фиксируют в разных странах.

Об этом пишет: Цель

Как работает схема с поддельным голосом

Мошенники используют технологии искусственного интеллекта для имитации голоса реальных людей. Это может быть голос ребенка, родственника или друга. Затем они звонят по телефону жертве и выдают себя за этого человека.

В подобных схемах чаще всего используется психологическое давление:

  • срочные сообщения об «опасности»;
  • просьба немедленно перевести деньги;
  • эмоциональные истории, заставляющие действовать без проверки.

Почему это работает

Современные технологии deepfake позволяют создавать очень реалистичные голосовые копии. Искусственный интеллект анализирует короткие образцы речи и воспроизводит интонации и тембр человека.

Исследования показывают, что такие технологии могут обманывать даже внимательных людей, ведь отличить реальный голос от сгенерированного становится все сложнее.

Как мошенники вводят жертв в заблуждение

В реальных случаях используются сценарии, подобные следующим:

  • «твой ребенок попал в аварию»;
  • «мне срочно нужны деньги»;
  • «Не говори никому, это секрет».

Подобные схемы уже давно применяются и без ИИ, но технологии сделали их более убедительными.

Чем это опасно

Главная угроза – скорость реакции. Человек слышит «голос близкого» и действует эмоционально, не проверяя информацию.

Специалисты отмечают, что deepfake-технологии становятся серьезным вызовом для безопасности, поскольку могут массово использоваться для обмана.

Как защититься от таких мошенничеств

Эксперты советуют придерживаться простых правил:

  • всегда перезванивать близким на их реальный номер;
  • не переводить деньги под давлением срочности;
  • договориться в семье о «контрольных вопросах» или кодовых словах;
  • критически относиться к любым экстренным просьбам денег.

Вывод

Искусственный интеллект открыл новые возможности не только для технологий, но и для мошенников. Самая большая защита в таких ситуациях – спокойствие и проверка информации через альтернативные каналы, а не реакция на эмоции.

Лисенко Артур

OpenAI тестирует функцию ChatGPT, которая может предупреждать близких о рисках самоповреждения
В сети завирусился флешмоб с архивными фото Владимира Дантеса
Добавить комментарий Отменить ответ

Ваш адрес email не будет опубликован. Обязательные поля помечены *

    1993-2026 © Торгова марка "34" свідоцтво: 377371 від 07.01.2026. Всі права захищені