Skip to content
34 канал
  Середа 13 Травня 2026
  • Про нас
  • Редакція
  • Контакти
  • Політика конфіденційності
  • Реклама
  • Головна
  • Новини
  • Політика
  • Економіка
  • Світ
  • Аналітика
  • Регіони
    • Новини Дніпро
    • Новини Одеса
    • Новини Київ
    • Новини Львів
  • Графіки відключень
  • Українська
    • Українська
    • Русский
    • English
    • Español
    • Português
    • Deutsch
34 канал
34 канал
  • Головна
  • Новини
  • Політика
  • Економіка
  • Світ
  • Аналітика
  • Регіони
    • Новини Дніпро
    • Новини Одеса
    • Новини Київ
    • Новини Львів
  • Графіки відключень
  • Українська
    • Українська
    • Русский
    • English
    • Español
    • Português
    • Deutsch
  • Про нас
  • Редакція
  • Контакти
  • Політика конфіденційності
  • Реклама
34 канал
  Технології  ШІ в руках шахраїв: як фейковий голос доньки змусив жінку повірити в обман
Технології

ШІ в руках шахраїв: як фейковий голос доньки змусив жінку повірити в обман

Лисенко АртурЛисенко Артур—09.05.20260

Технології штучного інтелекту дедалі частіше використовують не лише у корисних цілях, а й у шахрайських схемах. Один із нових методів — створення підробленого голосу близької людини, який майже неможливо відрізнити від справжнього. Саме такі випадки вже фіксують у різних країнах.

Про це пише: Мета

Як працює схема з підробленим голосом

Шахраї використовують технології штучного інтелекту для імітації голосу реальних людей. Це може бути голос дитини, родича або друга. Потім вони телефонують жертві й видають себе за цю людину.

У подібних схемах найчастіше використовується психологічний тиск:

  • термінові повідомлення про «небезпеку»;
  • прохання негайно переказати гроші;
  • емоційні історії, які змушують діяти без перевірки.

Чому це працює

Сучасні технології deepfake дозволяють створювати дуже реалістичні голосові копії. Штучний інтелект аналізує короткі зразки мовлення і відтворює інтонації та тембр людини.

Дослідження показують, що такі технології можуть вводити в оману навіть уважних людей, адже відрізнити реальний голос від згенерованого стає дедалі складніше.

Як шахраї вводять жертв в оману

У реальних випадках використовуються сценарії, подібні до таких:

  • «твоя дитина потрапила в аварію»;
  • «мені терміново потрібні гроші»;
  • «не говори нікому, це секрет».

Подібні схеми вже давно застосовуються і без ШІ, але технології зробили їх значно переконливішими.

Чим це небезпечно

Головна загроза — швидкість реакції. Людина чує «голос близького» і діє емоційно, не перевіряючи інформацію.

Фахівці наголошують, що deepfake-технології стають серйозним викликом для безпеки, оскільки можуть масово використовуватися для обману.

Як захиститися від таких шахрайств

Експерти радять дотримуватися простих правил:

  • завжди передзвонювати близьким на їхній реальний номер;
  • не переказувати гроші під тиском терміновості;
  • домовитися в родині про «контрольні питання» або кодові слова;
  • критично ставитися до будь-яких екстрених прохань грошей.

Висновок

Штучний інтелект відкрив нові можливості не лише для технологій, а й для шахраїв. Найбільший захист у таких ситуаціях — спокій і перевірка інформації через альтернативні канали, а не реакція на емоції.

Лисенко Артур

OpenAI тестує функцію ChatGPT, яка може попереджати близьких про ризики самопошкодження
У мережі завірусився флешмоб з архівними фото Володимира Дантеса
Залишити відповідь Скасувати коментар

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *

    1993-2026 © Торгова марка "34" свідоцтво: 377371 від 07.01.2026. Всі права захищені