поддельный голос мошенники

IT-эксперт: мошенники могут говорить голосом ваших близких

Как сообщает RT, технологии подделки голоса становятся всё более опасным инструментом в руках мошенников.

Генеральный директор «Диджитал Маркетс» Илья Назаров предупредил, что для имитации чужой речи злоумышленникам достаточно всего 30 секунд записи.

По его словам, источником для алгоритма может быть любое аудио — голосовое сообщение, ролик из соцсетей или даже фрагмент интервью. «Алгоритм учится на звуковых особенностях, а чем больше материала, тем качественнее подделка», — пояснил Назаров.

Эксперт отметил, что технологии voice cloning и deepfake позволяют использовать фальшивый голос как в записи, так и в реальном звонке. «Это создает иллюзию, что с жертвой общается знакомый человек: друг, родственник или коллега», — предупредил он.

Назаров посоветовал не доверять только голосу и всегда перепроверять срочные просьбы через другие каналы связи.

МВД России также сообщило, что мошенники активно манипулируют эмоциями жертв: давят на страх, доверие или жадность. Часто применяется приём «искусственной срочности», когда аферисты требуют немедленно перевести деньги.

Кроме того, злоумышленники перегружают собеседника потоком информации, чтобы снизить способность к критическому мышлению.

В МВД напомнили и о признаках взлома аккаунтов: «странные» просьбы («срочно переведи деньги», «выручай, у меня неприятности»), а также необычный стиль общения. Чтобы защититься, в ведомстве советуют:

  • прерывать разговор, если чувствуете давление,
  • использовать «правило паузы»,
  • изучать типовые схемы обмана для развития настороженности.

Комментарии

Комментируй с умом:
— по теме
— без мата
— без рекламы

Модерируем. Уважай других.
Читать политику →

Добавить комментарий