deepfake

  • Кремль запустил первый deepfake против президента Молдовы

    Кремль запустил первый deepfake против президента Молдовы

    Кремлёвская бот-сеть «Матрешка» выпустила в X (бывший Twitter) поддельный музыкальный ролик, высмеивающий президента Молдовы Майю Санду.

    Впервые для этого применили американскую платформу генерации видео Luma AI.

    Анализ с помощью инструмента Hive Moderation показал: изображение искажал искусственный интеллект, а аудиодорожка, вероятно, была записана человеком. Авторы преследовали цель выставить Санду неэффективной и колеблющейся, акцентируя на затянувшемся пути страны к ЕС и конфликте с «Газпромом» из-за поставок газа в Приднестровье.

    По данным проекта Bot Blocker, это уже четвёртая атака подобного рода за два года. Схема одинакова: один бот публикует видео, десятки других разгоняют его комментариями и репостами, создавая иллюзию вирусного эффекта.

    Фейк также упоминает беглого олигарха Илана Шора, чья партия Victorie была недавно снята с выборов, и сопровождается русской озвучкой.

    Целенаправленные удары по Санду начались ещё весной. Тогда «Матрешка» обвиняла её в коррупции, манипуляции выборами и подавлении инакомыслия. В ход пошли и более дикие версии — от «торговли украинскими детьми» до попытки поссорить её с вице-президентом Еврокомиссии Кайей Каллас.

    Аналитики уверены: новый виток кампании связан с парламентскими выборами в Молдове 28 сентября. Кремлёвские тролли делают ставку на дезинформацию, чтобы дискредитировать президента и повлиять на настроения избирателей.

  • IT-эксперт: мошенники могут говорить голосом ваших близких

    IT-эксперт: мошенники могут говорить голосом ваших близких

    Как сообщает RT, технологии подделки голоса становятся всё более опасным инструментом в руках мошенников.

    Генеральный директор «Диджитал Маркетс» Илья Назаров предупредил, что для имитации чужой речи злоумышленникам достаточно всего 30 секунд записи.

    По его словам, источником для алгоритма может быть любое аудио — голосовое сообщение, ролик из соцсетей или даже фрагмент интервью. «Алгоритм учится на звуковых особенностях, а чем больше материала, тем качественнее подделка», — пояснил Назаров.

    Эксперт отметил, что технологии voice cloning и deepfake позволяют использовать фальшивый голос как в записи, так и в реальном звонке. «Это создает иллюзию, что с жертвой общается знакомый человек: друг, родственник или коллега», — предупредил он.

    Назаров посоветовал не доверять только голосу и всегда перепроверять срочные просьбы через другие каналы связи.

    МВД России также сообщило, что мошенники активно манипулируют эмоциями жертв: давят на страх, доверие или жадность. Часто применяется приём «искусственной срочности», когда аферисты требуют немедленно перевести деньги.

    Кроме того, злоумышленники перегружают собеседника потоком информации, чтобы снизить способность к критическому мышлению.

    В МВД напомнили и о признаках взлома аккаунтов: «странные» просьбы («срочно переведи деньги», «выручай, у меня неприятности»), а также необычный стиль общения. Чтобы защититься, в ведомстве советуют:

    • прерывать разговор, если чувствуете давление,
    • использовать «правило паузы»,
    • изучать типовые схемы обмана для развития настороженности.