Берегитесь фальшивых людей!

По мнению специалистов по кибербезопасности к концу 2025 года каждый второй житель России столкнётся с новыми цифровыми угрозами

132
4
Время чтения 3 минуты
13.05.2025

Не знаете, чем дикпик отличается от дипфейка, а скриншот от камшота? А вот онлайн-мошенники знают! Речь идёт об использовании генеративных нейронных сетей для создания максимально правдоподобной имитации голоса или видеозвонка реального человека. Именно эта технология называется словом «дипфейк». Если раньше подобные атаки были редкостью и требовали от злоумышленников глубоких технических познаний, то сегодня создание поддельных видео и голосовых сообщений стало доступно практически любому.

Сейчас мошенники чаще всего используют видеокружки в мессенджерах и голосовые сообщения, но уже в 2026 году прогнозируется рост дипфейк-звонков в реальном времени. Представьте ситуацию: человек получает звонок от «дочери», которая, якобы, попала в беду, или от «коллеги», срочно требующего перевести деньги. Голос звучит абсолютно естественно, и даже видеосвязь не вызывает подозрений. Именно так работают современные дипфейки – их становится всё сложнее отличить от реальности.

Как отмечают в пресс-службе MTS AI, видеокружки и голосовые сообщения стали одним из самых уязвимых каналов коммуникации. В отличие от телефонных звонков, где есть определители номера и другие механизмы защиты, проверить источник голосового сообщения или видео практически невозможно. Нельзя даже определить, было ли оно записано непосредственно в мессенджере или сгенерировано искусственным интеллектом и загружено вручную.

Технически эти инструменты нейтральны – всё зависит от того, в чьих руках они оказываются. Для видеоподделок мошенникам необходимо собрать множество изображений жертвы, чтобы нейросеть могла воссоздать лицо под разными углами и при разном освещении. Голосовые дипфейки требуют меньше данных, но результат может быть менее стабильным, что вынуждает злоумышленников делать несколько попыток.

Речь идёт о дне даже не сегодняшнем – вчерашнем. В 2024 году поддельные «видеокружки» активно применялись для вымогания денег у населения. С тех пор количество мошеннических атак растёт в геометрической прогрессии. Благодаря массовому распространению онлайн-сервисов даже школьник начальных классов может легко сгенерировать поддельное видео или аудиозапись.

Но, понятно, что в основном такими вещами занимается не школота из хулиганских побуждений, а куда более серьёзные персонажи, которые уже сейчас имеют в своём распоряжении и базы данных российских граждан, и отработанные психологические приёмы. Например, в одном из инцидентов мошенники, представившись секретарём мэра Москвы и самим Сергеем Собяниным, убедили пожилого мужчину перевести полтора миллиона рублей. Потерпевший утверждал, что человек на видеосвязи был поразительно похож на столичного градоначальника. Другой пример – глава города Кемерово Дмитрий Анисимов предупредил горожан о том, что злоумышленники создали его цифрового двойника и рассылают поддельные видеообращения.

Но дипфейки используются не только для имитации известных лиц. Мошенники внедряются в личную жизнь жертв, маскируясь под друзей, родственников или даже романтических партнёров. Так, одна из пострадавших перевела несколько миллионов рублей мужчине, с которым познакомилась в приложении для знакомств. Он представлялся американцем, хотя на самом деле был выходцем из Африки, а во время видеозвонков использовал маску, чтобы скрыть своё настоящее лицо. Почему истосковавшаяся по сильному плечу дамочка вдруг решила материально помочь гражданину США и на какие конкретно цели переводила денежки, теперь разбирается следствие.

Большинство примеров, впрочем, не курьёзные, а откровенно жутковатые, особенно, когда технологии применяются западными спецслужбами для психологических операций. В начале СВО одному из активистов Донбасса прислали видеоролик, в котором было подробно показано, как его же самого допрашивают в подвале СБУ, потом вывозят на машине в лес и расстреливают.

Точное количество жертв дипфейк-мошенничества пока неизвестно. Многие пострадавшие не обращаются в правоохранительные органы, особенно если речь идёт о небольших суммах. Однако тенденция очевидна: с развитием искусственного интеллекта такие атаки будут становиться только изощрённее. Единственный способ защиты – критическое мышление и дополнительная проверка любой подозрительной информации, даже если она приходит от, казалось бы, знакомых людей.

Искренне Ваш,
За-Строй.РФ

При полном и/или частичном копировании данного материала, для последующего размещения его на стороннем ресурсе, обратная, индексируемая ссылка на источник обязательна!

  • image
    Полианна

    С каждым днём ухищрения и количество обманутых растёт, а по сути ничего в качестве борьбы не делается.... Действенного не делается.... И у меня только один вопрос: почему????

    13.05.2025, 16:14
    • image
      Толябыч отвечает пользователю

      @Полианна, потому что выгодно, потому что не хотят, причин много.

      13.05.2025, 19:47
    image
    Северный Олень

    Все технологии идут вверх, а я предлагаю вернуться к кнопочным телефонам.

    13.05.2025, 18:48
    • image
      Толябыч отвечает пользователю

      @Северный Олень, зато мы развиваем ИИ и считаем это верхом технологий. Может так и есть. Но, технология для чего? Выходит, что для обмана.

      13.05.2025, 19:44