СМИ пишут о новых возможностях, которые скоро будут использовать мошенники

Согласно прогнозам экспертов в области искусственного интеллекта, к концу 2026 года ожидается значительное увеличение количества дипфейк-звонков, при которых злоумышленник будет общаться с жертвой, имитируя голос её знакомого. Об этом сообщает издание «Известия».

В настоящее время мошенники уже способны подделывать голосовые сообщения и видеосообщения. Ранее создание подобных подделок требовало значительных затрат времени и усилий, но благодаря развитию искусственного интеллекта эта технология становится всё более доступной. По данным пресс-службы MTS AI, если несколько лет назад с подобными попытками обмана сталкивались лишь единицы, то к концу 2025 года каждый второй человек может стать жертвой дипфейк-атак.

«Видеосообщения и голосовые сообщения в мессенджерах являются одним из самых популярных способов коммуникации, поэтому они представляют собой потенциально наиболее уязвимую цель для мошенников после телефонных звонков. В отличие от звонков, которые можно отследить с помощью определителя номера и других средств защиты, у голосовых сообщений и видеосообщений отсутствует возможность проверки источника», — сообщили представители компании. Кроме того, невозможно определить, было ли сообщение создано непосредственно в мессенджере или загружено вручную, что способствует активному переходу мошенников на эти способы общения с потенциальными жертвами. Подделка видеосообщений и голосовых сообщений используется мошенниками с 2024 года, однако в текущем году технологии создания и изменения видео, а также клонирования голосов значительно продвинулись вперёд.

«Эта технология стала массово доступной, а её качество значительно улучшилось. Если ранее создание убедительных подделок требовало много времени и серьёзных навыков, то теперь их можно создавать гораздо быстрее и проще, и научиться этому может практически любой. Более того, отличить фейк от настоящих фотографий, видео или голосов уже сегодня сложно, а в будущем это станет практически невозможным», — пояснили в MTS AI. Эксперты прогнозируют, что в дальнейшем мошенники смогут в режиме реального времени разговаривать с жертвой голосом её родственника или знакомого.

Как сообщалось ранее — «МК» опубликовал семь пророчеств святых старцев о России

Мы в Telegram

Новости наших партнеров

Добавить комментарий