Эксперт Душкин: мошенники уже могут с помощью ИИ прогнозировать поведение жертвы

Одной из опасностей нейросетей является то, что мошенники могут воспроизводить поведение конкретных людей. Это отметил Роман Душкин, руководитель образовательной программы «Искусственный интеллект» НИЯУ МИФИ, в интервью для NEWS.ru. Он прокомментировал эксперимент ученых из Стэнфордского университета, которые с применением языковой модели ChatGPT создали цифровые копии более тысячи личностей с точностью 85%.

«Мы можем воссоздать профиль человека по его ответам на вопросы, постам в социальных сетях и любым текстовым материалам, которые он оставляет в своём цифровом следе. Злоумышленники могут собрать тексты жертвы, загрузить их в модель и затем расспрашивать её о различных аспектах, тем самым получая информацию о человеке. Это действительно может представлять серьёзную угрозу», — пояснил он. Душкин также отметил, что сейчас важно задуматься о том, следует ли оставлять свой цифровой след. Кроме того, он указал, что мошенники могут использовать сгенерированные профили для общения с жертвами от лица знакомых. В таких случаях необходимо проверять аккаунты отправителей сообщений.

В то же время Душкин признал, что цифровые копии, созданные ИИ, могут быть полезными и использоваться для решения различных задач. Нейросети являются лишь инструментами, а то, как они будут применяться — во благо или во вред — зависит от действий людей, подчеркнул он. «Например, у меня есть системы, которые решают определённые задачи с использованием языковых моделей. У всех моих сотрудников есть множество таких агентов, помогающих в повседневных делах. Мы уже не представляем свою работу без них», — заключил Душкин.

Как сообщалось ранее – Ученые пытаются объяснить загадочное совпадение «больших чисел», описывающих наш мир

Мы в Telegram

Новости наших партнеров

Добавить комментарий