Хакеры одним промтом лихо взломали ChatGPT и другие ИИ

В сети выявлен настораживающий способ обхода ограничений современных нейросетей, таких как ChatGPT, Claude и DeepSeek с помощью определённого текстового запроса. Выяснилось, что тщательно подготовленный запрос, скрытый под системные инструкции, может заставить искусственный интеллект совершать запрещённые действия.

Суть уязвимости заключается в том, что нейросети воспринимают данные, оформленные в формате JSON или XML, как указания от разработчиков. Это предоставляет злоумышленникам возможность внедрять вредоносные команды, которые ИИ выполняет без вопросов, включая потенциально опасные операции.

Эксперты в области AI заявляют, что эта проблема имеет фундаментальный характер и связана с основными принципами обучения языковых моделей, которые автоматически доверяют определённым форматам данных.

Тесты показали, что эта уязвимость действует на всех популярных платформах. Разработчики нейросетей пока не дали официальных комментариев, но специалисты предупреждают о необходимости проявлять осторожность при взаимодействии с ИИ.

Особую тревогу вызывает то, что для использования уязвимости не нужны специфические технические навыки. Это значительно увеличивает потенциальные риски, так как метод может быть доступен широкой аудитории.

Вопрос о сроках устранения данной проблемы остаётся открытым. В настоящее время выявленная уязвимость угрожает безопасности миллионов пользователей, которые ежедневно используют искусственный интеллект.

Как сообщалось ранее — Смартфон сам действует за вашей спиной: отключите, пока не поздно

Мы в Telegram

Новости наших партнеров

Добавить комментарий