Поддержать команду Зеркала
Беларусы на войне
  1. Если бы не случайность, этого участника самого массового убийства в истории Беларуси так бы и не наказали. Рассказываем
  2. «Я впервые начинаю всерьез задумываться об отъезде». Протасевич опять пожаловался на проблемы с поиском работы
  3. Под Минском в картофельном поле прогремел взрыв. В МЧС рассказали подробности инцидента
  4. «У меня проблема с сексуальной зависимостью». Стрижак высказался о своих поступках, из-за которых его обвинили в харассменте
  5. Среди 49 погибших в авиакатастрофе в России есть беларус. Вот что узнало «Зеркало»
  6. Опасное соседство. В самом сердце Бреста десятки лет вручную перегружали радиоактивные материалы — вот что с этим местом теперь
  7. В первые часы войны замглавы администрации Путина дозвонился до Ермака и предложил Украине сдаться. Тот в ответ произнес всего три слова
  8. «Мы с вами окажемся в каше!» Провластный политолог в эфире гостелеканала заявил, что Путину не надо было воевать
  9. Слышали про певца из США, который «отдыхает» в Минске и встречается с топ-чиновниками? Мы отыскали, кто мог привезти его в Беларусь
  10. Семью беларусов депортируют из Швеции — СМИ
  11. Лукашенко рассказал, куда пойдут его пропагандистки, если начнется война
  12. Чиновник назвал «виноватых» в замедлении роста экономики
  13. Пассажирский самолет Ан-24 разбился в Амурской области России. Предварительно, выживших нет
  14. Удалил аккаунт в Telegram, почистил технику — и все равно пришли по «делу Гаюна». Беларус рассказал, как его вычислили силовики


Эксперт по кибербезопасности обнаружил уязвимость в ChatGPT, которая позволяет злоумышленникам внедрять ложные данные в память искусственного интеллекта (ИИ) через вредоносные запросы, что может угрожать безопасности персональных данных, пишет «Хайтек».

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Исследователь в области кибербезопасности Иоганн Рейбергер выявил уязвимость в ChatGPT, которая позволяет злоумышленникам внедрять ложную информацию в память чат-бота с помощью вредоносных запросов. Эта проблема может угрожать конфиденциальности данных пользователей.

ChatGPT использует долговременную память для хранения информации о пользователе, включая возраст, пол и личные предпочтения. Это упрощает общение, так как чат-бот помнит важные данные из предыдущих разговоров. Однако Рейбергер выяснил, что злоумышленники могут использовать специальные запросы, чтобы подменить эти данные на ложные.

Исследователь продемонстрировал, как через непрямые инъекции — например, с помощью документов или ссылок — можно заставить ИИ поверить, что пользователь живет в «Матрице» или считает Землю плоской. Все последующие диалоги будут основаны на этих фальшивых данных. Особенно опасным стало использование внешних файловых хранилищ, таких как Google Диск или OneDrive.

В мае Рейбергер сообщил об этой проблеме в OpenAI, но его обращение закрыли, не придав ей большого значения. Позже, предоставив модель взлома, он показал, как вредоносные ссылки позволяют хакеру получить доступ ко всей переписке пользователя, включая новые сеансы общения.

OpenAI частично устранила уязвимость, но исследователь считает, что риск инъекций через вредоносные запросы все еще существует. Пользователям рекомендуется следить за временем добавления новой информации в память ИИ и проверять ее на предмет ложных данных.

OpenAI также выпустила инструкцию по управлению функцией памяти, чтобы помочь пользователям защитить свои данные.