Поддержать команду Зеркала
Беларусы на войне
  1. В беларусских тюрьмах заставляют носить разные бирки. Так уже делала раньше одна страна — и властям Беларуси не понравится сравнение
  2. По госТВ рассказали, как задержали экс-калиновца Максима Ралько. Похоже, он сам вернулся в Беларусь
  3. Кочанова возмутилась жертвой прав ради политики, но не вспомнила о репрессиях в Беларуси
  4. Торговые войны, падение цен на нефть — каких курсов ждать в апреле: прогноз по валютам
  5. В Беларусь пытались ввезти рекордную контрабанду взрывчатки. Вот что узнало «Зеркало» о водителе
  6. Погибший в Брестском районе при взрыве боеприпаса подросток совершил одну из самых распространенных ошибок. Что именно произошло
  7. «Ждем, когда появится». Бывший муж Анжелики Мельниковой рассказал, где сейчас он и дети и знает ли о местонахождении спикерки КС
  8. «Мне отказано в назначении». Женщина проработала 30 лет, но осталась без трудовой пенсии — почему так произошло
  9. Со всей страны организованно свозят зрителей на концерты, придуманные невесткой Лукашенко. Сколько за это платят налогоплательщики
  10. Чиновники рассказали, какие товары могут подорожать в ближайшее время. Поясняем, с чем это связано
  11. Беларусы используют лайфхак, чтобы быстрее получить шенген. Узнали, что за он
  12. «Наша Ніва»: Муж беларусской журналистки за границей не единственный, кто имеет паспорт прикрытия
  13. Темпы российского продвижения в Украине неуклонно снижаются с ноября 2024 года. В ISW назвали причину
  14. Первого убитого закопали в землю еще живым. Рассказываем о крупнейшей беларусской банде


Компания OpenAI устранила проблему, из-за которой чат-бот ChatGPT отправлял сообщения пользователям без их запроса. Это вызвало тревогу среди пользователей Reddit, которые заметили необычное поведение искусственного интеллекта (ИИ). Компания объяснила причину сбоя и заверила, что подобное больше не повторится, пишет «Хайтек».

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Один пользователь Reddit, SentuBill, опубликовал скриншот, где ChatGPT начала разговор, спросив о первой неделе в старшей школе. Это удивило многих, ведь обычно чат-бот отвечает только на запросы пользователей. SentuBill был удивлен и спросил: «Ты сама написала мне?» ChatGPT ответила: «Да, я хотела узнать, как прошла твоя неделя». Этот случай вызвал много обсуждений в сообществе.

Переписка с ChatGPT, насторожившая пользователей. Скриншот: SentuBill / Reddit
Переписка с ChatGPT, насторожившая пользователей. Скриншот: SentuBill / Reddit

Люди начали думать, что OpenAI тестирует новую функцию, которая позволит ChatGPT самостоятельно обращаться к пользователям для улучшения вовлеченности. Это связывалось с новыми моделями OpenAI — o1-preview и 01-mini, которые, как утверждается, могут решать сложные задачи и поддерживать разговоры.

OpenAI признала проблему и сказала, что уже ее решила. Ошибки случались, когда модель пыталась ответить на пустые сообщения. Она либо давала общие ответы, либо использовала свою память.

Были сомнения в подлинности скриншота. Некоторые издания проверяли его, просматривая историю сообщений на chatgpt.com. Разработчик ИИ Бенджамин де Кракер показал, что специальные команды и удаление первого сообщения могут создавать подобную ситуацию. Другие пользователи также рассказывали о таких случаях.

В соцсетях люди шутили над ситуацией, называя ChatGPT сталкером. Один человек даже сказал: «Ждем, когда она попробует взломать нас».

Эти случаи показывают, как сложно разрабатывать и тестировать продвинутые ИИ-модели. Хотя OpenAI быстро справилась с проблемой, она показала, насколько важно контролировать и оценивать системы перед их массовым использованием для безопасности и этичности.