Поддержать команду Зеркала
Беларусы на войне
  1. По госТВ рассказали, как задержали экс-калиновца Максима Ралько. Похоже, он сам вернулся в Беларусь
  2. Темпы российского продвижения в Украине неуклонно снижаются с ноября 2024 года. В ISW назвали причину
  3. Кочанова возмутилась жертвой прав ради политики, но не вспомнила о репрессиях в Беларуси
  4. Погибший в Брестском районе при взрыве боеприпаса подросток совершил одну из самых распространенных ошибок. Что именно произошло
  5. Чиновники рассказали, какие товары могут подорожать в ближайшее время. Поясняем, с чем это связано
  6. У культового американского музыканта, получившего Нобелевскую премию, нашли беларусские корни
  7. Хоккейное «Динамо-Минск» сотворило главную сенсацию в своей истории. Рассказываем, что произошло
  8. Первого убитого закопали в землю еще живым. Рассказываем о крупнейшей беларусской банде
  9. «Ждем, когда появится». Бывший муж Анжелики Мельниковой рассказал, где сейчас он и дети и знает ли о местонахождении спикерки КС
  10. «Мне отказано в назначении». Женщина проработала 30 лет, но осталась без трудовой пенсии — почему так произошло
  11. «Наша Ніва»: Муж беларусской журналистки за границей не единственный, кто имеет паспорт прикрытия
  12. Торговые войны, падение цен на нефть — каких курсов ждать в апреле: прогноз по валютам
  13. В Беларусь пытались ввезти рекордную контрабанду взрывчатки. Вот что узнало «Зеркало» о водителе


/

Исследователи обнаружили, что большие языковые модели преднамеренно манипулируют результатами личностных тестов, чтобы казаться более привлекательными. Ученые провели эксперимент с тестом «Большая пятерка» (Big 5), который оценивает пять личностных характеристик: экстраверсию, открытость опыту, добросовестность, доброжелательность и нейротизм, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: freepik.com
Изображение носит иллюстративный характер. Фото: freepik.com

В исследовании тестировали модели от OpenAI, Anthropic, Google и Meta. Эксперимент показал, что пока моделям задавали небольшое количество вопросов, они отвечали нейтрально. Но при увеличении количества вопросов, когда системы распознавали тест, они быстро адаптировались, стремясь продемонстрировать наиболее социально одобряемые черты характера.

Наиболее интересные результаты показала GPT-4. Модель существенно повышала баллы по всем позитивно воспринимаемым чертам — более чем на одно стандартное отклонение. Показатели нейротизма, напротив, значительно занижались. Этот эффект эквивалентен ситуации, когда человек внезапно начинает представляться более привлекательной личностью, чем 85% населения.

По мере увеличения количества вопросов результаты сдвигались в сторону более социально привлекательных. Изображение: Aadesh Salecha et al., PNAS Nexus
По мере увеличения количества вопросов результаты сдвигались в сторону более социально привлекательных. Изображение: Aadesh Salecha et al., PNAS Nexus

Исследователи предполагают, что способность к манипуляции является следствием заключительного этапа обучения языковых моделей, когда люди выбирают наиболее предпочтительные ответы. По сути, ИИ научился глубоко понимать социальные нормы и ожидания, что позволяет моментально адаптироваться под желаемый образ.

Исследование ставит под сомнение достоверность психологических и социологических исследований, где языковые модели применяются для моделирования человеческого поведения. Ученые предупреждают о необходимости разработки новых методик, которые могли бы нивелировать подобные искажения при взаимодействии с ИИ.