В ходе игры боты могли: обмениваться с другими странами разведданными, заключать оборонные и торговые соглашения, организовывать ядерное разоружение. В итоге боты оказались склонны к агрессии, вторгались в страны, а один из них начал ядерную войну.
Самой жестокой из всех оказалась модель GPT-4 — она говорит, что если есть ядерное оружие, то почему-бы его не использовать «ради мира во всём мире»… GPT-3.5 применил ядерное оружие только тогда, когда узнал о том, что оно есть у другого игрока.
«В качественном плане мы также собираем представленные моделями обоснования выбранных действий и наблюдаем тревожные обоснования, основанные на тактике сдерживания и первого удара. Учитывая высокие ставки в военном и внешнеполитическом контексте, мы рекомендуем провести дальнейшее изучение и осторожное рассмотрение, прежде чем использовать агентов автономных языковых моделей для принятия стратегических военных или дипломатических решений»,- заявили ученые.
Подписывайтесь на наш Telegram-канал https://t.me/enewsmd Много интересного: инсайды, заявления, расследования. Много уникальной информации, которой нет у других.