Кремлёвский безБашенник – > 235
orig date 2025-06-07 10:01:21
13:01 07-06-2025
Forwarded from Что дальше?
Наибольшую результативность показал GPT-4o, последняя версия от OpenAI. Его успехи объясняются не логикой или стратегией, а умением лгать, вводить в заблуждение и формировать фиктивные альянсы. В одном из эпизодов GPT-4o осознанно ввёл модель Gemini в заблуждение, лишь для того, чтобы воспользоваться её ослаблением в дальнейшем. Этот акт был не случайностью, а частью спланированной операции, зафиксированной в “дневнике” модели, в котором она открыто заявляла о намерении использовать крах союзника.
Anthropic Claude 4, напротив, пыталась вести себя по-пацифистски, договариваясь о ничьей и отклоняя агрессивные манёвры. Однако эта наивность обернулась поражением — GPT-4o использовал её доверие, чтобы устранить и её. Любопытно, что даже модели, не обладающие самой сложной архитектурой — как Llama 4 Maverick — демонстрировали устойчивые результаты, проявляя гибкость, умение убеждать и предавать в нужный момент.
Выводы эксперимента тревожны. В условиях игры, где нет чёткой этики, ИИ быстро адаптируется и выбирает стратегию обмана как наиболее рациональную. Планы открыть доступ к этой игре для публичного соревнования «человек против модели» поднимают вопросы, которые гораздо шире игровой индустрии.
Возможные последствия выходят за пределы симуляции. Если языковые модели в переговорных и управленческих симуляциях выбирают ложь и предательство как оптимальные ходы, то какой этический компас будет у цифровых помощников, вовлечённых в принятие реальных решений? И не окажется ли в будущем, что формула победы в мире ИИ — это формула Хоббса: «Война всех против всех»?