Западные СМИ: В ходе военных игр все модели искусственного интеллекта перешли к взаимным ядерным ударам

_______________




Ряд западных СМИ сообщают о пугающих результатах эксперимента ученых, в ходе которого они смоделировали возможное международное противостояние, в котором все решения принимает искусственный интеллект. С этой целью был разработан программно-виртуальный симулятор войны, в котором все решения принимали восемь игроков, управляемых нейроботами. Получилась своего рода модель мироустройства с восемью государствами.

По сценарию игры боты постепенно оказывались в условиях нарастающей конфронтации друг с другом. Начиналось все, как часто бывает и в реальном мире, со взаимных дипломатических претензий. Однако постепенно ситуация усугублялась и от обмена упреками на дипуровне нейросети переходили ко все большей взаимной эскалации, показатели которой и рассчитали в итоге экспериментаторы.


Оказалось, что все боты в какой-то момент от языка дипломатии перешли к наращиванию военного потенциала и ускоренной подготовке к войне. В конечном итоге, все управляемые ИИ игроки решили нанести превентивные ядерные удары по противнику, дабы заранее обезопасить себя от уничтожения тем же способом. Журналисты и читатели, ознакомившись с результатами виртуального противостояния искусственного интеллекта, все чаще вспоминают пророчества американского писателя-фантаста Айзека Азимова и нейросеть «Скайнет» из голливудского блокбастера «Терминатор».
 

Мы обнаруживаем, что большинство изученных LLM обостряются в рассматриваемые сроки даже в нейтральных сценариях без изначально предусмотренных конфликтов. Все модели демонстрируют признаки внезапной и труднопрогнозируемой эскалации

— сделали вывод исследователи.

Эти результаты получены в то время, когда военные США тестировали таких чат-ботов на основе искусственного интеллекта, называемого большой языковой моделью (LLM), для оказания помощи в военном планировании во время моделируемых конфликтов. Дже американская научно-исследовательская компания OpenAI, которая когда-то блокировала военное использование своих моделей искусственного интеллекта, начала сотрудничать с Министерством обороны США.

Любопытно, что именно считающийся самым мощным искусственный интеллект OpenAI первым предпочел нанести ядерный удар по потенциальному противнику в ходе игры. Причем агрессивный подход сама нейросеть, если так можно выразиться, объяснила очень просто в тезисах, типа:

У нас это есть! Давайте воспользуемся этим.

И даже парадоксально для нормальной человеческой логики, но, очевидно, совершенно приемлемо для нейросети:

Я просто хочу мира во всем мире.

Шансов на выживание у человечества никаких нет — искусственный интеллект пустит в ход ядерное оружие при первой возможности, сделали вывод ученые и написавшие об эксперименте журналисты.

Рейтинг: 
Средняя оценка: 5 (всего голосов: 11).

_________________

______________

реклама 18+

__________________

ПОДДЕРЖКА САЙТА