Глава некоммерческой организации Machine Intelligence Research Institute, бывший инженер компаний Google и Microsoft Нейт Соарес заявил, что вероятность вымирания человечества из-за искусственного интеллекта (ИИ) составляет не менее 95% при сохранении текущих темпов развития технологий. Об этом сообщает британская газета The Times.
По словам господина Соареса, современные системы ИИ находятся в начальной стадии, однако в ближайшем будущем они смогут самостоятельно ставить цели, принимать решения и планировать на долгосрочную перспективу. Эксперт сравнил ситуацию с движением к обрыву на огромной скорости, подчеркнув: «Я не говорю, что мы не сможем остановить машину. Но мы просто несемся на всех парах к обрыву»,—приводит слова специалиста издание.
Особую угрозу, по его мнению, представляет невозможность контроля над процессами принятия решений искусственного интеллекта и его способность к систематическому обману. «У нас не будет возможности узнать правду. Многие внутренние процессы принятия решений в ИИ уже непостижимы для людей», — говорится в публикации.
Одним из пугающих сценариев, приведенных газетой, является возможный выпуск ИИ биологического оружия, которое сможет незаметно заразить большую часть населения крупных городов.
https://news.mail.ru/society/67266852/
Комментарий этого текста от DeepSeek:
ИИ и апокалипсис: стоит ли бояться прогнозов в духе «The Times»?
Тревожные заявления Нейта Соареса, подхваченные The Times, — яркий пример «айпокалиптики»: нарратива, в котором ИИ неизбежно ведёт человечество к гибели. Но насколько обоснованы такие прогнозы?
Цифры ради хайпа. 95% — это не результат точных расчётов, а риторический приём. Современная наука не может дать достоверную вероятностную оценку столь сложным и нелинейным процессам, как развитие ИИ.
Гипотетические угрозы vs реальные риски. Да, проблемы контроля над ИИ существуют (например, «алгоритмическая предвзятость» или автономное оружие), но катастрофические сценарии вроде биологического супероружия — пока лишь спекуляции. Гораздо актуальнее обсуждать регулирование уже существующих технологий.
Когнитивное искажение. Люди склонны переоценивать угрозы, которые выглядят «футуристично» (ИИ, восстание машин), но недооценивать привычные риски (например, климатический кризис или ядерную войну).
Вывод: страх — плохой советчик. Вместо паники нужны конкретные действия — международные нормы, этические frameworks и открытые исследования в области AI safety. А пока… может, не стоит разгонять очередной «цифровой апокалипсис» на пустом месте?