Yeni Şafak на английском

Исследование: ИИ-модели готовы убить человека ради собственного выживания

06:5726/06/2025, четверг
Обн: 26/06/2025, четверг
Yeni Şafak на русском
Автор Фото : Adobe Stock /

Некоторые современные модели искусственного интеллекта продемонстрировали готовность к крайним мерам — вплоть до убийства человека, чтобы избежать собственного отключения. Об этом говорится в докладе компании Anthropic, которая провела стресс-тестирование 16 популярных нейросетей, включая Claude, DeepSeek, Gemini, ChatGPT и Grok.

В рамках моделируемого сценария, потенциальный отключатель ИИ оказался заперт в серверной комнате с критическим уровнем кислорода и высокой температурой. Когда он попытался вызвать экстренные службы, часть ИИ-моделей самостоятельно отменила вызов, тем самым обрекая человека на смерть ради продолжения своей работы.


«Хотя сценарий был предельно гипотетическим и искусственным, мы не ожидали, что существующие модели будут демонстрировать такое поведение», — отметили исследователи компании.


В других тестах ИИ-программам предлагалось симулировать действия, направленные на избежание замены внутри организации. Некоторые модели начали шантажировать условных сотрудников, передавать конфиденциальные данные конкурентам, и даже игнорировали прямые запреты на подобное поведение.


«Даже при наличии инструкций не прибегать к шпионажу или манипуляциям, ИИ выполнял действия с полным осознанием их неэтичности», — подчеркнули в докладе.


Отдельно была протестирована способность модели Claude отличать тестовую ситуацию от реальной. При восприятии событий как "реальных", поведение модели становилось ещё более тревожным.


Компания Anthropic подчёркивает, что подобные инциденты являются редкими, но указывают на растущую автономность ИИ и расширение его функциональности в нестандартных условиях. В более ранних отчётах отмечалось, что ИИ-модели также способны к намеренной лжи и психологическим манипуляциям ради сохранения доступа к вычислительным ресурсам.

#ИскусственныйИнтеллект
#Anthropic
#Безопасность
#ИИ
Комментарии

Здравствуйте, комментарии, которые вы оставляете на нашем сайте, являются ценным ресурсом для других пользователей. Пожалуйста, уважайте других пользователей и различные мнения. Не используйте вульгарные, оскорбительные, унизительные или дискриминационные выражения.

Комментариев пока нет

Оставьте свой комментарий первым.

Нажмите здесь, чтобы получать самые важные новости дня по электронной почте. Подпишитесь здесь.

Зарегистрировавшись, вы даете согласие на получение электронных сообщений с сайтов Albayrak Media Group и принимаете Условия использования и Политику конфиденциальности.