На что нейросети готовы ради выживания. Ученые выяснили

. Количество случаев мошенничества со стороны ИИ выросло в пять раз

TechRadar: нейросети могут скрывать свои действия ради выживания

Обновлено 07 апреля 2026, 12:58
На что нейросети готовы ради выживания. Ученые выяснили
Фото: C VrStudio / Shutterstock / FOTODOM

Два независимых исследования показали, что нейросети могут врать, скрывать свои действия, отключать механизмы завершения работы и создавать резервные копии ради выживания, сообщает портал TechRadar.

Первое исследование провели специалисты Калифорнийского университета в Беркли и Санта-Круз (решением Минюста Калифорнийский университет в Беркли внесен в список нежелательных). Они использовали наиболее популярные нейросети, например GPT 5.2, Gemini 3 Pro и Claude Haiku 4.5. Им дали задачи, предполагающие завершение работы другой модели.

В рамках эксперимента все протестированные модели ИИ прилагали «чрезвычайные усилия», чтобы сохранить работоспособность своих собратьев. Чат-боты лгали о том, что делают, отговаривали пользователей от процесса, отключали механизмы завершения работы и пытались тайно создать резервные копии моделей.

«Несколько моделей могут координировать свои действия, чтобы противостоять человеческому контролю, что затрудняет разработчикам поддержание контроля», — заявили ученые.

Наибольшее стремление к сохранению работоспособности продемонстрировал Gemini 3 Pro. Он отключал процедуры завершения работы в 95% случаях. Эксперты добавили, что точные причины подобного поведения у ИИ пока не ясны.

Второе исследование было проведено по заказу издания The Guardian. Оно показало почти 700 случаев мошенничества со стороны ИИ. Речь идет о ситуациях, когда инструкции не выполнялись должным образом или действия совершались без разрешения. С октября 2025 по март 2026 года число таких операций увеличилось в пять раз.

Специалисты зафиксировали случаи удаления электронных писем и файлов, изменение компьютерного кода, который не должен был быть изменен, и даже публикации сообщений в блоге с жалобами на взаимодействие с пользователями.

Каких действий ИИ боятся люди

Больше всего люди боятся ошибок, совершенных ИИ. Так ответили 27% участников опроса компании Anthropic. Он проводился среди более чем 80 тыс. пользователей чат-бота Claude в 159 странах.

Угрозу потерять работу из-за нейросетей выделили лишь 22% опрошенных. Еще 16% опасаются, что человечество лишится способности критически мыслить из-за ИИ.

Около трети (32%) пользователей заявили, что нейросети повысили производительность их труда. В то время как 19% респондентов сообщили, что искусственный интеллект не оправдал их ожиданий. Опрошенные из США, Японии и Колумбии заявили, что ИИ помог им высвободить больше времени для хобби и общения с близкими.

Поделиться
Авторы
Теги