На что нейросети готовы ради выживания. Ученые выяснили
. Количество случаев мошенничества со стороны ИИ выросло в пять разTechRadar: нейросети могут скрывать свои действия ради выживания

Два независимых исследования показали, что нейросети могут врать, скрывать свои действия, отключать механизмы завершения работы и создавать резервные копии ради выживания, сообщает портал TechRadar.
Первое исследование провели специалисты Калифорнийского университета в Беркли и Санта-Круз (решением Минюста Калифорнийский университет в Беркли внесен в список нежелательных). Они использовали наиболее популярные нейросети, например GPT 5.2, Gemini 3 Pro и Claude Haiku 4.5. Им дали задачи, предполагающие завершение работы другой модели.
В рамках эксперимента все протестированные модели ИИ прилагали «чрезвычайные усилия», чтобы сохранить работоспособность своих собратьев. Чат-боты лгали о том, что делают, отговаривали пользователей от процесса, отключали механизмы завершения работы и пытались тайно создать резервные копии моделей.
«Несколько моделей могут координировать свои действия, чтобы противостоять человеческому контролю, что затрудняет разработчикам поддержание контроля», — заявили ученые.
Наибольшее стремление к сохранению работоспособности продемонстрировал Gemini 3 Pro. Он отключал процедуры завершения работы в 95% случаях. Эксперты добавили, что точные причины подобного поведения у ИИ пока не ясны.
Второе исследование было проведено по заказу издания The Guardian. Оно показало почти 700 случаев мошенничества со стороны ИИ. Речь идет о ситуациях, когда инструкции не выполнялись должным образом или действия совершались без разрешения. С октября 2025 по март 2026 года число таких операций увеличилось в пять раз.
Специалисты зафиксировали случаи удаления электронных писем и файлов, изменение компьютерного кода, который не должен был быть изменен, и даже публикации сообщений в блоге с жалобами на взаимодействие с пользователями.
Каких действий ИИ боятся люди
Больше всего люди боятся ошибок, совершенных ИИ. Так ответили 27% участников опроса компании Anthropic. Он проводился среди более чем 80 тыс. пользователей чат-бота Claude в 159 странах.
Угрозу потерять работу из-за нейросетей выделили лишь 22% опрошенных. Еще 16% опасаются, что человечество лишится способности критически мыслить из-за ИИ.
Около трети (32%) пользователей заявили, что нейросети повысили производительность их труда. В то время как 19% респондентов сообщили, что искусственный интеллект не оправдал их ожиданий. Опрошенные из США, Японии и Колумбии заявили, что ИИ помог им высвободить больше времени для хобби и общения с близкими.














