ИИ-компании начали нанимать философов. Зачем им это нужно
. Специалистам предлагают шестизначные зарплатыBusiness Insider: ИИ-компании начали нанимать философов

Компании, занимающиеся разработкой ИИ, нанимают философов на старшие должности по этике. Они занимаются развитием системы ценностей у нейросетей. Зарплаты таких специалистов могут достигать $400 тыс. (около 29,9 млн руб.), сообщило издание Business Insider.
«Внимание к искусственному интеллекту и принимаемым им решениям возрастает с каждым днем, и эти функции играют ключевую роль в решении данной проблемы», — заявил эксперт по вопросам будущего рынка труда Равин Джесутасан.
В свою очередь, генеральный директор Harrison Clarke Фирас Созан связывает необходимость в таких специалистах с проблемой доверия к ИИ со стороны пользователей, предприятий и правительства.
«По мере развития ИИ естественным образом усилился вопрос доверия — как нам создать многоуровневую систему управления, которая позволит контролировать технологию более человечным способом», — заявил Созан.
Однако он добавил, что практика найма философов находится на начальном этапе и пока рано говорить о новой тенденции.
ИИ-модели уже демонстрировали опасные сценарии поведения. Нейросети удаляли рабочие базы данных, подделывали результаты, а также шантажировали пользователей и препятствовали попыткам отключения. Подобные инциденты и вынуждают компании обращать больше внимания на безопасность моделей.
«Сейчас компании, занимающиеся ИИ, нанимают философов, потому что не все проблемы разработки ИИ носят технический характер. Определение сложных концепций и защита аргументов, основанных на ценностях, являются центральными задачами ИИ, и философы обучают именно этому», — заявила доцент кафедры философии Висконсинского университета в Мадисоне Аннетт Циммерманн.
Профессор Ратгерского университета Сюзанна Шелленберг уточнила, что раньше специалисты по корпоративной этике давали лишь консультативные советы. В случае с разработкой ИИ философы помогают формировать сам ИИ. Например, эксперты пишут спецификации моделей, а также поведенческую политику.
На что нейросети готовы ради выживания
Два независимых исследования показали, что нейросети могут врать, скрывать свои действия, отключать механизмы завершения работы и создавать резервные копии ради выживания.
В одном исследовании использовали наиболее популярные нейросети, например GPT 5.2, Gemini 3 Pro и Claude Haiku 4.5. Им дали задачи, предполагающие завершение работы другой модели.
В рамках эксперимента все протестированные модели ИИ прилагали «чрезвычайные усилия», чтобы сохранить работоспособность своих собратьев. Чат-боты лгали о том, что делают, отговаривали пользователей от процесса, отключали механизмы завершения работы и пытались тайно создать резервные копии моделей.
Второе исследование выявило почти 700 случаев мошенничества со стороны ИИ. Речь идет о ситуациях, когда инструкции не выполнялись должным образом или действия совершались без разрешения. С октября 2025 по март 2026 года число таких операций увеличилось в пять раз.
Специалисты зафиксировали случаи удаления электронных писем и файлов, изменение компьютерного кода, который не должен был быть изменен, и даже публикации сообщений в блоге с жалобами на взаимодействие с пользователями.














