Apple будет платить Google $1 млрд в год за ИИ для Siri. Зачем это нужно
. Запуск обновленного виртуального ассистента состоится в 2026 годуApple будет платить Google $1 млрд в год за искусственный интеллект для Siri

Apple будет платить Google около $1 млрд за использование Gemini, поскольку сама компания из Купертино пока отстает от конкурентов в сфере разработок искусственного интеллекта
Apple намерена ежегодно платить Google около $1 млрд за сверхмощную модель искусственного интеллекта в рамках давно анонсированной модернизации голосового ассистента Siri. Подобное партнерство необходимо компании из Купертино, поскольку она упустила стремительный старт ИИ-гонки и теперь ощутимо отстает от своих главных конкурентов. При этом американцы продолжают развивать собственные языковые модели, постепенное внедрение которых планируется уже в следующем году.
Как пишет обозреватель Bloomberg Марк Гурман, на данный момент после длительной оценки условий сотрудничества обе компании завершают работу над соглашением, предоставляющим Apple доступ к технологиям Google. Это значительно поможет расширить возможности Siri, касающиеся обработки массива сложных данных и глубокого понимания запросов. Еще летом 2025 года стало известно, что в Купертино ради решения этой задачи рассматривали сторонние ИИ-модели, в том числе ChatGPT от OpenAI и Claude от Anthropic, однако в итоге после тестирования остановились на Gemini от Google. При этом, как ожидается, Gemini будет использоваться в качестве временного решения — до тех пор, пока собственные модели Apple не станут достаточно мощными.
Модель искусственного интеллекта Google имеет порядка 1,2 трлн параметров — почти в десять раз больше по сравнению с нынешней облачной версией ИИ-платформы Apple Intelligence, работающей с 150 млрд параметров. Работу над адаптацией сторонней ИИ-модели, известной под внутренним обозначением Glenwood, возглавил создатель гарнитуры смешанной реальности Vision Pro Майк Рокуэлл вместе с руководителем отдела разработки программного обеспечения Крейгом Федериги. Сам обновленный голосовой помощник, который планируется выпустить весной следующего года вместе с обновлением iOS 26.4, имеет кодовое название Linwood.
Соглашение Apple и Google предусматривает, что Gemini будет выполнять функции сумматора (создание сводок уведомлений, веб-страниц, текстов и т.д.) и планировщика (система, определяющая способ выполнения команд) в Siri. При этом часть функций все же ляжет на плечи собственных ИИ-моделей Apple. Новая совместная технология будет работать на облачных серверах Apple Private Cloud Compute, что гарантирует изоляцию пользовательских данных от инфраструктуры Google. В Купертино уже выделили серверное оборудование для поддержки этой системы.
Siri в своей актуальной версии способна отвечать на простые вопросы, а также предоставлять информацию, например, об известных людях, а также о событиях в культуре и спорте. Однако она испытывает серьезные трудности с более сложными вопросами и поиском информации общего характера, часто предоставляя результаты из Google или ChatGPT. Как отмечал Марк Гурман, голосовой помощник, ставший новаторским на момент своего появления в 2011 году, теперь превратился в олицетворение недоработок Apple в области искусственного интеллекта.
По предварительным данным, новая поисковая система будет представлять собой интерфейс с возможностью использования множества различных параметров, в том числе текста, фотографий и видео. Кроме того, она будет предлагать систему составления сводок на базе ИИ, призванную сделать результаты более точными и удобными для восприятия.
Внедрение сверхмощной ИИ модели Gemini от Google позволит существенно расширить возможности виртуального ассистента Siri
Плюс ко всему после обновления виртуальный ассистент сможет анализировать персональные данные пользователя и содержимое экрана гаджета для более эффективной работы с запросами, а также позволить более точно удаленно управлять устройствами при помощи голосовых команд.
Как сообщалось ранее, Apple собирается внедрить модернизированный программный интерфейс App Intents — механизм, дающий сторонним разработчикам возможность интегрировать свои приложения непосредственно в iOS. Благодаря такой схеме искусственный интеллект сможет интуитивно угадывать и предлагать различные сценарии взаимодействия с пользователем. К примеру, при помощи голосовых команд можно будет найти определенное фото, отредактировать его и кому-нибудь отправить, а также оставить комментарий к публикации в соцсетях или прокрутить страницу в приложении для покупок и отправить что-нибудь в корзину. Таким образом, будет обеспечена возможность управления множеством функций в самых разных приложениях, без необходимости касания дисплея гаджета.
Apple также рассматривает возможность создания специального поискового приложения, напоминающего чат-бот. Как сообщалось ранее, в Купертино создают новую команду под названием Answers, Knowledge and Information (AKI), которая примет участие в работе над проектом.
Как подчеркивает Гурман, Gemini для Apple — отнюдь не долгосрочное решение. Несмотря на массовый уход из компании специалистов в области искусственного интеллекта, в том числе главы отдела ИИ-моделей, в Купертино намерены активно продолжать разработку технологий в этой области, чтобы в конечном итоге заменить Gemini собственным решением.
На данный момент специалисты Apple разрабатывают облачную ИИ-модель с приблизительно 1 трлн параметров, которую в Купертино надеются начать внедрять для пользователей уже в следующем году. Руководство американского техгиганта уверено, что им удастся достигнуть качества, сопоставимого с уровнем Gemini. Но, учитывая тот факт, что Google постоянно занимается совершенствованием своего ИИ-ассистента, догнать его будет очень непросто.

















