Как Google стал мозгом смартфонов Apple и Android одновременно

Как Google стал мозгом смартфонов Apple и Android одновременно

Siri появилась в 2011 году. Прошло пятнадцать лет, а ассистент до сих пор не справляется с простыми задачами — например, с одновременной отправкой сообщения и установкой таймера. За это время ChatGPT набрал 200 миллионов пользователей, Claude стал инструментом для разработчиков, а Google тихо превратил Gemini в самое мощное семейство ИИ-моделей, о котором мало кто знает за пределами ИИ-сообщества.

В 2024 году Apple представила Apple Intelligence — с громким анонсом и впечатляющим демо, где Siri находила данные о рейсе матери в почте и календаре. Но уже в декабре стало ясно: внутренние разработки не работают. Компания добавила интеграцию с ChatGPT — не как полноценное решение, а как временную замену. Когда Siri не справляется, она предлагает: «Может, попробует ChatGPT?» Это не развитие — это признание поражения.

В марте 2025 года Apple отложила запуск улучшенной Siri. Внутри компании называли ситуацию «уродством» и «позором». Проблема — в архитектуре Siri, унаследованной с 2010 года. Она несовместима с современными большими языковыми моделями. Это как пытаться построить небоскрёб на фундаменте из гнилых балок.

Сделка века: Apple платит Google за мозг

В январе 2026 года Apple объявила о сделке с Google. Gemini станет основой следующего поколения ИИ в iPhone. По слухам, сделка оценивается в миллиард долларов. Это не победа Apple — это капитуляция.

Apple сохранила контроль над данными: Gemini работает на серверах Apple Private Cloud Compute. Google не видит ваши сообщения, геолокацию, историю приложений. Но при этом его модель обрабатывает каждый сложный запрос к Siri.

Google получил доступ к полутора миллиардам устройств Apple. Каждый раз, когда Siri «думает», она использует мозг Google. При этом Apple оставила и OpenAI: GPT-5 появится в iOS 26. Но теперь у неё два ИИ: Gemini — для работы с личными данными и контекстными действиями, а ChatGPT — как «разговорная подстраховка» для общих вопросов.

AppFunctions: Google создаёт агентов на Android

Пока Apple покупала технологии, Google строил инфраструктуру. Android AppFunctions — это прорыв в мобильном ИИ, о котором почти никто не говорит.

Раньше разработчики могли подключать функции к голосовым командам через App Actions — жёсткие шаблоны с фиксированными интентами. Это было похоже на голосовое меню банка: «нажмите один — баланс, два — оператор».

AppFunctions — совсем другое. Разработчики описывают функции, и Gemini находит их сам. ИИ понимает контекст, подставляет параметры и выполняет многошаговые сценарии. Это как живой разговор с помощником.

Уже работают Uber, Lyft, DoorDash, Starbucks, McDonald’s. Вы говорите: «Закажи кофе как обычно», — и приложение даже не открывается. Gemini делает всё за вас.

Если приложение ещё не поддерживает AppFunctions, Google использует UI-автоматизацию: ИИ смотрит на экран и нажимает кнопки сам. Это костыль, но он работает со всеми приложениями.

Apple против Google: разный подход к одной цели

Apple тоже развивает интеграцию через App Intents. С iOS 18.4 они работают напрямую с Siri. Но философия другая.

Apple создаёт универсальные интерфейсы: один App Intent работает с Siri, Spotlight, виджетами, Быстрыми командами. Это широкий охват — одна интеграция на всю систему.

Google заточил AppFunctions под один клиент — Gemini. Всё сделано для того, чтобы ИИ мог легко находить и вызывать функции. Это даёт преимущество в сложных сценариях, где нужно выполнить несколько действий в разных приложениях.

Обе платформы движутся к одной цели: ИИ-ассистент станет главным интерфейсом. Привычные «тапы» и «свайпы» останутся в резерве.

Google — инфраструктурный слой мобильного ИИ

Google теперь работает за обе стороны. Его Gemini — мозг Siri в iPhone и основа агентов на Android. Ни одна компания в истории не контролировала интеллект обеих экосистем одновременно.

Microsoft пытался — провалился. Apple не делится технологиями. Google — стал невидимой основой. Каждый разработчик, пишущий под App Intents или AppFunctions, фактически работает на Google, даже если этого не осознаёт.

Это структурное преимущество. Чем больше запросов обрабатывает Gemini, тем умнее он становится. Чем больше приложений подключаются, тем мощнее становятся агенты. Круг замкнулся.

Разработчикам: интегрируйся или исчезни

Если ИИ-агенты станут основным способом взаимодействия с приложениями, то те, кто не интегрируется с App Intents или AppFunctions, просто перестанут замечать.

Сегодня вы открываете приложение Starbucks, проходите несколько экранов, заказываете кофе. Завтра вы скажете: «Закажи как обычно» — и всё сделается само. Приложение не откроется. Вы даже не увидите его иконку.

Это как с поисковиками в 2000-х: если Google не индексировал сайт — его не существовало. Теперь, если Gemini не может вызвать функцию вашего приложения — вы невидимы.

Окно возможностей узкое. Кто интегрируется сейчас, тот будет готов к будущему. Остальные — будут догонять, когда поезд уйдёт.

Эра чат-ботов закончилась

Чат-бот в браузере — это прошлое. Его пик пришёлся на 2025 год. Следующая эра — ИИ-агенты внутри операционной системы.

Они знают ваши приложения, данные, привычки. Они действуют от вашего имени. Это не место, куда вы заходите. Это помощник, который уже рядом.

Apple признала, что не может построить такой ИИ сама. Google превратил открытый протокол в системную функцию — и продал свой мозг главному конкуренту.

Теперь телефоном рулят агенты. И, может быть, наконец, мама сможет сделать скриншот — просто попросив об этом.

Читать оригинал