Исторический прорыв Google: то, чего не удавалось ни одному производителю смартфонов

Релиз Siri состоялся ещё в 2011 году

Только вдумайтесь: прошло уже почти полтора десятилетия.

На протяжении пятнадцати лет в распоряжении Apple находился самый массовый голосовой помощник в мире — миллиарды устройств, присутствие в каждом кармане и на каждом запястье. И всё же этот сервис до сих пор впадает в ступор, если попросить его одновременно запустить таймер и отправить текст. Тем временем ChatGPT проделал путь от идеи до аудитории в 200 миллионов пользователей всего за пару лет. Claude превратился в незаменимого ассистента для каждого разработчика, а Gemini от Google незаметно эволюционировал в мощнейшую экосистему моделей, о возможностях которой многие за пределами ИТ-индустрии даже не догадываются.

Ситуация зашла в тупик. И в этом месяце технологические гиганты — Apple и Google — фактически расписались в смене парадигмы, сделав шаги, которые фундаментально меняют наше представление о работе ИИ в мобильных устройствах.


Хроники затяжного кризиса ИИ в Apple

Сделка Apple с Google по внедрению Gemini может показаться странной ровно до того момента, пока не осознаешь глубину провала собственных разработок Купертино. Хронология событий напоминает сводки о капитуляции.

Июнь 2024 года
Apple помпезно анонсирует Apple Intelligence на конференции WWDC. В центре внимания — демонстрация Siri, которая отвечает на сложные вопросы о рейсах, мгновенно анализируя данные из Почты, Календаря и мессенджеров. Аудитория в восторге.

Декабрь 2024 года
Внедряется интеграция с ChatGPT. На бумаге это звучит как прорыв, на деле же — попытка закрыть огромную брешь подручными средствами. Если Siri не справляется, она беспомощно предлагает: «Может, попробуем через ChatGPT?» Это не синергия, а экстренная передача полномочий более компетентному игроку.

Март 2025 года
В Apple признают: обновлённая Siri откладывается на неопределённый срок. В кулуарах топ-менеджмент называет текущую версию «катастрофой». Тестировщики подтверждают: нейросеть теряет нить диалога уже на третьей фразе. Внутри ИИ-департамента звучат призывы снести всё и строить систему заново.

Май 2025 года
Bloomberg публикует разгромную статью «Крах Apple Intelligence и Siri AI». Выясняется, что архитектура Siri, созданная ещё в 2010 году, органически не способна работать с логикой современных языковых моделей. Пятнадцать лет накопленного технического долга — это как попытка построить небоскрёб на гнилом фундаменте.

Январь 2026 года
Apple официально объявляет о масштабном партнерстве с Google. Gemini становится фундаментом для будущих моделей Apple. Сумма контракта, по неофициальным данным, составляет около миллиарда долларов.

Март 2026 года
А воз и ныне там.

Поразительный факт: корпорация с запасом наличности в 160 миллиардов долларов не смогла воспроизвести то, что создали французский стартап Mistral, китайская лаборатория DeepSeek и OpenAI. Провал Siri — это системный кризис архитектуры, а не нехватка ресурсов. Apple признала поражение единственным доступным ей способом: выписала чек конкуренту.


Суть альянса: кто сорвал куш?

Контракт между Gemini и Siri наглядно демонстрирует приоритеты и уязвимости обеих сторон.

Apple оставила за собой контроль над интерфейсом, вопросами приватности и пользовательскими данными. Обработка через Gemini происходит в рамках Apple Private Cloud Compute, минуя инфраструктуру Google. Личные переписки, геопозиция и календарь защищены «песочницей» Apple — Google к ним доступа не имеет.

Google, в свою очередь, внедрил свой «интеллектуальный движок» в полтора миллиарда iPhone и iPad. Любой сложный запрос к Siri теперь де-факто обрабатывается Gemini. Разработчики, создающие софт для Apple Intelligence, теперь вынуждены ориентироваться на логику моделей Google. Несмотря на это, Apple сохраняет лазейку для OpenAI, планируя интеграцию с GPT-5 в будущих версиях ОС.

Однако эта мультиплатформенность — лишь фасад. Теперь у Apple есть Gemini для глубокой работы с контекстом и личными данными, и ChatGPT в качестве «эрудита» для общих вопросов. Роли распределены: Gemini выполняет задачи, а ChatGPT объясняет теорию струн.

Google занял нишу «Intel Inside» в мире мобильного ИИ. Не путем прямой победы, а став незаменимым компонентом, который Apple не смогла разработать самостоятельно.


Чтобы оставаться конкурентоспособным в мире алгоритмов, нужны передовые инструменты. Если вам интересно, как нейросети справляются с аналитикой, созданием стратегий или генерацией контента, попробуйте BotHub. Эта платформа объединяет возможности топовых моделей (включая актуальные версии GPT и Claude) в едином интерфейсе.

Сервис работает без VPN и принимает к оплате российские карты.

По этой ссылке можно получить 300 000 бонусных токенов для тестирования нейросетей на ваших первых задачах!


Android AppFunctions: глобальное внедрение протокола MCP

А теперь взглянем на другую сторону медали.

Пока Apple занималась переговорами, Google планомерно выстраивала технологическую базу. Android AppFunctions — это, возможно, самое значимое событие в мобильной индустрии за последние годы, оставшееся незамеченным из-за скучного названия.

Суть в следующем: протокол Model Context Protocol (MCP) от Anthropic установил стандарт взаимодействия ИИ с облачными инструментами. AppFunctions делает то же самое на уровне смартфона. С помощью AppFunctions Jetpack разработчики создают функции, которые ИИ может понимать и использовать напрямую. Gemini находит нужный инструмент в системе и активирует его по голосовому запросу пользователя.

Это не просто запуск ярлыка, а полноценное управление функциями через естественный язык.

Путь эволюции впечатляет:

App Actions (2020) — требовали от разработчика подстраиваться под жесткие шаблоны Google. Ограниченный набор действий, отсутствие гибкости и неспособность ИИ адаптироваться к сложному контексту.

AppFunctions — принципиально иной уровень. Нейросеть самостоятельно анализирует возможности приложения, извлекает параметры из речи и выстраивает цепочки действий. Это качественный переход от кнопочного меню к интеллектуальному диалогу.

Интеграция уже идет полным ходом: гиганты вроде Uber, Starbucks и McDonald’s уже в деле. Владелец нового Galaxy S26 или Pixel 10 может вызвать такси или заказать еду, даже не заходя в само приложение.

Дополнительно Google развивает систему UI-автоматизации: Gemini способен буквально «считывать» экран и имитировать действия пользователя в тех сервисах, которые ещё не внедрили нативную поддержку AppFunctions.


Битва за экосистемы: App Intents против AppFunctions

Apple развивает свой аналог — App Intents. С выходом iOS 18.4 эти инструменты позволяют Siri напрямую взаимодействовать с функционалом приложений.

Различия в подходах кроются в философии брендов:

Apple рассматривает ИИ как один из множества интерфейсов. Один App Intent может использоваться и для Siri, и для виджетов, и для быстрых команд. Это универсальный подход для всей системы.

Google делает ставку на ИИ как на центральный узел управления. AppFunctions изначально спроектированы под логику Gemini, обеспечивая бесшовную работу агентов и автоматизацию сложных сценариев.

Обе компании стремятся к одному: превратить ИИ-ассистента в основной шлюз взаимодействия с устройством, где привычные касания экрана станут лишь вспомогательным методом.


Доминирование Google: уникальное положение на рынке

Задумайтесь над масштабом: Google обеспечивает «мозги» Siri через Gemini и одновременно развивает агентную среду на Android через AppFunctions. Компания фактически контролирует ИИ-составляющую обеих доминирующих мобильных платформ.

Такого влияния в истории еще не было. Microsoft не смогла удержать мобильный рынок, Apple никогда не делилась своими технологиями. Google же удалось проникнуть в самое сердце iPhone, оставаясь при этом хозяином Android.

Каждый интеллектуальный запрос в экосистеме Apple и каждое агентное действие на Android теперь льют воду на мельницу Google. Gemini становится стандартом де-факто, а Google превращается в незаменимый инфраструктурный фундамент, с которым практически невозможно конкурировать.


Вызов для разработчиков: адаптируйся или исчезни

Для создателей контента и приложений наступает переломный момент. Если ИИ-агенты станут основным способом управления смартфоном, то софт без глубокой интеграции с AppFunctions или App Intents станет невидимым для пользователя.

Как это выглядит сейчас: пользователь открывает приложение, проходит через серию экранов и совершает покупку.

Как это будет завтра: пользователь говорит «закажи как обычно», и Gemini совершает транзакцию в фоновом режиме через AppFunctions. Интерфейс приложения пользователю больше не нужен.

Приложения, доступные для агентов, будут процветать. Остальные ждёт забвение, подобно сайтам, не попавшим в индекс поисковиков в начале 2000-х. Вы рискуете остаться просто иконкой на экране, которую никто никогда не нажимает.


Закат эпохи чат-ботов

Привычные чат-боты в браузере достигли своего потолка. Мы стоим на пороге новой эры, которая уже обкатывается в бета-версиях современных ОС. ИИ теперь не просто сайт, на который нужно зайти, а полноценный агент внутри операционной системы, имеющий доступ к вашим инструментам и действующий от вашего имени.

Apple пришла к этому через признание технологического отставания. Google — через создание открытых протоколов и экспансию на территорию конкурента.

Смартфонами начинают управлять агенты. И, пожалуй, главный плюс в этом — возможность просто попросить телефон выполнить задачу, не объясняя близким, в какое меню им нужно зайти для настройки. Это и есть настоящий прогресс.

 

Источник

Читайте также