
Siri запустили в 2011-м
Пятнадцать лет назад. Вдумайтесь.
Пятнадцать лет Apple владела самым массовым голосовым ассистентом в истории человечества — больше миллиарда устройств, в каждом кармане, на каждом запястье — и эта штука до сих пор спотыкается, когда просишь её одновременно поставить таймер и отправить сообщение. А за это время ChatGPT взлетел от нуля до двухсот миллионов пользователей за какие-то два года. Claude стал настольным инструментом для любого, кто хоть раз открывал терминал. А гугловский Gemini тихой сапой превратился в самое мощное семейство моделей, о котором за пределами ИИ-тусовки толком никто и не слышал.
Что-то пошло не так. Капитально не так. И в этом месяце обе компании — и Apple, и Google — фактически в этом расписались, сделав ходы, которые переворачивают всё представление о том, как ИИ работает на вашем телефоне.
Пять лет печального «прогресса» Apple

Смотрите, в чём штука: сделка Apple с Google на Gemini кажется абсурдной — пока не осознаёшь, насколько оглушительно Apple провалилась с ИИ в одиночку. Хронология — как сводка с фронта.
Июнь 2024
Apple с помпой представляет Apple Intelligence на WWDC. Гвоздь программы — демо, где Siri отвечает на вопрос «когда прилетает мамин рейс?», на лету подтягивая данные из Почты, Календаря и Сообщений. Зал ревёт от восторга.
Декабрь 2024
Выкатывают интеграцию с ChatGPT. Звучит громко, а по факту — пластырь на открытом переломе. Когда Siri не тянет вопрос, она вежливо интересуется: «Может, пусть ChatGPT попробует?» Это не интеграция. Это медицинская сортировка на поле боя.
Март 2025
Apple признаёт: улучшенная Siri откладывается на неопределённый срок. Внутри компании руководство называет ситуацию «уродством» и «позором». Тестировщики жалуются, что ИИ теряет нить разговора буквально через пару реплик. Часть команды ИИ-подразделения Apple считает, что всё придётся переписывать с чистого листа.
Май 2025
Bloomberg выпускает материал: «Как Apple Intelligence и Siri AI пошли ко дну». Суть проблемы: архитектура Siri, доставшаяся в наследство от покупки Siri Inc. в 2010 году, фундаментально несовместима с современным рассуждением на базе больших языковых моделей. Пятнадцать лет технического долга — как пятнадцать слоёв старых обоев, под которыми стена уже сгнила.
Январь 2026
Apple объявляет о сделке с Google. Многолетнее партнёрство. Gemini ляжет в основу следующего поколения базовых моделей Apple. Ценник? По слухам — миллиард долларов.
Март 2026
А мы всё ещё ждём.
Нет, ну вы вдумайтесь! Apple — компания, у которой на счетах лежит 160 миллиардов долларов кэшем — не смогла построить то, что независимо друг от друга сделали французский стартап (Mistral), китайская лаборатория (DeepSeek) и бывшая некоммерческая организация, ставшая коммерческой (OpenAI). Провал Siri — это не вопрос денег. Это вопрос архитектуры. И Apple наконец это признала — единственным способом, который у неё остался: выписала Google чек.
Анатомия сделки: кто что забрал со стола
Структура сделки Gemini–Siri — как рентгеновский снимок: сразу видно, что у кого болит и что кому дорого.
Apple забрала себе пользовательский опыт, приватность и контроль над данными. Gemini крутится на серверах Apple Private Cloud Compute — не на гугловской инфраструктуре. Ваши сообщения, календарь, геолокация, история приложений — всё это остаётся за забором Apple. Google это не видит. Вообще.
Google получил свой мозг внутри полутора миллиардов устройств Apple. Каждый запрос к Siri, где нужно хоть немного подумать, теперь идёт через Gemini. Каждый разработчик, который пишет что-то под Apple Intelligence, по сути пишет под модель Google — хочет он того или нет. При этом сделка неэксклюзивная: Apple сохранила интеграцию с OpenAI, и GPT-5 придёт с iOS 26.
Но погодите. Эта «неэксклюзивность» — не совсем то, чем кажется. Теперь у Apple есть Gemini для нативного интеллекта — контекстные действия, персональное планирование, работа с вашими данными — и ChatGPT как разговорная подстраховка. Две фронтирные модели за фасадом одного ассистента. Расклад прозрачен: Gemini делает дело, ChatGPT отвечает на вопросы из серии «объясни квантовую механику на пальцах».
Google стал «Intel Inside» мобильного ИИ. Не потому, что победил Apple в открытом бою, а потому, что стал деталью, которую Apple не сумела изготовить сама.
Чтобы не проигрывать алгоритмам в скорости, используйте современные инструменты. Хотите узнать, как ИИ справляется с написанием антикризисных стратегий, саммаризацией медиаполя или генерацией контента под разные фреймы? BotHub объединяет мощности ведущих нейросетей (включая последние версии GPT и Claude) в одном окне.

Для доступа не требуется VPN, можно использовать российскую карту.
По ссылке вы можете получить 300 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!
Android AppFunctions: протокол MCP приходит на три миллиарда устройств
Теперь — обратная сторона Луны.
Пока Apple выписывала чеки, Google тихо выкатывал инфраструктуру. Android AppFunctions — это, пожалуй, самое важное, что произошло с мобильным ИИ за последние годы. И почти никто об этом не говорит. Потому что Google, как всегда, дал этому максимально скучное название.
А теперь — что это на самом деле. Model Context Protocol (MCP) от Anthropic стандартизировал способ, которым ИИ-модели находят и вызывают внешние инструменты в облаке. AppFunctions делает ровно то же самое, только прямо на вашем телефоне. Разработчик с помощью библиотеки AppFunctions Jetpack создаёт самоописывающиеся функции: вот что я умею, вот какие параметры принимаю, вот что возвращаю. Gemini находит эти функции на лету и вызывает их через обычную человеческую речь.
Не шорткаты. Не зашитые голосовые команды.
Полноценный вызов инструментов. На устройстве. Голосом.
Эволюция говорит сама за себя:

App Actions (2020) — разработчику нужно было привязать свои функции к готовому каталогу интентов от Google. Штук шестьдесят заранее прописанных шаблонов с жёсткими XML-схемами. ИИ не умел комбинировать, импровизировать, адаптироваться к неожиданному контексту.
AppFunctions — совсем другая история. ИИ читает описания функций, сам понимает параметры из контекста и на лету собирает многошаговые сценарии. Разница — как между голосовым меню банка («нажмите один для баланса, два для оператора») и живым разговором с толковым помощником.


И всё это уже работает. Uber, Lyft, DoorDash, Grubhub, Uber Eats, McDonald's, Starbucks — подключены. Instacart на подходе. В Корее — Baedal Minjok и Kakao T. Новенький Galaxy S26 или Pixel 10 может заказать вам обед, вызвать такси и найти прошлогоднее фото с отпуска — а вы ни разу не откроете ни одного приложения.
И ещё один козырь в рукаве: фреймворк UI-автоматизации, где Gemini буквально смотрит на ваш экран и тыкает кнопки за вас — для тех приложений, которые ещё не подключились к AppFunctions. Костыльно? Безусловно. Зато Gemini работает вообще со всеми приложениями, а не только с теми, кто добровольно записался.
Apple App Intents против Google AppFunctions: одна война — разное оружие
Apple тоже не сидит сложа руки. App Intents, представленные на WWDC 2022, позволяют iOS-приложениям открывать свои возможности для Siri, Spotlight, Быстрых команд, виджетов, а теперь и для Apple Intelligence. С iOS 18.4 App Intents работают с Siri напрямую.
А вот разница в философии — показательна.
Apple смотрит на ИИ как на одного из многих потребителей. Один и тот же App Intent обслуживает и Siri, и виджет, и подсказку в Spotlight, и кнопку в Пункте управления. Широкий охват. Много контекстов. Написал один раз — работает везде.
Google смотрит на ИИ как на главного и единственного клиента. AppFunctions существуют специально для того, чтобы Gemini мог их вызвать. Весь фреймворк заточен под обнаружение через ИИ, привязку параметров на естественном языке и многоходовое агентное выполнение.
Ни тот, ни другой подход не ошибочен. Но у Google — более крутая кривая входа и более мощный выхлоп для агентных сценариев. У Apple — больше отдачи от каждой интеграции по всей операционной системе.
Точка схождения — одна: обе платформы строят мир, в котором ИИ-ассистент станет главным интерфейсом к вашим приложениям. А привычные «тапнуть и свайпнуть» — запасным выходом.
Google играет за обе команды. Больше так не умеет никто.
Давайте зафиксируем. Google обеспечивает мозг внутри Siri через сделку с Gemini. Google обеспечивает агентный фреймворк на Android через AppFunctions. Google одновременно крутит ИИ-движок на обеих мобильных платформах.
Вы это серьёзно?
За всю историю смартфонной дуополии ни одна компания не была ядром интеллекта обеих экосистем разом. Microsoft пыталась построить третью платформу — и с треском провалилась. Apple никогда не лицензировала свои технологии для Android. Google раздавал Android бесплатно, но так и не пробрался в мозг iPhone.
До этого момента.
Каждый запрос Siri, где нужно по-настоящему думать, — проходит через Gemini. Каждый вызов AppFunctions на Android — через Gemini. Каждый разработчик, который делает контекстно-зависимые фичи для любой из двух платформ, — работает на модель Google. Знает он об этом или нет.
Это структурное преимущество, которое растёт как снежный ком. Gemini становится лучше — обе платформы становятся лучше. Разработчики пишут больше App Intents и AppFunctions — агентные возможности Gemini обогащаются с обеих сторон. Google превратился в инфраструктурный слой, от которого все зависят и с которым никто не конкурирует напрямую.
Час расплаты для разработчиков
А вот и практический вывод, от которого каждому разработчику мобильных приложений стоит хорошенько понервничать.
Если ИИ-агенты станут основным способом, которым люди пользуются приложениями на телефоне — а обе платформы ставят именно на это, — то приложения без интеграции с AppFunctions или App Intents просто растворятся в воздухе.
Сегодня: «Закажи мне кофе»
→ открываешь приложение Starbucks → тыкаешь шесть экранов → платишь.
Завтра: «Закажи как обычно»
→ Gemini дёргает AppFunction Starbucks → подтверждает → готово.
Приложение ни разу не открылось.
Приложение, которое агент может позвать, — живёт. Которое не может — умирает тихой смертью. Это ровно та же история, что с поисковиками в нулевых: если Google не мог проиндексировать ваш сайт — вас просто не существовало. Теперь, если Gemini не может вызвать функции вашего приложения, — та же участь. Вы иконка на экране, на которую больше никто не смотрит.
Окно возможностей — маленькое. Оба фреймворка ещё молодые. Те, кто интегрируется сейчас, подойдут к моменту, когда агенты начнут жонглировать сложными мультиприложенческими сценариями, с отполированными, обкатанными решениями. Все остальные будут судорожно догонять, когда поезд уже ушёл.
Простите, но арифметика элементарная. Интегрируйся — или превратись в иконку, на которую никто не нажимает.
Эра чат-ботов достигла потолка. Просто вы не заметили.
Чат-бот в браузерной вкладке — зашёл на сайт, набрал вопрос, скопировал ответ, вставил куда надо — достиг своего пика в 2025 году. Мы уже переходим к следующей главе.
Нет, он не умрёт завтра. Но следующая эра уже едет к вам в кармане Galaxy S26 и тихо дозревает в бетах iOS 26.5. ИИ, который живёт внутри вашей операционной системы, знает ваши приложения и действует от вашего имени. Не место, куда вы заходите. Агент, который уже рядом.
Apple пришла к этому, признав, что мозг ей самой не по зубам. Google пришёл к этому, превратив открытый протокол в нативную возможность операционной системы — и заодно продав этот самый мозг своему главному конкуренту.
Телефоном теперь рулят агенты. А моя единственная надежда — что наконец-то не придётся объяснять маме, как сделать скриншот. Она просто попросит. И вот это, друзья, — единственный луч света во всём этом ИИ-облаке.
Комментарии (18)

dyadyaSerezha
27.03.2026 07:22А у меня параллельный, но релевантный вопрос. Почему вообще развелось столько приложений на телефонах? Телефоны сейчас супербыстрые и супермощные, но почему-то на компе мы заходим на соответствующий сайт для выполнения задачи, а в телефоне мы открываем соответствующее приложение для того же.
Почему разработчики удваивают (как минимум) трудоемкость, делая две версии сервиса - в браузере для компов и приложение для телефонов? Несмотря на мощное телефонное железо, несмотря на быстрый JavaScript-движок, несмотря на бинарные web assemblies и прочее.
Почему сотни иконок на телефоне сейчас - это не ссылки на сайты, а реальные приложения? Почему? Доколе?)

Radisto
27.03.2026 07:22Браузер не может своровать у вас достаточно много инфы, а приложение может, вы ему сами разрешите

Flux82
27.03.2026 07:22Более того - приложение для телефонов крайне часто и есть сайт, завернутый в webview. Однако переход в приложение позволяет сделать много чего для отслеживания пользователя, что намного сложнее для сайта. Например, можно висеть в фоне и отслеживать статус vpn (https://habr.com/ru/articles/1006666/). Приложение может слушать порт на localhost, к которому могут обращаться сайты (https://habr.com/ru/articles/915732/). И т.п.

dyadyaSerezha
27.03.2026 07:22Ок, но тогда почему не делают приложения для компа на каждый чих, а ограничиваются сайтом?

xSVPx
27.03.2026 07:22Пользователи другие.
Хотя Майкрософт пытается же к винде вон какой-то магазин приложений прикручен...

Flux82
27.03.2026 07:22Сложно однозначно ответить. В качестве одной из причин назвал бы следующую. Когда появились смартфоны, интернет был довольно медленным и приложения вместо сайтов были жизненной необходимостью. Скорее всего пользовательская привычка сформирована уже тогда. Плюс к тому - развитые магазины приложений, где есть всё, с рейтингом и отзывами - и чтобы получить, нужно один раз нажать кнопку "установить". Установка на десктопе (по крайней мере в винде) чаще всего заведомо более сложна.
Эпоха приложений на ПК на каждый чих вполне себе была, софт-порталы с тысячами всяких мелких программ существуют и по сей день. Только они мало кому нужны: на десктопе браузер победил приложения, теперь неискушённому пользователю проще загуглить "склеить pdf", "обрезать картинку", чем устанавливать приложение.

ProFfeSsoRr
27.03.2026 07:22Скорее всего пользовательская привычка сформирована уже тогда.
А потом пользователи попробовали в мобильные версии сайтов, а разработчики к тому же моменту смекнули, что из приложения можно лучше отследить юзера, а нарисовать его можно тем же сайтом внутри, по сути. Так вместо мобильных сайтов мы и остались на мобильных приложениях. А на десктопе все ушло в сайты.

dyadyaSerezha
27.03.2026 07:22Если приложение на телефоне надо установить, обновлять, то сайт вообще всегда с тобой, причём самая последняя версия. А большое онлайн коллекции десктопных приложений, это совсем другое. Мы говорим о случаях конкретного сервиса, у которого есть сайт и приложение для телефонов. Крайне редко бывают приложения для десктопа, разве что для всяких чатов и видео.

fedorro
27.03.2026 07:22Недавно гугловый ассистент предложил попробовать Gemini - это ужасно. Голос стал машинным, команду управления устройствами перестали работать, хотя Gemini говорит - "включила, сделала, окей". Сам Gemini предложила отключить отслеживание запросов, но если это сделать - она после каждого ответа, очень навязчиво голосом предлагает включить обратно "для улучшения пользовательского опыта" - снёс через 5 минут, вспоминаю как страшный сон.

vikarti
27.03.2026 07:22AppFunctions. А мне вот почему то вспоминается история с тем как поиск на устройстве работает. Не поиск файлов а поиск изнутри контента приложений.
Насколько в курсе (возможно мои знания этой темы устарели и надо посмотреть как там сейчас) - у Apple более менее стандартный API и пусть с кучей ограничений но оно работает, у Google - формально куча API + интеграции а реально этот поиск даже книги скачанные/купленные в Google Play Books по названию не ищет (не говоря уже о содержании).

muhachev
27.03.2026 07:22ну и что тут такого экстраординарного? у гугла доля рынка в два раза больше яблочной, и гуглам для сохранения стимулов дальнейшего устойчивого развития и защиты рынка от разных наглых выскочек крайне необходимо всячески поощрять и поддерживать своего отстающего конкурента. Только дуальная связка взаимодополняющих равносильных номера один и номера два поддерживает потенциал поступательного движения и позволяет всей паре мчаться вперед и вверх, оставляя далеко позади себя всех остальных, ибо бежать ты будешь быстро, только когда или тебе кто-то дышит в спину, или кто-то убегает от тебя. Ну и для глобальных межплатформенных ии коммуникаций наверное неплохо будет, если на обеих платформах будут родственные нейродуши.
не удивлюсь, если скоро дойдет и до того, что эплы гуглам дадут свои эмки поюзать по тихой,

d3d12
27.03.2026 07:22Много текста ради одной мысли - Аппл обосрался со своим ИИ.

Moog_Prodigy
27.03.2026 07:22Вопрос, тревожащий многих - почему? У Эппла такая куча денег. А ответ на поверхности. В то время как нвидия свои кучи денег вливала в разработку - а также гугл, и еще много-много других, эппл просто гребла деньги чисто за понты и бренд. Ну эмки сделали, отлично, а на что-то большее у них уже не хватает фантазии и желания. Хотят продолжать эту свою славную историю, и на чужом горбу за счет этих денег вьехать. ИМХО рано или поздно они за счет этого просто могут исчезнуть нафиг. Миллиарды миллиардами, но если ими сорить без смысла - так никаких миллиардов не хватит. У гугла свои TPU есть, и его позиции сильны.

Cadett
27.03.2026 07:22Тут показательна ещё ситуация со сворачиванием работ над машиной apple, над которой работали 10 лет, при оглушительном успехе Xiaomi, которые уже вторую модель выпустили. То есть, концепция проверена, спрос на рынке есть. Просто эпл разучились разрабатывать прорывные продукты, не понимая рынка и потребностей пользователей, боясь экспериментировать. Легко каждый год камеры менять местами, особенно сидя на подушке из кэша, но на большее нынешний менеджмент не способен.

Loco2k
27.03.2026 07:22Как пользователь Pixel могу сказать,что все эти волшебные функции работают с приложениями Гугла и редкими исключениями вроде whatsapp и телеграмм.
А в статье это подаётся как что-то свершившееся. Не надо торопить события.
Vladeber
Звучит круто, конечно. Остаётся только надеяться, что "рулевой" смартфона будет подчиняться владельцу и не запрещать владельцу делать на своём смартфоне то, что ему хочется, но не нравится компании-разработчику этого агента. (речь об установке сторонних приложений не из их магазина, использование своих агентов вместо вшитых и т.д.).
BlackMokona
1.Тут нужно развивать открытые ИИ.
2.А государство всем закрытым навяжут, чтобы агент проталкивал нужное и контролировал не нужное, вплоть до звонка кому надо