Разбираем, почему Siri не смогла конкурировать с ChatGPT и другими ИИ-сервисами: технические ограничения, решения Apple и возможное будущее Siri.

Siri задумывалась как главный интерфейс к устройствам Apple: спросил — получил ответ, попросил — задача выполнена. Но к 2025 году главная претензия к Siri звучит примерно так: она почти не умеет думать, а лишь перебирает заранее заложенные сценарии.
Пользователь это ощущает просто: Siri часто не понимает контекст, путается в чуть более сложных формулировках, не может внятно объяснить свои ответы и быстро сдаётся с фразой «вот что я нашла в интернете». На фоне этого ChatGPT и другие современные модели ИИ научились поддерживать осмысленный диалог, писать тексты, придумывать решения и работать с кодом.
До появления публичных LLM многие были готовы терпеть ограничения Siri: голосовой помощник — значит, пусть хотя бы ставит таймеры, включает музыку и управляет умным домом. Но ChatGPT показал, что ассистент может быть по‑настоящему умным собеседником, который:
На этом фоне Siri выглядит застывшей в прошлом: она привязана к узкому набору действий и почти не развивается с точки зрения «интеллекта».
Цель статьи — не просто «поругать» Apple, а спокойно разобрать, почему так получилось: какие технические решения, бизнес-приоритеты и ограничения привели к тому, что Siri проиграла первую волну ИИ‑гонки.
Мы будем опираться только на публично доступные данные, официальные заявления и наблюдаемый функционал Apple‑сервисов и конкурентов. Никаких инсайдов, слухов и анонимных «сливов» — лишь то, что любой пользователь или разработчик может увидеть и проверить сам.
Когда Apple представила Siri в 2011 году вместе с iPhone 4s, её подали как революцию в общении с устройством. Голосовой ассистент, понимающий естественную речь, ставящий будильники, создающий напоминания, отправляющий сообщения и ищущий информацию — всё это выглядело как шаг в будущее, встроенный прямо в iOS.
Сильная сторона Siri на старте — глубокая интеграция с системой. Она управляла вызовами, сообщениями, календарём, музыкой, напоминаниями, без лишних приложений и настроек. Плюс мощный маркетинговый эффект: ролики Apple показывали почти «магический» диалог с телефоном, а фраза «просто спроси у Siri» стала элементом бренда.
В первые годы пользователи были готовы прощать ошибки распознавания и ограниченный набор сценариев: само наличие голосового интерфейса уже впечатляло. Siri воспринималась как символ инноваций Apple и пример того, куда движутся интерфейсы.
Со временем стало заметно, что ответы Siri жёстко привязаны к сценариям, а диалоги — скриптовые и негибкие. Она часто не понимает контекст, плохо держит нить разговора, а при сложных запросах либо переключает на веб‑поиск, либо выдаёт формальные реплики.
На фоне ожиданий от первых презентаций это выглядело как застой. Пользователи начали сравнивать Siri не с обещанным «умным собеседником», а с набором голосовых кнопок: удобно, быстро, но поверхностно.
Siri получала заметные обновления волнами: поддержка новых языков, интеграция с HomeKit, CarPlay, расширения для сторонних приложений. Но между такими этапами были длинные периоды почти незаметных изменений.
При этом базовая модель взаимодействия почти не эволюционировала: те же короткие команды, те же ограничения контекста, та же зависимость от заранее прописанных сценариев.
В итоге образ Siri трансформировался. Вместо эмблемы прорывных технологий она стала восприниматься как полезная, но примитивная функция: удобно включить таймер, переключить трек или позвонить контакту, но не вести содержательный разговор и не решать сложные задачи.
Именно этот переход — от «вау‑эффекта» к ощущению стагнации — создал контраст с современными ИИ‑системами, который сегодня особенно заметен пользователям.
Современные модели вроде ChatGPT — это большие языковые модели (LLM). Проще всего представить их как статистический «движок языка», который обучен на огромных массивах текстов и умеет продолжать фразу так, чтобы она была логичной, осмысленной и связанной с контекстом.
LLM не работают по жёстким правилам. Они не ищут заранее заготовленный ответ, а генерируют его каждый раз заново, опираясь на текущий диалог и всю историю переписки.
Siri же изначально проектировалась как набор сценариев и правил. У неё есть ограниченный список интентов: поставить будильник, включить музыку, построить маршрут, найти факт в интернете. Каждый интент — это «если пользователь сказал X, то сделай Y». Это удобно для простых команд, но почти не масштабируется к сложным, творческим, неоднозначным задачам.
Попробуйте три типа запросов:
Так как Siri основана на сценариях, у неё два типичных исхода:
У ChatGPT архитектура другая: модель стремится сама сформулировать объяснение, резюме, инструкцию, пример кода — а не просто перенаправить пользователя к источникам. Именно поэтому люди воспринимают LLM как гораздо более «умный» интеллект: он не только понимает формулировки, но и умеет создавать новые тексты, адаптированные под запрос, стиль и контекст диалога.
Классическая архитектура Siri — это конвейер из нескольких модулей:
Ключевая особенность — сильная опора на on‑device обработку. Большая часть вычислений выполняется прямо на iPhone, iPad, Mac или Apple Watch. Домены и сценарии заранее заданы командами разработчиков, тщательно ограничены и протестированы.
Отсюда плюсы:
Но гибкость такой системы строго ограничена количеством доменов и правил, которые успевают вручную реализовать.
Большие языковые модели (LLM вроде GPT‑4) работают иначе. Они не переключаются между жёстко заданными доменами, а используют одну универсальную модель, которая:
Цена такой универсальности — колоссальные вычислительные затраты. Для работы LLM нужны фермы GPU, высокоскоростные сети и сложная инфраструктура масштабирования. Большая часть вычислений происходит в облаке, куда постоянно уезжают пользовательские запросы.
Apple исторически ставит конфиденциальность выше всего. Максимум логики — на устройстве, минимум данных — в облаке. Для LLM‑подхода это серьёзное ограничение:
Этот баланс между приватностью и мощью облачного ИИ сделал стратегию осторожной и медленной. Пока Apple думала, как запустить более умные модели, не нарушая свои принципы, конкуренты уже экспериментировали с огромными LLM без столь жёстких ограничений.
В итоге архитектурный выбор в пользу on‑device и предопределённых доменов дал Siri отличную скорость и приватность, но затормозил переход к по‑настоящему «разговорному» и гибкому интеллекту, который сейчас задаёт планку для рынка.
Подход Apple к ИИ всегда подчинён трём приоритетам: приватность, контроль над железом и максимальная предсказуемость пользовательского опыта. Для Siri это оказалось не преимуществом, а ограничением.
Apple сознательно избегала модели «собирать всё, хранить всё, учить на всём». Основной упор делался на обработку на устройстве, минимизацию логов и сильную анонимизацию данных. Это хорошо для доверия пользователей и соответствия регулированию, но плохо для скорости развития больших моделей.
Конкуренты строили ИИ на гигантских датасетах реальных запросов и диалогов, агрессивно расширяя масштабы обучения. Siri, по сути, росла в «огороженном саду» ограниченных и тщательно отфильтрованных данных.
Годы Apple вкладывала основные ресурсы в A‑ и M‑чипы, графику, энергоэффективность, камеры, детали интерфейса. Нейросетевые блоки (Neural Engine) появлялись, но использовались в основном для фото, Face ID, локальных улучшений, а не для качественного скачка Siri.
Сделать ассистента умнее, чем ChatGPT, — это уже не «фича», а стратегический ИИ‑проект уровня всей компании. По факту Siri долго оставалась просто одной из функций iOS, а не центром долгосрочной ИИ‑ставки.
Apple редко выпускает «сырые» технологии. Обычно компания заходит на рынок поздно, но с вылизанным продуктом. Для ИИ такой подход работает хуже: прогресс идёт через публичные беты, быстрые релизы и обучение на ошибках миллионов пользователей.
Закрытый характер платформы, жёсткий контроль над API и медленное внедрение экспериментальных возможностей привели к тому, что внешне Siri почти не менялась. Пользователь видел всё те же ограничения и сценарии, а невидимые внутренняя оптимизация и точечные улучшения воспринимались как отсутствие реального прогресса.
В результате стратегические достоинства Apple — приватность, железо, осторожность — обернулись тем, что Siri не успела за взрывным развитием нейросетевых ассистентов вроде ChatGPT.
Большие языковые модели живут за счёт двух вещей: масштаба вычислений и объёма разнообразных данных. Чтобы ассистент понимал разговорный язык, сленг, контекст, выполнял сложные цепочки рассуждений и писал код, его нужно обучать на триллионах токенов: веб-страницы, форумы, документация, диалоги, логи запросов, кликстримы.
Чем шире и «грязнее» этот датасет, тем лучше модель координируется с реальным поведением людей — она видит не только «правильный» текст, но и ошибки, уточнения, типовые паттерны задач.
У Google, Microsoft (через Bing и партнёрства), а также у Meta есть то, чего нет у Apple: прямой доступ к интернет-поиску, кликам, просмотрам, реакциям пользователей в вебе и соцсетях.
Поисковый запрос + последующие действия — идеальный материал для обучения ассистента:
Эти компании годами собирают и монетизируют поведение пользователей в интернете, формируя огромные, детализированные датасеты для обучения и дообучения моделей.
Apple исторически строит бренд вокруг приватности. Это означает:
В экосистеме Apple меньше слежения за поведением в браузере, нет собственного поискового гиганта с детальными логами запросов и кликов, нет соцсети с миллиардами публичных постов. Даже внутри сервисов Apple данные сильно агрегируются и обрезаются по персональным полям.
То, что для Google — обучающий сигнал, для Apple часто просто не сохраняется или превращается в статистический шум, непригодный для тонкой настройки больших моделей.
Когда конкурент может дообучать модель на миллиардах реальных диалогов и поисковых сессий, он быстрее исправляет ошибки, шлифует стили общения и находит редкие углы использования. Apple с её более скромными и «очищенными» выборками оказывается в заведомо невыгодном положении.
Консервативное использование пользовательских данных:
В итоге Siri и связанные ИИ-функции выглядят менее «умными» и гибкими по сравнению с ассистентами, обученными на массивных, практически неограниченных датасетах.
Парадокс в том, что то, что тормозит прогресс Apple в ИИ, одновременно создаёт её главный капитал — доверие пользователей.
Строгие ограничения на сбор данных означают более медленное развитие ассистента, меньше «магических» функций и эффектных демо по сравнению с конкурентами. Зато пользователи понимают, что их личная переписка, фото и поведение в приложениях не превращаются автоматически в топливо для очередной нейросети.
Дальнейший успех Apple в ИИ зависит от того, сможет ли компания найти новый баланс: использовать больше сигналов для обучения, не предавая принцип приватности, на котором держится вся экосистема устройств и сервисов.
Когда Apple запустила SiriKit и систему интентов, казалось, что ассистент наконец станет настоящим интерфейсом ко всему iPhone. На практике этого не произошло.
Интенты предлагали строго типизированные сценарии: отправить сообщение, заказать поездку, начать тренировку, совершить платеж, позвонить через VoIP и несколько других доменов. Разработчик должен был вписать свое приложение в один из заранее определенных шаблонов.
Это давало хороший контроль качества, но сильно ограничивало фантазию. Если сценарий приложения не попадал в список поддерживаемых категорий, полноценной интеграции с Siri просто не существовало. Никаких произвольных навыков, гибких диалогов или сложной бизнес‑логики.
Даже в поддерживаемых доменах интеграция требовала заметных усилий, а отдача часто была минимальной:
В итоге Siri-интеграция становилась маркетинговым чекбоксом, а не источником роста вовлеченности или выручки.
Конкуренты сделали ставку на открытые модели расширения. У Alexa появились skills, у Google Assistant — actions, у современных LLM — плагины и инструменты, к которым ассистент обращается как к API. Такой подход позволяет любому сервису добавить собственный навык без ожидания, что платформа когда‑нибудь создаст нужный домен интентов.
Apple же удерживала жесткий контроль и почти не расширяла список категорий. В результате экосистема навыков Siri так и не стала по‑настоящему богатой. Пользователь видел ассистента, который теоретически должен уметь многое, но практически поддерживал ограниченный набор сценариев.
Слабая и малочисленная экосистема интеграций сузила реальную полезность Siri и лишила Apple шанса превратить ассистента в главный интерфейс к миру приложений и сервисов.
К началу 2020‑х у пользователей сложилась довольно чёткая картина того, каким должен быть голосовой ассистент. Он должен:
Другими словами, люди ждут не «говорящую кнопку для таймеров», а универсального интеллектуального помощника.
Когда пользователь задаёт сложный вопрос ChatGPT вроде: «Собери план поездки в Стамбул на 4 дня, я люблю музеи и кофе, бюджет средний, а потом оформи это списком дел и подсвети важное», он получает развернутый ответ, структурированный план и может тут же продолжать: «Уменьши бюджет, добавь больше бесплатных активностей» — модель поймёт контекст и скорректирует результат.
Siri, оказавшись в похожей ситуации, чаще всего разобьёт задачу на примитивные куски или вообще не поймёт запрос. Она может открыть приложение «Карты» или поиск в интернете, но не способна связать предпочтения, бюджет, формат поездки и оформить это в пригодный к действию результат. Многошаговые инструкции разбиваются о жёсткую модель команд: «Сначала скажите A, потом B».
Siri по‑прежнему слабо держит контекст. Если попросить: «Поставь таймер на макароны на 8 минут. И напомни позвонить маме, когда они будут готовы», — велика вероятность, что сработает только таймер, а напоминание «потеряется» между приложениями и сценариями.
Неясные, «человеческие» формулировки вроде «Сделай потише, но чтобы будильник всё равно был слышен» нередко приводят к непредсказуемому результату. LLM‑модели, обученные на огромных массивах текстов, лучше восстанавливают намерение пользователя даже при неточном описании.
Разрыв особенно заметен на неродных для Siri языках. На английском она относительно стабильна, лучше понимает сложные конструкции, корректнее различает имена собственные. На русском, турецком или португальском уровень распознавания и интерпретации фраз ниже, ошибки — чаще, а поддержка новых функций запаздывает.
У ChatGPT и других крупных моделей есть своя асимметрия по языкам, но общий уровень качества на многих языках уже оказался выше, чем у Siri, за счёт масштабных корпусов данных и единых архитектур для всего мира.
Apple может объяснять ограничения Siri архитектурой, требованиями к приватности или работой «на устройстве», но рядового человека это не волнует. Он сравнивает только опыт: насколько ассистент реально помогает в делах рядом с продуктами на базе ChatGPT, Gemini или Claude.
Пока Siri ставит таймеры и включает музыку, конкурирующие ИИ‑системы пишут письма, составляют отчёты, помогают программировать и ведут сложные диалоги. Именно это ощущение «умного помощника рядом» пользователи и считают настоящим прогрессом — и по этому критерию Siri заметно проигрывает.
Apple Intelligence — это новый зонтичный бренд функций искусственного интеллекта, встроенных в iOS, iPadOS и macOS. Компания обещает более «умную» Siri, генерацию текста и изображений, приоритизацию уведомлений, резюме писем и страниц, а также более глубокое понимание контекста на устройстве пользователя.
Ключевой акцент — на приватности. Для многих задач Apple использует локальные модели, работающие прямо на устройстве. Более тяжёлые запросы отправляются в облако через Private Cloud Compute — серверы Apple на собственном железе, где данные якобы обрабатываются без долгого хранения и с максимальной изоляцией.
Заявленные функции Apple Intelligence как будто адресуют то, что годами раздражало пользователей Siri:
По сути, Apple пытается превратить Siri из голосового интерфейса к отдельным функциям в слой «умной оркестрации» поверх всей экосистемы.
Формально Apple Intelligence — не новый ассистент, а эволюция Siri. Но по масштабу обещаний это действительно похоже на перезапуск ИИ-стратегии: сочетание on-device моделей и облака с сильным упором на приватность отличает подход Apple от решений, где весь интеллект живёт в дата-центрах.
Станет ли это реальным вторым шансом для голосового помощника Apple, зависит от нескольких вещей: насколько часто пользователи будут реально обращаться к обновлённой Siri, насколько надёжно она будет выполнять многошаговые команды и как быстро Apple начнёт открывать эти возможности сторонним разработчикам.
Пока что говорить об успехе рано: функции запускаются поэтапно, часть из них доступна не во всех регионах и только на новых устройствах. Но уже ясно, что Apple уходит от прежней, консервативной модели Siri с минимальным ИИ и делает ставку на более глубокий, сквозной интеллект внутри всей экосистемы устройств и сервисов.
OpenAI выстроила цикл «исследование → публичный релиз → обратная связь → доработка» с очень коротким плечом. Крупные обновления моделей и функций появляются раз в несколько месяцев, а мелкие улучшения — практически постоянно. Пользователь чувствует движение: чат становится умнее, интерфейс — удобнее, интеграций — больше.
Siri годами обновлялась почти незаметно. Apple традиционно тянет функции до состояния «готово к витрине», но в сфере ИИ ценится именно скорость итераций. Apple могла бы безопасно запускать больше «Labs»-функций: добровольный опт-ин, чёткие предупреждения о возможных ошибках, сбор обратной связи прямо в интерфейсе.
OpenAI сделала API центральным продуктом: документация, SDK, примеры, активное общение с сообществом. Это создало тысячи нишевых решений, которые расширяют полезность моделей гораздо дальше, чем способен один вендор.
Google движется в ту же сторону: Bard/Gemini получают интеграции с Workspace, Android, Chrome; для разработчиков есть единая линейка моделей, консоль, биллинг и инструменты развертывания.
Apple исторически контролирует точку входа к Siri и даёт разработчикам ограниченный набор интентов. Пересмотр философии «закрытого ящика» в сторону более гибких, хорошо документированных API для Apple Intelligence и голосовых сценариев дал бы экосистеме шанс самой найти «убойные» кейсы.
OpenAI и Google регулярно рассказывают, что модели уже умеют, в каких режимах они ненадёжны, как устроены ограничения и защита. Это снижает завышенные ожидания и упрощает внедрение в бизнес-процессы: компании понимают, на что опираться.
Apple много говорит о конфиденциальности и почти не говорит о конкретных границах возможностей Siri. В результате пользователи либо переоценивают ассистента, либо быстро разочаровываются.
Более прозрачная коммуникация — от понятных описаний сценариев до технических обзоров Apple Intelligence — помогла бы выстроить доверие и задать реалистичную планку.
Apple не обязана превращать Siri в ещё один ChatGPT. Но она может:
Сочетание этих практик с сильными сторонами Apple — интеграцией железа и софта, вниманием к приватности и дизайну — дало бы Siri шанс перестать быть символом упущенных возможностей и снова стать флагманом категории голосовых ассистентов.
Будущее ассистентов всё меньше похоже на фантазию о «одном идеальном ИИ, который умеет всё». Вероятнее всего сформируются два слоя:
Голосовые ассистенты Apple, Google и Microsoft будут пытаться стать именно таким оркестратором, который понимает контекст жизни пользователя и перенаправляет задачи нужным сервисам.
Голос останется важным, но не единственным интерфейсом. Он удобен для:
Но для сложных сценариев (редактирование текста, работа с кодом, аналитика) люди по-прежнему будут комбинировать клавиатуру, экран, стилус и голос. Siri и другие ассистенты должны уметь плавно переключаться между этими режимами, сохраняя один и тот же контекст.
Оптимальная архитектура — гибридная:
Это одно из ключевых направлений Apple Intelligence: использовать нейросети на чипах Apple и по необходимости «дозаказывать интеллект» из облака.
Конкуренция будет идти не только между моделями, но и между экосистемами: Apple делает ставку на приватность и тесную интеграцию устройств, Google — на поиск и Android, Microsoft — на рабочие сценарии и Windows, независимые ИИ‑платформы — на открытость и скорость инноваций.
Обновлённая Siri в этой системе координат логично занимает нишу личного, контекстного ассистента внутри экосистемы Apple: она знает ваши устройства, приложения, фото, заметки, почту, но в сложных задачах обращается к внешним моделям. Если Apple действительно раскроет Siri для разработчиков и интеграции с ИИ‑сервисами, у неё есть шанс не победить ChatGPT, а стать удобным «фронтендом» ко множеству нейросетей, оставаясь при этом главным голосом и интерфейсом всего, что происходит на устройствах Apple.
Siri стала первым массовым голосовым ассистентом, но именно она символизирует, как можно потерять лидерство в ИИ при сильном бренде и колоссальных ресурсах.
Главная причина — стратегический выбор Apple в пользу консервативного, фрагментированного подхода:
В сумме это привело к тому, что ожидания от «умного помощника» выросли намного быстрее, чем эволюционировала Siri. По уровню гибкости, глубине контекста и творческих возможностей она заметно уступила ChatGPT и другим современным ИИ.
Apple по‑прежнему контролирует уникальную связку: устройства, ОС, чипы, App Store и платёжную инфраструктуру. Apple Intelligence — попытка перезапустить стратегию, объединив сильные стороны компании (приватность, интеграция с устройствами) с новыми нейросетевыми возможностями и, при необходимости, внешними моделями.
Если Apple решится ускорить цикл инноваций, аккуратно расширит доступ разработчиков к ИИ-возможностям и найдёт прозрачную модель работы с данными, Siri ещё может занять важное место в экосистеме голосовых ассистентов — пусть и не как единственный эталон.
Основные причины:
В итоге ожидания от «умного помощника» выросли быстрее, чем эволюционировала Siri.
Siri изначально устроена как цепочка: распознать речь → определить намерение → запустить заранее прописанный сценарий. Набор таких сценариев ограничен и плохо масштабируется на творческие или неоднозначные запросы.
LLM вроде ChatGPT используют одну универсальную модель, которая обучена на огромных массивах текстов и каждый раз генерирует ответ заново, учитывая длинный контекст диалога. Поэтому они лучше понимают сложные формулировки, умеют рассуждать и создавать новые тексты, а не просто запускать команды.
Жёсткий фокус на приватности означает:
Это снижает риски слежки и утечек, но ограничивает объём реальных диалогов и пользовательских сигналов, на которых можно обучать большие модели. В результате качество и скорость прогресса ИИ у Apple ниже, чем у компаний, которые агрессивно собирают и используют данные.
Apple Intelligence — это новый «слой интеллекта» в iOS, iPadOS и macOS, который должен:
Технически Apple комбинирует локальные модели на устройстве и безопасное облако Private Cloud Compute. Это попытка сохранить приватность, но при этом подтянуть интеллектуальные возможности к уровню современных LLM.
Нет. Siri по‑прежнему удобна для:
Для сложных запросов, генерации текстов, кода и планов эффективнее использовать ChatGPT или другие LLM. Логичная стратегия — сочетать Siri для бытовых задач на устройствах Apple и отдельный ИИ‑ассистент для «умной» работы с информацией.
Проблема не только в «железе». У Apple сильные A‑ и M‑чипы и Neural Engine, которые хорошо подходят для локальных моделей. Узкое место:
Даже имея мощное железо, без смены подхода к данным, моделям и скорости итераций Siri не сможет догнать ведущих ИИ‑ассистентов.
Google, Microsoft и Meta имеют доступ к:
Это даёт им триллионы токенов живых диалогов и задач для обучения и дообучения моделей. Apple, из‑за ограничений на сбор и хранение, видит гораздо меньше подобных сигналов, и её модели учатся медленнее и на более «стерильных» данных. Поэтому голосовой и текстовый интеллект конкурентов развивается быстрее.
Сегодня SiriKit и интенты:
Разработчики часто не видят реальной окупаемости такой интеграции, поэтому экосистема навыков Siri остаётся бедной. Если Apple откроет более гибкие API для Apple Intelligence и сделает ассистента настоящим «оркестратором» приложений, ситуация может измениться, но это потребует серьёзного пересмотра философии платформы.
Apple могла бы перенять у OpenAI и Google:
При этом важно сохранить сильные стороны Apple — приватность, интеграцию железа и софта, продуманный UX. Комбинация этих подходов дала бы Siri шанс перестать быть «говорящей кнопкой» и стать полноценным интеллектуальным слоем экосистемы.
Сценарии использования расходятся:
На практике пользователи будут комбинировать оба уровня: говорить с Siri о делах и устройствах, а к ChatGPT‑подобным сервисам обращаться за сложными рассуждениями и творческими задачами. Если Apple сделает Siri удобным фронтендом к внешним моделям, ассистент сохранит значимую роль, даже не будучи самым «умным» ИИ на рынке.