Разбираем, как именно в Google придумали трансформеры — основу GPT, почему компания не стала лидером генеративного ИИ и что мешало вывести технологии в продукты.

Google первой создала технологию, на которой построены GPT‑модели, — архитектуру трансформеров из статьи Attention Is All You Need (2017 год). Именно трансформеры сделали возможными ChatGPT и множество современных генеративных сервисов. Но вместо того чтобы стать очевидным лидером новой волны ИИ, Google отдала символическое первенство OpenAI.
GPT можно описать как супер‑автодополнение текста.
Модель:
Внутри это не «разум» и не «знание мира», а очень мощный статистический механизм, который предсказывает наиболее подходящее продолжение текста, опираясь на то, что видел при обучении. Ключевая инженерная идея, которая позволяет делать это эффективно и масштабируемо, — как раз трансформеры, придуманные в Google.
История Google и GPT — это не только про ИИ. Это пример того, как компания может:
Здесь переплетаются вопросы стратегии, культуры, управления рисками и организации R&D. Понять, почему Google уступила старт OpenAI, полезно любому бизнесу, который вкладывается в технологии и инновации:
В следующих разделах мы разберём по шагам:
Дальше мы спокойно и по шагам разберём, как фундаментальное открытие Google стало основой чужого флагманского продукта — и что из этого следует для тех, кто строит технологии и бизнес сегодня.
До трансформеров обработка текста в нейросетях почти всегда строилась на рекуррентных сетях — RNN. Модель читала фразу слово за словом слева направо, на каждом шаге обновляла скрытое состояние и пыталась «помнить» контекст.
Чтобы бороться с тем, что обычные RNN быстро «забывали» начало длинной фразы, придумали LSTM и GRU — модификации с «вратами» памяти. Они лучше справлялись с более длинными зависимостями и стали стандартом для перевода, распознавания речи и других задач.
Следующий шаг — архитектура seq2seq (sequence‑to‑sequence). Одна RNN (энкодер) читала исходный текст и превращала его в вектор, другая RNN (декодер) по этому вектору генерировала перевод или ответ. Именно seq2seq‑модели стали основой нового Google Translate, который в середине 2010‑х резко улучшил качество перевода.
Несмотря на успехи, у RNN/LSTM были серьёзные ограничения:
В 2014–2015 годах частично помогла первая версия механизма внимания (attention) поверх RNN: декодер мог в каждый момент «подсматривать» в разные части входного предложения. Но основная архитектура оставалась рекуррентной и утыкалась в те же ограничения масштабируемости.
Для Google текст — не просто данные, а основа почти всех ключевых продуктов: поиск, реклама, Gmail, Docs, YouTube‑комментарии, Android‑клавиатура и, конечно, перевод. Улучшение понимания языка напрямую означает рост качества поиска, CTR рекламы и удержание пользователей.
К середине 2010‑х стало ясно, что рекуррентные сети уперлись в потолок:
Командам Google нужно было решение, которое:
Именно этот запрос на новую архитектуру — быструю, масштабируемую и «заточенную» под массовую обработку текста — и подтолкнул исследователей внутри Google к идее полностью отказаться от рекуррентности и построить модель, основанную только на внимании. Из этого поиска и выросли трансформеры.
Летом 2017 года на arXiv появилась статья с сухим названием “Attention Is All You Need”. За ней стояла небольшая группа из Google Brain и Google Research: Ашиш Васвани, Нил Шазир, Ники Пармар, Якоб Усзкорейт, Лукаш Кайзер, Илля Полосухин и коллеги.
Формально это была «ещё одна модель для машинного перевода». Не было громких пресс‑релизов, яркого продукта или маркетинга. Но внутри исследовательского сообщества было понятно: это радикальный разрыв с прежней архитектурой нейросетей для текста.
В переводе человек не читает предложение слово за словом с одинаковой концентрацией. Он как будто водит прожектором по фразе: одни слова важнее в конкретный момент, другие можно игнорировать.
Механизм внимания (attention) — это математический «прожектор». Для каждого слова модель вычисляет, на какие другие слова сейчас стоит смотреть сильнее, а какие можно учитывать слабее.
Self‑attention идёт дальше: каждое слово «смотрит» на остальные слова в предложении и решает, с кем ему важнее всего взаимодействовать. Представьте совещание, где каждый участник одновременно оценивает, чьи реплики критичны для его собственного решения.
Это позволяло модели сразу учитывать дальние связи в тексте: начало предложения могло напрямую «видеть» его конец, без длинной цепочки промежуточных шагов, как в старых рекуррентных сетях.
Главный трюк трансформера — полный отказ от рекуррентности. Модель больше не обрабатывает текст строго по одному слову за раз. Вместо этого все слова в предложении проходят через слои self‑attention параллельно.
Для обучения на гигантских корпусах это переворот:
В результате та же вычислительная инфраструктура Google стала приносить гораздо больше «интеллекта» на один и тот же доллар и час обучения.
Статья 2017 года описала общую архитектуру: слои self‑attention, позиционные эмбеддинги, блоки нормализации, остаточные связи. Дальше вопрос был лишь в том, как именно её использовать.
Исследователи из OpenAI взяли decoder‑часть трансформера, обучили её предсказывать следующее слово по огромным объёмам текста — так родились GPT‑модели. Затем было только масштабирование: больше данных, больше параметров, больше слоёв — но архитектурное ядро оставалось тем самым трансформером из Google.
По сути, всё поколение современных LLM — GPT‑4, Gemini, Claude и другие — это вариации на тему той самой работы Attention Is All You Need. Google придумала универсальный «двигатель», на котором позже поехала вся индустрия генеративного ИИ.
После того как в Google придумали архитектуру трансформеров, ключевой вопрос был не «как сделать эффектную демо-игрушку», а «как это встроить в основной бизнес». Главными кандидатами сразу стали поиск и реклама: именно там каждая доля процента улучшения качества приносит реальные деньги и усиливает монополию.
Поиск и рекламные системы идеально подходили под новые модели:
Вместо того чтобы строить вокруг трансформеров новый публичный продукт, Google сделала другую ставку: превратить их в скрытый «двигатель» поиска и рекламного таргетинга. Пользователь не видит модель, не пишет ей сообщения — он просто получает более релевантные результаты и «волшебно» точную рекламу.
BERT (Bidirectional Encoder Representations from Transformers) стал первым громким примером такого подхода. Исследователи Google взяли идею трансформеров и превратили её в универсальную языковую модель, которая смотрит на слова одновременно слева и справа, а не только в одном направлении.
Для поиска это оказалось критично. Старые алгоритмы опирались в основном на совпадения ключевых слов и простые статистические модели. BERT впервые позволил поиску по‑настоящему «читать» запрос целиком:
Когда Google внедрила BERT в англоязычный поиск, компания открыто заявила, что это одно из крупнейших улучшений качества за историю сервиса. Но снаружи это выглядело не как революция, а как обычное «поиск стал ещё немного лучше». Ни нового приложения, ни эффектных демонстраций — просто более точные ответы в уже привычном интерфейсе.
Та же история повторилась и в других продуктах: BERT пошёл в рекомендации, понимание текстов для Google Assistant, улучшение подсказок и ответов, фильтрацию спама и токсичного контента.
Следующим шагом стала модель T5 (Text‑to‑Text Transfer Transformer). Её идея проста: почти любую задачу обработки языка можно представить как преобразование текста в текст. Перевод, суммаризация, переформулировка запроса, классификация — всё это сводится к единому формату.
Для поискового и рекламного бизнеса T5 открыла ещё больше возможностей:
Опять же, почти всё это происходило «под капотом». Пользователь не видел T5 как продукт, но сталкивался с ней постоянно: через более точные ответы, аккуратные сниппеты, менее навязчивую рекламу.
К этому моменту в Google сложилась чёткая линия: ИИ — это инфраструктура, встроенная в поиск, рекламу, Gmail, Документы, YouTube и Android. Отсюда вырастали такие функции, как умные ответы в Gmail, автодополнение текста, улучшенные субтитры и рекомендации.
Публичные демонстрации были точечными: отдельные доклады на конференциях, статьи в блоге и на I/O. Массового пользовательского продукта, который бы показал силу трансформеров напрямую, просто не существовало. Все главные инновации уходили в улучшение уже работающих сервисов и монетизацию рекламы.
В результате Google объективно лидировала в практическом применении трансформеров — особенно в поиске и рекламе, — но это лидерство оставалось почти невидимым для широкой аудитории. Пока одна компания стремилась сделать ИИ «невидимым двигателем» своих сервисов, другие позже поставили ту же технологию в центр отдельного продукта, который мгновенно стал лицом новой эпохи ИИ.
OpenAI появилась в 2015 году как исследовательская компания с заявленной миссией сделать мощный ИИ безопасным и доступным для всего человечества. С самого начала команда позиционировала себя как более гибкую альтернативу крупным корпорациям, готовую экспериментировать и быстро доводить исследования до продукта.
Когда в Google предложили архитектуру трансформеров, в OpenAI очень быстро увидели в ней фундамент для универсальной языковой модели. Саму идею — обучать одну большую модель на колоссальных корпусах текста, а затем дообучать под конкретные задачи — OpenAI довела до крайности. Если Google использовала трансформеры прежде всего как внутренний «двигатель» для улучшения поиска и переводов, OpenAI сделала их сердцем нового типа пользовательского продукта.
Первая GPT была в основном исследовательским прототипом: показать, что одна большая языковая модель может решать множество задач без отдельного обучения для каждой.
GPT‑2 стала поворотным моментом. Текст, который она генерировала, оказался достаточно убедительным, чтобы вызвать публичную дискуссию о рисках дезинформации. OpenAI сначала ограничила доступ, а затем всё же открыла модель — это был первый шаг к превращению технологии в сервис.
GPT‑3 превратила архитектуру трансформеров в коммерческую платформу. Появился API: стартапы и компании могли «подключаться» к модели и строить свои продукты. Но интерфейс оставался в основном для разработчиков.
ChatGPT изменил всё. OpenAI соединила GPT‑3.5 с диалоговым интерфейсом, дообучением на обратной связи людей (RLHF) и простым веб-продуктом. Впервые сверхмощная модель «переехала» в привычное окно чата, куда может зайти любой пользователь без навыков программирования.
Ключевое отличие подхода OpenAI — фокус не на том, чтобы «подкрутить» существующий продукт (поиск, реклама, перевод), а на создании нового слоя взаимодействия человека с компьютером.
Диалоговый интерфейс решил сразу несколько задач:
Google гораздо осторожнее относилась к идее заменить классический поиск разговорным ИИ: это угрожало её рекламной модели, привычным метрикам качества и ожиданиям пользователей.
OpenAI была готова выйти к широкой аудитории с несовершенной, местами ошибающейся моделью, полагаясь на комбинацию технических фильтров, модерации и быстрого итерационного улучшения. Репутационный риск был относительно ограничен — компания маленькая, без гигантской пользовательской базы и миллиардного рекламного бизнеса.
Google, напротив, оценивает риски по-другому:
В итоге OpenAI согласилась на более высокий уровень продуктового и репутационного риска ради быстрого запуска и обучения «на проде». Google дольше держала трансформеры как внутреннюю технологию, что позволило конкуренту первым превратить идею в массовый GPT-продукт.
Google к моменту появления трансформеров была гигантом с выстроенной бюрократией. Любая инициатива, которая могла задеть поиск, рекламу, юридические риски или репутацию, проходила через длинную цепочку согласований: ресёрч, продукт, безопасность, privacy, PR, юридический отдел.
Для запуска крупной языковой модели этого оказывалось критично много. Пока OpenAI могла сказать «давайте попробуем и посмотрим, что будет», внутри Google требовались меморандумы, эксперименты на ограниченных когортах, внутренние ревью и согласование метрик риска. В результате трансформеры быстро стали стандартом для внутренних исследований и инфраструктуры, но очень медленно превращались в пользовательские продукты.
Отдельный тормоз — конкуренция и фрагментация ИИ‑направлений. Были Google Brain, DeepMind, команды поиска, рекламы, Android, Cloud — каждая со своими приоритетами и видением будущего.
Вместо единого «ударного» направления по большим языковым моделям возникало несколько параллельных линий: одни делали модели для поиска (BERT, затем T5), другие — для ассистентов, третьи — для научных публикаций и лидерства на конференциях. Объединить всё это в один продукт уровня ChatGPT было организационно гораздо сложнее, чем опубликовать ещё одну статью.
Более того, команды конкурировали за GPU‑ресурсы, внимание руководства и бренд «главной ИИ‑лаборатории». Это поощряло публикации и красивые демо, но не долгий, скучный продуктовый цикл с рисками и поддержкой миллионов пользователей.
Поиск и реклама — основной источник денег Google. Любой продукт типа чат‑бота, который отвечает сразу, без перехода по ссылкам, потенциально уменьшает показы рекламы и клики партнёров.
Поэтому внутри компании неизбежно возникал вопрос: стоит ли запускать диалоговый ИИ, который может «съесть» традиционный поиск, пока он приносит десятки миллиардов долларов? Это делало эксперименты более консервативными: безопасные доработки ранжирования через BERT — да; радикальная замена интерфейса поиска на беседу с моделью — под большим вопросом.
У Google есть длинный список мощных моделей, оставшихся преимущественно в статьях и внутренних прототипах. Диалоговые системы вроде Meena, LaMDA долго существовали как демонстрации для конференций и закрытых тестов, но не как массовые продукты.
Генеративные модели изображений (Imagen, Parti) показали качество не хуже конкурентов, но были ограничены «waitlist» и внутренними экспериментами с формулировкой «слишком рискованно для публичного релиза». Аналогично, многие большие языковые модели использовались для улучшения поиска и рекламных систем, но не предлагались пользователю в виде отдельного сервиса.
В результате сочетание масштаба, сложной структуры, конкурирующих команд и осторожной бизнес‑логики превратило технологическое лидерство в исследованиях в отставание в глазах массовой аудитории.
Google всегда жила с осознанием: любая ошибка сразу становится глобальной новостью. Для компании с миллиардной аудиторией и вниманием регуляторов по всему миру риск от неудачного релиза ИИ казался не просто технической, а репутационной угрозой.
До больших языковых моделей Google уже не раз обжигалась на ИИ:
Каждый такой эпизод превращался в медийный шторм и внутренний кризис. Ответом стало ужесточение процедур: больше проверок, больше юридических фильтров, больше требований по «соответствию ценностям компании».
Внутри Google сформировались целые цепочки согласований: команды Responsible AI, комитеты по этике, процессы Responsible Innovation Review. Любой крупный продукт на основе ИИ, особенно генеративного, должен был пройти через:
В результате мощные модели и прототипы (вроде LaMDA или ранних диалоговых систем) долго оставались за закрытыми дверями, доступными только в виде ограниченных демо или внутренних тестов. Пока Google спорила, доработала ли она безопасность и цензуру, OpenAI позволила пользователям массово поэкспериментировать с ChatGPT — с оговорками и фильтрами, но без многолетних согласований.
Google жёстко привязывала ИИ к своему основному продукту — поиску и рекламе. Ошибка модели прямо в результатах поиска могла:
Поэтому стратегия Google была: сначала безопасность и соответствие нормам, потом масштабирование. Компания предпочитала выпускать модели в виде узкоспециализированных компонентов (BERT для улучшения поиска), а не как универсального болтливого ассистента.
OpenAI, напротив, выбрала путь стартапа: быстрый публичный запуск, обратная связь от миллионов пользователей, постепенное усиление фильтров и политик. Ставка была на скорость, узнаваемость и эффект «вау», а не на безупречную репутацию с первого дня.
Страх Google был не иррационален: генеративные модели легко создают токсичный, манипулятивный или просто ложный контент. Для компании, которая десятилетиями строила имидж «надежного навигатора по информации», риск сиюминутного хайпа не оправдывал возможного репутационного урона.
Но эта осторожность имела цену. Пока Google пыталась минимизировать все риски заранее, OpenAI и Microsoft начали задавать повестку в генеративном ИИ. Google пришлось запускать Bard, а затем Gemini уже в режиме догоняющего игрока — параллельно перестраивая свои этические и риск-комитеты под более быстрый цикл «исследование → продукт → контроль».
История показала: одни только внутренние барьеры не спасают от рисков — они могут лишь перенести их во времени и отдать стратегическое преимущество более смелым конкурентам.
Когда ChatGPT взорвал рынок в конце 2022 года, Google выглядела застигнутой врасплох, хотя именно её статьи заложили основу технологий. Ответом стал экстренный запуск Bard, а затем более системный переход к линейке Gemini.
Bard представили в феврале 2023 года как экспериментальный чат‑бот на базе LaMDA. Важнее было не качество, а сам факт ответа на ChatGPT. Пресс‑демо быстро превратилось в антирекламу: Bard ошибся в факте про телескоп James Webb, за что компанию тут же наказали рынки — капитализация просела на десятки миллиардов долларов.
Ограниченный доступ, медленное развитие функций, слабая интеграция с экосистемой Google — всё это подчёркивало спешку. Bard воспринимался скорее как «догоняющий чат», а не как новое видение ассистента будущего.
В декабре 2023 года Google представила семейство моделей Gemini, а в 2024‑м начала переименовывать Bard в Gemini и выстраивать вокруг него единую платформу.
Google пытается наверстать сразу по трём фронтам:
К спешке добавились новые промахи. Помимо неудачного первого демо Bard, в 2024 году Google столкнулась с критикой за генерацию изображений в Gemini: чрезмерные фильтры и странные результаты в историческом контексте вызвали волну мемов и обвинений в предвзятости. Пришлось временно отключать функцию и публично извиняться.
Эти эпизоды усилили ощущение, что компания разрывается между желанием быстро догнать конкурентов и страхом навредить бренду.
С технологической точки зрения у Google всё ещё одни из самых сильных команд и инфраструктура мирового уровня. Модели Gemini сопоставимы по классу с GPT‑семейством и быстро развиваются (в том числе версии 1.5 с длинным контекстом).
Однако у OpenAI и Microsoft преимущество в восприятии рынка: они первыми закрепили формат «универсального ИИ‑помощника», собрали вокруг себя разработчиков и стали стандартом по умолчанию.
Google может реалистично выйти на паритет по качеству и даже опережать в отдельных сценариях — особенно там, где важна интеграция с поиском, Android и Workspace. Но догнать в умах пользователей и разработчиков сложнее: для этого придётся не только улучшать модели, но и действовать гораздо смелее в продуктовой стратегии, чем компания привыкла за предыдущие годы.
Хотя массовое внимание забрали GPT-модели и ChatGPT от OpenAI, у Google по‑прежнему есть преимущества в ИИ, которые не так заметны пользователям, но задают планку для индустрии.
Главный козырь Google — сочетание данных и инфраструктуры.
Данные. Поиск, YouTube, Карты, Gmail, Android — каждое из направлений генерирует огромные, разнообразные наборы сигналов. Это не «сырые» личные данные, а агрегированная статистика, клики, время просмотра, поведение в интерфейсе, качество ответов. Они дают моделям богатую обратную связь: что люди считают полезным, что игнорируют, что кажется спамом.
Инфраструктура. Собственные Tensor Processing Units (TPU), специализированные дата‑центры, хорошо отлаженные системы распределённых вычислений (Borg, Kubernetes), фреймворки вроде TensorFlow и JAX. Google умеет одновременно обучать и обслуживать модели на сотнях тысяч чипов с предсказуемой задержкой и низкой стоимостью на запрос — это критично, если ИИ нужно встраивать в поиск, почту и миллиарды Android‑устройств.
Именно поэтому Google может позволить себе сложные модели, работающие почти незаметно для пользователя, но в колоссальном масштабе.
Есть области, где технологии Google и сейчас впереди, хотя это редко обсуждают в контексте гонки GPT:
Фильтрация спама в Gmail, автодополнение в Docs, рекомендации на YouTube, время прибытия в Google Maps, защита от мошенничества в Google Pay — это примеры зрелого ИИ, который встроен так глубоко, что воспринимается как часть «обычного» продукта, а не как отдельная «ИИ‑фича».
Из‑за этого создаётся ощущение, что Google проигрывает OpenAI и другим игрокам, хотя по качеству и масштабу многих алгоритмов компания фактически задаёт стандарт.
Чтобы преимущество в данных, инфраструктуре и экспертизе превратилось в яркие продукты, Google нужно сделать несколько вещей:
Если компания сможет соединить свои сильные стороны — данные, TPUs, поиск, рекламу, Android и облако — в связную, понятную пользователям линейку ИИ‑продуктов, разрыв с GPT-моделями в общественном восприятии может быстро сократиться.
История Google и GPT — это не столько про удачные и неудачные модели, сколько про то, как организация обращается с собственными прорывами. Трансформеры стали фундаментом новой волны ИИ, но монетизировали и популяризировали их другие.
Google сделала ставку на научную публикацию и инфраструктуру, а не на потребительский продукт вокруг трансформеров. OpenAI, наоборот, изначально рассматривала модели как основу массового сервиса.
Для продуктовых команд главный вывод простой:
Если внутри компании нет процесса «от исследования к продукту за N месяцев», прорывы будут утекать наружу через стартапы и конкурентов.
Google интегрировала BERT и последующие модели в поиск, рекламу, перевод, сильно улучшив качество. Но внешнему миру это выглядело как очередной «тихий апдейт», а не как новая платформа.
Опасность такого подхода:
Вывод для продуктовых лидеров: если у вас технологический скачок, его нужно оформлять как отдельный продуктовый нарратив — с брендингом, API, кейсами и историей применения, а не только как внутренний апгрейд.
Google не проиграла потому, что у неё не было хороших моделей. Она проиграла момент, когда нужно было рискнуть репутацией, бизнес‑моделью и интерфейсом поиска.
То, что блокирует прорывы внутри крупных компаний:
Командам стоит сознательно закладывать «песочницы прорывов» — пространства, где допускаются нестандартные решения, быстрый запуск, отдельные KPI и своя толерантность к риску.
Google объективно сильнее остальных заботится об ответственности и безопасности ИИ. Но долгое время это превращалось в блокировку смелых запусков, тогда как конкуренты нашли баланс: выпускать модели, признавая ограничения и быстро дорабатывая.
Продуктовый вывод: этика должна задавать принципы и границы, но не превращаться в универсальное «нет». Нужны:
В ближайшие годы вероятны несколько сценариев, которые будут идти параллельно:
Для продуктовых команд окно возможностей как раз сейчас: на пересечении инфраструктуры больших игроков и нишевых задач ещё нет устоявшихся стандартов.
Google всё ещё имеет колоссальные преимущества:
Чтобы вернуть лидерство, ей нужно не новый алгоритм, а новая продуктовая позиция:
Главный урок истории Google и GPT для любой команды: ценность прорыва определяется не тем, кто его придумал, а тем, кто сумел быстрее всего превратить его в понятный продукт, экосистему и новую норму для пользователей.
GPT можно представить как очень большую языковую модель, которая обучена предсказывать следующее слово в тексте.
Ключевые моменты:
Технический фундамент GPT — архитектура трансформеров, впервые предложенная исследователями Google в работе Attention Is All You Need (2017).
Трансформер — это архитектура нейросети, а GPT — конкретный тип модели, построенный на этой архитектуре.
Различия по сути:
Google первой создала архитектуру трансформеров и одной из первых внедрила её в масштабные продукты (поиск, реклама, перевод). Но упустила символическое лидерство по нескольким причинам:
Ключевые организационные и культурные факторы, которые притормозили Google:
Google и OpenAI принимали принципиально разные продуктовые решения:
История с трансформерами и GPT даёт несколько практических уроков для продуктовых и R&D‑команд:
Для корпоративных и продуктовых команд отсюда следуют довольно прямые рекомендации:
Google осторожничала не случайно — генеративные модели несут реальные риски:
Практический баланс может выглядеть так:
У Google по‑прежнему есть сильные карты в ИИ, даже несмотря на отставание в символическом первенстве:
Эта история важна и для разработчиков, и для продуктовых менеджеров по нескольким причинам:
Трансформер:
GPT:
Проще: трансформер — это архитектурный шаблон, GPT — конкретная большая языковая модель, реализованная на его основе и доведённая до продукта (ChatGPT и т. п.).
Вывод: техническое лидерство без агрессивной продуктовой стратегии и быстрой организационной реакции не гарантирует лидерство на рынке.
Google:
OpenAI:
В результате одна и та же технология (трансформеры) стала либо «тихим двигателем» сервисов, либо лицом новой эры ИИ — в зависимости от продуктового выбора компании.
Главная идея: ценность прорыва определяется не самим фактом открытия, а способностью компании быстро и смело превратить его в продукт и экосистему.
Так вы снижаете риск «подарить» собственную технологическую фору более быстрым конкурентам.
Этика и комплаенс должны работать как «ограждения на трассе», а не как стоп‑кран для любых смелых экспериментов.
Если Google сумеет связать эти элементы в цельную пользовательскую и разработческую платформу вокруг Gemini, она может не только догнать, но и обойти конкурентов в ряде сценариев.
Разработчикам это помогает осознаннее выбирать стек и архитектуру решений, а продуктовым специалистам — формировать стратегию вокруг ИИ, а не просто добавлять модную «ИИ‑фичу».