Конкуренция между нейросетями вышла на небывалый уровень. Одно из последних и наиболее ярких обновлений — Grok 3. Чем модель отличается от других, каковы ее преимущества и ограничения и как изменится ИИ в ближайшие годы, рассказывает AI-евангелист и разработчик команды AI/ML в «Битрикс24» Сергей Нотевский.

Нейросети существуют уже десятки лет, однако именно появление ChatGPT в 2022 году взорвало интернет — именно с этого момента началось активное развитие ИИ-проектов. Возможности новых моделей для обычных людей стали настолько доступными, что это начало трансформировать многие направления экономики. Сами инструменты тоже активно развиваются, и после появления ChatGPT за короткое время возникли многие другие проекты.
Кто на новенького: обзор Grok 3
Новинку года — Grok 3, ИИ-модель третьего поколения от стартапа xAI — недавно представил Илон Маск. Пока нейросеть работает только в приложении и не доступна для интеграции в бизнес. Она входит в топ одного из самых популярных рейтингов ИИ-моделей LMSYS Chatbot Arena с 1400 баллами. Это очень большая модель: имеет около ~2,7 трлн параметров (для сравнения: у DeepSeek их 678 млрд).
Grok 3 позиционируется как один из самых больших ИИ. Он работает на суперкомпьютере Colossus, на его обучение ушло 200 миллионов GPU-часов. Модель может обрабатывать огромные массивы данных и позиционируется как более точная в сравнении с другими нейросетями. Генерирует все то же самое: тексты, изображения, код, ищет информацию в интернете и анализирует данные. А еще может создавать простенькие игры вроде Tetris. Но оценка всех этих возможностей субъективна и зависит от предпочтений пользователей. Кто-то считает Grok 3 оптимальнее из-за отсутствия цензурирования деликатных тем, на которые другие нейросети не дают ответов.
Существуют отличия и в манере общения Grok 3 и других нейросетей. Возьмем для примера новейшую модель OpenAI GPT-серии GPT 4.5, которую разработчики выпустили только в конце февраля 2025 года. Она является развитием и улучшением идей, заложенных в GPT-4, а среди ее особенностей выделяют: увеличенный масштаб знаний, универсальность, ограниченную мультимодальность (поддержка изображений) и улучшенный эмоциональный интеллект. Если пользователь попросит написать эмоциональное письмо для выяснения отношений, такая модель с высокоразвитой эмпатичностью предложит сначала немного остыть и не портить отношения. Похожая практика есть и у Grok 3, однако общается она совершенно иначе — ей свойственно куда более расслабленное и дружеское общение.
Чем модели нейросетей отличаются друг от друга
Grok 3 имеет обычный режим, рассуждающий и Deep Research. Во втором варианте модель генерирует цепочку рассуждений и только потом выдает ответ. Такой подход позволяет решать более сложные задачи, которые не могут выполнить нейросети, не делающие шага рассуждения. Модели, в которых присутствует такая опция, на порядок превосходят нейросети без возможности рассуждения, например, на сложных бенчмарках AIME, которые помогают проверить способность моделей к глубоким математическим рассуждениям и логическим выводам.
У некоторых продвинутых моделей также есть функция Deep Research — это так называемый ИИ-агент, который и использует ее при выполнении запроса пользователя. В зависимости от того, выбран ли режим рассуждения или поиска, он декомпозирует задачу, оценивает источники для анализа информации и делает запрос в поисковых системах. Потом проходит по поисковой выдаче, собирает данные и выдает результат. То есть пользователю нейросети в рассуждающей модели достаточно составить запрос, а ИИ-агент сам решит, как его выполнить.
Некоторые нейросети имеют специализацию. Например, Claude 3.7 Sonnet — новая рассуждающая модель, которая вышла совсем недавно. Ее предыдущие версии, Claude 3.5 и 3.6, были признаны разработчиками как самые лучшие для написания кода. Логично предположить, что в свежей версии эти возможности вырастут еще больше.
Хотя еще полгода назад ситуация была иной, сейчас некоторые нейросети имеют в основном местное значение. Например, Mistral AI — французская модель, единственный продукт из Европы, который фигурирует в топах. О ней мало кто знает, и она важна в основном только для своего региона, чтобы данные обрабатывались в соответствии с правилами GDPR. Изначально ее плюсом был Open source, но применять Mistral AI можно было только для исследований, из-за высокой стоимости лицензии она плохо подходила для коммерческого использования.
Дополнительно стоит рассмотреть такой параметр, как галлюцинации в нейросетях — ошибки и искажения в выдаче, которые совершают модели. Так, в новом GPT 4.5 их сейчас меньше всего среди всех моделей OpenAI, хотя она и не самая умная. Нейросети быстро прогрессируют, и GPT 4.5 — это последняя нерассуждающая модель. Следующая версия уже будет объединять эти опции.

Стоимость подписок на Grok 3, ChatGPT и DeepSeek
Для обычного пользователя важен лимит запросов и их стоимость при подписке. У ChatGPT при минимальном тарифе в 20 долларов в месяц туда входит всего 10 запросов в Deep Research. У Grok 3 подписка стоит 40–50 долларов в зависимости от региона. При этом для варианта Premium+ доступно 100 запросов Deep Research.
DeepSeek бесплатна для использования в приложении и в браузере. Есть режим рассуждения, а вот Deep Research нет. Хорошо отвечает (на уровне модели o1 от Open AI), для российских пользователей доступна без VPN. Довольно политкорректная и, так как создана в Китае, неохотно отвечает на чувствительные для этой страны вопросы. Например, на тему про государственность Тайваня или про события на площади Тяньаньмэнь.
Если рассматривать цены на подписки нейросетей, нужно учесть, что стоимость использования новых моделей в бизнесе может существенно отличаться. Так, например, Chat GPT 4.5 по сравнению с 4o с точки зрения OpenAI будет дороже в 20 раз.
Какое будущее у нейросетей?
Развитие нейросетей сегодня движется сразу по двум направлениям: масштабирование вычислительных мощностей и внедрение инновационных инженерных решений.
Компания DeepSeek, например, добилась серьезного успеха именно благодаря сочетанию этих подходов. Их модель демонстрирует заметно большую эффективность, так как инженерам удалось оптимизировать обучение и существенно снизить стоимость вычислений при сохранении или даже улучшении качества ответов. Однако, несмотря на технологические прорывы, такие модели, как DeepSeek, все еще требуют внушительных ресурсов для работы и инфраструктуры. Например, другая популярная китайская модель, Qwen2.5, хоть и уступает в качестве DeepSeek, имеет 72 миллиарда параметров и нуждается в значительно меньших вычислительных мощностях.
При этом на первый план выходят не только сами размеры моделей, но и способы организации вычислений. Сегодня один из перспективных подходов — «смесь экспертов» (Mixture-of-Experts, MoE). В таких архитектурах модель активирует не все свои параметры, а лишь их тематическую часть, подходящую конкретно под текущий запрос пользователя. В результате это позволяет более эффективно использовать вычислительные ресурсы, достигая лучших результатов при меньших затратах. Согласно данным Epoch AI, за последние пять лет эффективность таких инженерных подходов выросла примерно в 127 раз: то, на что раньше требовалось 1000 GPU-часов, теперь можно сделать всего за 8 GPU-часов.
Что касается масштабирования, то крупные инвестиции действительно продолжаются. Крупнейшие компании, такие как Google, Meta (признана в РФ экстремистской организацией и запрещена), Microsoft и Amazon, в 2025 году направили на строительство новых дата-центров и ИИ-инфраструктуры около 320 миллиардов долларов. А отдельные инициативы, такие как проект Colossus от компании xAI Илона Маска, нацелены на создание крупнейших вычислительных кластеров для тренировки самых сложных моделей.
Везде идет строительство огромных дата-центров, финансирование тоже растет. Недавно на проект Сэма Альтмана StarGate было выделено 500 млрд долларов. Это означает, что интерес к нейросетям не просто не ослабевает, а только повышается. Что же касается выбора подходящей модели, нужно понять, какие задачи есть у пользователя — корпоративные или личные, а потом определить специализацию, если она важна.
В результате мы наблюдаем, что прогресс в области ИИ будет определяться балансом: без достаточного количества железа самые эффективные алгоритмы не раскроют свой потенциал, но при этом одни только аппаратные мощности уже не гарантируют прорыва, если не сопровождаются грамотными инженерными решениями.
Свежие комментарии