DeepSeek
DeepSeek
Олег Белов Опубликована 22.09.2025 в 0:16

ИИ за $294 тысячи: китайская компания обошла OpenAI без миллиарда в кармане

Стоимость обучения ИИ-модели DeepSeek составила $294 тыс. против $100 млн у OpenAI

История китайской компании DeepSeek показывает, что на рынке искусственного интеллекта победа зависит не только от мощности чипов, но и от умения грамотно использовать ресурсы. Компания заявила, что обучение её модели R1 обошлось всего в $294 тыс., что в десятки и даже сотни раз меньше, чем суммы, которые называют американские конкуренты. Такой результат стал возможен благодаря эффективной организации вычислений и использованию доступных ускорителей Nvidia.

Сколько стоит обучение ИИ

Тренировка крупной языковой модели требует колоссальных мощностей: тысячи ускорителей работают неделями, обрабатывая терабайты текста и кода. Стоимость таких экспериментов обычно измеряется десятками миллионов долларов. В 2023 году, например, глава OpenAI Сэм Альтман называл цифру в $100 млн за обучение базовой модели, хотя точные детали так и не были раскрыты.

На этом фоне отчёт DeepSeek выглядит почти сенсационно. Компания задействовала 512 ускорителей Nvidia H800, разработанных специально для китайского рынка. Эти чипы слабее флагманских H100 и A100, поставки которых в КНР ограничены. Но, как показал опыт, даже H800 при правильной организации способны дать результат.

Политика и чипы

Вокруг DeepSeek развернулась и геополитическая история. Американские власти подозревали, что китайская компания имела доступ к запрещённым H100, несмотря на экспортный контроль. В июне официальные лица США заявили, что DeepSeek закупила значительные партии этих чипов ещё до введения ограничений. Nvidia же утверждает, что для обучения R1 применялись именно H800.

Кроме того, DeepSeek впервые признала владение A100, но пояснила, что они использовались лишь для подготовки к экспериментам с меньшими моделями. Основная часть обучения заняла 80 часов и прошла на H800.

Обвинения в копировании

После релиза R1 в январе 2025 года конкуренты обвинили DeepSeek в том, что её модель якобы создана с помощью дистилляции решений OpenAI. Такой метод предполагает, что крупная модель используется для обучения более компактной. Это снижает требования к ресурсам, но вызывает вопросы об оригинальности.

Компания ответила на эти обвинения в статье для журнала Nature. По мнению её специалистов, дистилляция — не копирование, а способ сделать ИИ более доступным. Компактные модели проще внедрять и дешевле поддерживать, а значит, больше компаний и университетов могут работать с ИИ без миллиардных бюджетов.

Сравнение затрат на обучение моделей

Компания Модель Число ускорителей Тип чипов Стоимость обучения
OpenAI GPT (базовые версии) не раскрыто H100/A100 ~$100 млн
DeepSeek R1 512 H800 $294 тыс.
Anthropic Claude не раскрыто H100 десятки млн $
Google DeepMind Gemini тысячи TPU не раскрыто, но >$50 млн

Советы шаг за шагом: как снизить стоимость ИИ-проектов

  1. Используйте дистилляцию моделей: это позволяет обучать меньшие версии без потери ключевых возможностей.

  2. Подбирайте оптимальные ускорители: не всегда нужны самые дорогие чипы, как показал пример с H800.

  3. Разделяйте обучение на этапы: предварительная работа может проводиться на слабых ускорителях, а финальная — на более мощных.

  4. Сокращайте время тренировки за счёт оптимизации кода и использования библиотек вроде DeepSpeed или Megatron-LM.

  5. Рассматривайте аренду облачных ресурсов вместо покупки "железа", если проект не требует постоянной нагрузки.

Ошибка → Последствие → Альтернатива

  • Ошибка: опора исключительно на самые дорогие ускорители.
    Последствие: рост бюджета до сотен миллионов долларов.
    Альтернатива: комбинировать более доступные чипы и алгоритмы оптимизации.

  • Ошибка: игнорирование методов дистилляции.
    Последствие: чрезмерные вычислительные расходы.
    Альтернатива: обучать компактные модели на основе больших.

  • Ошибка: отсутствие прозрачности в расходах.
    Последствие: потеря доверия инвесторов.
    Альтернатива: публиковать данные о конфигурациях и стоимости.

А что если…

Что будет, если подход DeepSeek станет массовым? Компании по всему миру смогут обучать свои модели за сотни тысяч долларов вместо десятков миллионов. Это приведёт к демократизации рынка: искусственный интеллект перестанет быть только инструментом крупных корпораций. Однако одновременно возрастёт конкуренция, и лидерам придётся искать новые способы удержать позиции.

Плюсы и минусы стратегии DeepSeek

Плюсы Минусы
Снижение затрат до рекордных уровней Обвинения в использовании чужих идей
Возможность масштабирования ИИ Ограничения из-за слабых чипов H800
Демократизация технологий Давление со стороны США
Быстрое время обучения (80 часов) Риски утраты доверия на мировом рынке

FAQ

Как выбрать ускорители для обучения ИИ?
Если проект ограничен в бюджете, лучше начинать с H800 или A100. Для самых больших моделей необходимы H100 или TPU.

Сколько времени занимает обучение модели, подобной R1?
По словам DeepSeek, финальный этап занял 80 часов, что значительно меньше, чем месяцы у конкурентов.

Что лучше: дистилляция или обучение "с нуля"?
Для старта дистилляция дешевле и эффективнее, но для создания уникальной модели компании часто комбинируют оба подхода.

Мифы и правда

  • Миф: без H100 невозможно обучить современную модель.
    Правда: DeepSeek показала, что H800 тоже справляются.

  • Миф: дистилляция — это воровство.
    Правда: это признанная практика в ИИ, позволяющая удешевлять обучение.

  • Миф: дешёвое обучение означает низкое качество.
    Правда: эффективность модели определяется не только затратами, но и архитектурой.

3 интересных факта

• После релиза R1 акции Nvidia и других компаний упали из-за страха инвесторов перед новым конкурентом.
• DeepSeek использовала A100 только на подготовительном этапе, а основное обучение прошло на H800.
• Компания впервые публично признала владение A100 именно в статье для Nature.

Исторический контекст

  • 2023 год: Сэм Альтман сообщил, что обучение моделей OpenAI стоит ~$100 млн.

  • Январь 2025 года: релиз DeepSeek-R1, вызвавший резонанс на мировом рынке.

  • Июнь 2025 года: США заявили о подозрении в использовании H100 китайской компанией.

  • Сентябрь 2025 года: DeepSeek раскрыла детали о стоимости обучения и применении H800.

Подписывайтесь на NewsInfo.Ru

Читайте также

Бумагу можно переработать до шести раз — эколог Пешков сегодня в 13:35
Пакет против пластика: какой пакет в магазине на самом деле стоит выбирать

Эколог Андрей Пешков пояснил NewsInfo, почему бумажные пакеты экологичнее пластиковых.

Читать полностью »
Православный мессенджер Зосима выйдет в первой половине 2026 года — Агапов 06.12.2025 в 7:57
Секретный проект раскрыт: Зосима выйдет в 2026-м и обещает стать главным духовным каналом

Православный мессенджер "Зосима" готовят к публичному запуску в 2026-м: тест уже прошли тысячи пользователей, а дальше всё решит масштабирование.

Читать полностью »
Конфликт приложений может замедлять работу гаджета — IT-эксперт Муртазин 05.12.2025 в 13:34
Когда телефон живет своей жизнью: из-за этих процессов гаджет начинает тормозить

Аналитик Эльдар Муртазин объяснил NewsInfo почему телефон может перегреваться и "тормозить".

Читать полностью »
Pokemon TCG Pocket признана лучшей игрой для iPhone — App Store Awards 2025 05.12.2025 в 13:25
Игры и приложения года раскрыты: пользователи не ожидали такого расклада от Apple

Премия App Store Awards 2025 изменила расстановку сил между крупными студиями и независимыми разработчиками, показав неожиданные приоритеты индустрии.

Читать полностью »
Модели телевизоров от Tuvio, TCL и Hisense названы лучшими до 17 тысяч рублей — Палач 05.12.2025 в 13:15
Бюджетные телевизоры поражают возможностями: не думал, что за такие деньги бывает такое

Подборка трёх доступных телевизоров до 17 тысяч рублей показывает, как бюджетный сегмент постепенно перенимает функции более дорогих моделей, сохраняя привлекательную цену.

Читать полностью »
Теневые каналы в Telegram живут в среднем семь месяцев — Лаборатория Касперского 05.12.2025 в 9:36
Лаборатория Касперского раскрыла правду: почему даже крупные теневые каналы в Telegram живут недолго

Kaspersky изучила 800+ теневых Telegram-каналов: в среднем они живут около семи месяцев. Почему блокировки усилились и куда уходят крупные сообщества?

Читать полностью »
Расширения WeTab и Infinity V+ собирали данные 4 млн пользователей — KOI Security 05.12.2025 в 8:57
Осторожно, обновление: как безобидное расширение после апдейта начало похищать ваши пароли

WeTab и Infinity V+ подозревают в скрытом сборе данных через обновления. Как работала "долгая" атака и почему пострадали миллионы пользователей?

Читать полностью »
Вредоносное ПО для Android закрепляется в системе — ТАСС 05.12.2025 в 8:23
Мошенники знают ваши слабые места: почему вы добровольно установите троян под видом YouTube Pro

Под видом "18+" и "расширенных" TikTok и YouTube пользователям подсовывают трояны. Как устроена сеть сайтов и что нашли операторы.

Читать полностью »