DeepSeek разоблачен: почему R2 до сих пор не вышел?

Опубликовано: 14.09.2025 Просмотров: ...

DeepSeek cover

В начале года даже скептики заговорили об искусственном интеллекте после выхода DeepSeek R1 — китайской модели с продвинутым логическим режимом, который в бенчмарках едва отставал от лидеров, но при этом был бесплатен и доступен в любом регионе. Первые недели сервис работал неустойчиво, но вскоре технические неполадки устранили, и сегодня многие используют DeepSeek R1 как основную площадку для ИИ-задач.

Сразу же после релиза R1 появились легенды о DeepSeek R2 с невероятными возможностями. В сети гремели слухи о выпуске новой версии в мае, но уже к концу августа никаких официальных анонсов не было. Что же случилось за кулисами?

Команда DeepSeek не простаивала: весной они сначала представили V3 — облегчённую версию для стремительных ответов (аналог GPT-4o), а затем улучшили рассуждающий режим R1. И вот совсем недавно вышел V3.1 — эта сборка подтянула показатели в тестах, почти нивелировав отставание, и объединила V3 с R1 в единую модель, переключающуюся между быстрой и аналитической работой.

Новый универсальный движок работает быстрее и экономичнее: на обдумывание ответа уходит 10–20 секунд. API-тариф почти символический, а в веб-интерфейсе и мобильных приложениях DeepSeek V3.1 по-прежнему бесплатен. Это достойное пополнение списка бюджетных ИИ-решений, однако старая архитектура рано или поздно исчерпает потенциал. Тогда как же обстоят дела с R2?

История R2 напоминает детектив: проект столкнулся с дефицитом NVIDIA-ускорителей из-за санкций. Китай получает GPU либо урезанного функционала, либо дороже через серые каналы, да ещё с риском «закладок» от производителя, способных однажды парализовать всю систему.

Недавно западные издания сообщили, что власти Китая решили перевести индустрию ИИ на отечественные чипы — первыми «протестировали» DeepSeek на Huawei Ascend. Эти ускорители примерно на 40 % медленнее NVIDIA, и хотя теоретически недостаток можно покрыть числом, в реальности нестабильность выходов из строя и трудности с кластеризацией сводят на нет процесс тренировки крупных моделей.

Эксперимент с Ascend для R2 провалился, несмотря на участие инженеров Huawei. Сейчас Ascend оставили для инференса — там «отвал» ускорителей менее критичен, а сами R2 обучают на надёжных «западных» GPU NVIDIA.

Информацию стоит воспринимать с долей скепсиса, но подобные сложности испытывают и современные серверы NVIDIA GB200 NVL72 — их тоже рекомендуют лишь для инференса. Впрочем, задержка R2, возможно, не критична для разработчиков. Для Китая DeepSeek — это то же, что ChatGPT для западных рынков: почти все пользуются им, а в Tesla для Китая планируют ставить ассистента на базе DeepSeek.

Имея за плечами проверенную версию V3.1, можно не гоняться за очередными рекордами тестов, а поступательно переходить на локальные ускорители и выкатывать R2 лишь тогда, когда полностью уверены в его надёжности.

Краткий пересказ:

DeepSeek R1 стал бесплатной альтернативой ведущим ИИ с логическим режимом.
Вышедший весной V3.1 объединил скоростной и рассуждающий режимы в одну модель.
Разработка R2 затормозилась из-за проблем с заменой GPU NVIDIA на китайские чипы Ascend.
DeepSeek продолжит совершенствоваться: R2 выйдет, когда его стабильность будет гарантирована.

Теги:

ИИ, DeepSeek, DeepSeek V3.1, DeepSeek R2, Nvidia, Huawei Ascend, искусственный интеллект, инференс, бенчмарки, санкции