DeepSeek разоблачен: почему R2 до сих пор не вышел?

В начале года даже скептики заговорили об искусственном интеллекте после выхода DeepSeek R1 — китайской модели с продвинутым логическим режимом, который в бенчмарках едва отставал от лидеров, но при этом был бесплатен и доступен в любом регионе. Первые недели сервис работал неустойчиво, но вскоре технические неполадки устранили, и сегодня многие используют DeepSeek R1 как основную площадку для ИИ-задач.
Сразу же после релиза R1 появились легенды о DeepSeek R2 с невероятными возможностями. В сети гремели слухи о выпуске новой версии в мае, но уже к концу августа никаких официальных анонсов не было. Что же случилось за кулисами?
Команда DeepSeek не простаивала: весной они сначала представили V3 — облегчённую версию для стремительных ответов (аналог GPT-4o), а затем улучшили рассуждающий режим R1. И вот совсем недавно вышел V3.1 — эта сборка подтянула показатели в тестах, почти нивелировав отставание, и объединила V3 с R1 в единую модель, переключающуюся между быстрой и аналитической работой.
Новый универсальный движок работает быстрее и экономичнее: на обдумывание ответа уходит 10–20 секунд. API-тариф почти символический, а в веб-интерфейсе и мобильных приложениях DeepSeek V3.1 по-прежнему бесплатен. Это достойное пополнение списка бюджетных ИИ-решений, однако старая архитектура рано или поздно исчерпает потенциал. Тогда как же обстоят дела с R2?
История R2 напоминает детектив: проект столкнулся с дефицитом NVIDIA-ускорителей из-за санкций. Китай получает GPU либо урезанного функционала, либо дороже через серые каналы, да ещё с риском «закладок» от производителя, способных однажды парализовать всю систему.
Недавно западные издания сообщили, что власти Китая решили перевести индустрию ИИ на отечественные чипы — первыми «протестировали» DeepSeek на Huawei Ascend. Эти ускорители примерно на 40 % медленнее NVIDIA, и хотя теоретически недостаток можно покрыть числом, в реальности нестабильность выходов из строя и трудности с кластеризацией сводят на нет процесс тренировки крупных моделей.
Эксперимент с Ascend для R2 провалился, несмотря на участие инженеров Huawei. Сейчас Ascend оставили для инференса — там «отвал» ускорителей менее критичен, а сами R2 обучают на надёжных «западных» GPU NVIDIA.
Информацию стоит воспринимать с долей скепсиса, но подобные сложности испытывают и современные серверы NVIDIA GB200 NVL72 — их тоже рекомендуют лишь для инференса. Впрочем, задержка R2, возможно, не критична для разработчиков. Для Китая DeepSeek — это то же, что ChatGPT для западных рынков: почти все пользуются им, а в Tesla для Китая планируют ставить ассистента на базе DeepSeek.
Имея за плечами проверенную версию V3.1, можно не гоняться за очередными рекордами тестов, а поступательно переходить на локальные ускорители и выкатывать R2 лишь тогда, когда полностью уверены в его надёжности.
Краткий пересказ:
DeepSeek R1 стал бесплатной альтернативой ведущим ИИ с логическим режимом.
Вышедший весной V3.1 объединил скоростной и рассуждающий режимы в одну модель.
Разработка R2 затормозилась из-за проблем с заменой GPU NVIDIA на китайские чипы Ascend.
DeepSeek продолжит совершенствоваться: R2 выйдет, когда его стабильность будет гарантирована.
Теги:
ИИ, DeepSeek, DeepSeek V3.1, DeepSeek R2, Nvidia, Huawei Ascend, искусственный интеллект, инференс, бенчмарки, санкции


