
⚡️ Ant Group выпустили Ling-2.6-flash — удар по больному месту LLM-индустрии.
Пока все соревнуются, чей ответ длиннее, китайцы пошли в обратную сторону.
104 млрд параметров, активных — всего 7,4 млрд. MoE-архитектура: в каждый момент работает малая часть сети, а считать приходится за копейки.
Модель натаскана не раздувать ответы. Никаких простыней на пустом месте.
Разработчики: «мы оптимизировали интеллект/токен, а не интеллект/слова». Для тех, кто платит за API — буквальная экономия на ровном месте.
Гибридная линейная архитектура — прирост по скорости на длинных контекстах. Обычные трансформеры захлёбываются квадратичной сложностью. Тут обошли.
Заточена под агентские сценарии: инструменты, планирование, задачи. Бенчмарки BFCL-V4, SWE-bench, TAU2 — реальные, не синтетика. Держится на уровне моделей, которые в разы жирнее.
Неделю — бесплатный доступ через OpenRouter и Novita. Без платёжки и вейтлиста.
MUSIN PRO | Ling-2.6-flash
#AI #LLM #AntGroup #нейросети #разработка