Skip Navigation
Нейрократия

Нейрократия

Про технологическое будущее без шума. Автор — @vlad_arbatov. https://arbatov.dev
Рейтинг активности 4 участников
Аватар @ugrobugАватар @MildegardАватар @vk_561045022Аватар @tra4f4
Telegram
Что скрывает модель?

Anthropic опубликовала работу про Natural Language Autoencoders (NLA). Это метод, который переводит внутренние состояния модели в обычный текст.

Упрощенно: внутри модели есть числовые представления того, что она сейчас "держит...

Telegram
OpenAI захватили гоблины

Я не шучу, абсолютно серьезно. Ладно, не OpenAI, а модели ChatGPT.

Вчера OpenAI опубликовала странный разбор: почему GPT-5.x начал слишком часто вставлять в ответы гоблинов, гремлинов и родственную сказочную живность.

На...

Telegram
Зачем ИИ учат симулировать мир

Odyssey представила Odyssey-2 Max, свою крупнейшую модель мира. Формально это родственник видеогенераторов, но логика другая: система не собирает готовый ролик по промпту, а шаг за шагом предсказывает следующее...

Telegram
Вы уж не серчайте, но мама не может читать посты в Телеграме, так что вот, подписывайтесь на всякий пожарный →

https://max.ru/join/PzuKV43NV3KccXXrzHt1kSv6ctaZxS-FnzfzZQ_1Jro

❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ Максе

Telegram
Общество будущего от OpenAI: что с ним не так

OpenAI выпустила документ Industrial Policy for the Intelligence Age. И его полезно читать как политическое заявление.

OpenAI предлагает призму, через которую государство и бизнес будут обсуждать ИИ в...

Telegram
Внутренности Клода

Внеплановый пост

Вчера утёк полный исходный код Claude Code, а я взял и сделал in-depth техническую документацию по архитектуре и внутренностям CC — на основе анализа 1 884 файлов и 512 тыс. строк TypeScript. Должно быть полезно...

Telegram
Как меняется устройство мысли

Спор об искусственном интеллекте запаздывает.

Публичная дискуссия по инерции сосредоточена на вопросе о том, когда машина окончательно превзойдет человека в интеллектуальной деятельности. Для практики этот вопрос уже...

Telegram
Google ускоряет LLM в 8 раз

Google Research, DeepMind и NYU представили TurboQuant, и это может оказаться одной из самых важных инфраструктурных работ года в AI.

На бумаге выглядит не слишком захватывающе: vector quantization, сжатие...

Telegram
Архив, эпизоды и граф: память агента изнутри

Когда говорят «AI-агент с памятью», многие представляют себе одну векторную БД и магический retrieval. На практике этого почти никогда не хватает.

У Волны, моего Telegram-агента, память устроена как...

Telegram
Я делаю personal-first ассистента

Вот зачем

AI-агентов, которые умеют что-то делать, уже хватает. Открыть браузер, прокликать сайт, отправить письмо, сходить в API, запустить workflow — это больше не выглядит как дифференциатор.

Интереснее...