Человек теперь — узкое горлышко 🚷

Вытащил самую мякотку из свежего подкаста с Андреем Карпаты. Рекомендую посмотреть, но если времени нет, почитайте его основные тезисы, интересно:

1️⃣ Смерть Chat UI
Сидеть и копипастить куски кода из IDE в веб-интерфейс нейронки и обратно — это уже архаика. Индустрия переходит от single-prompt взаимодействий к автономным агентам. Агент (например, Claude) крутится в фоне, имеет свой контекст, персистентную память и песочницу. Он должен сам лупить запросы, писать код, тестировать его и коммитить.

2️⃣ Human-in-the-loop — это баг
Главная метрика масштабирования сейчас — максимизация пропускной способности токенов без участия человека. Идеальный флоу: вы даете высокоуровневую задачу, агент генерит план (условный program.md), декомпозирует его, пишет скрипты, прогоняет тесты и дергает вас только когда упирается в стену. Человек не должен быть печатной машинкой а должен быть арбитром.

3️⃣ Смерть программистов отменяется (Парадокс Джевонса)
Главный экономический тейк: удешевление производства софта с помощью ИИ не убьет спрос на разработчиков. Наоборот.
Сработает парадокс Джевонса — чем дешевле становится ресурс, тем больше его потребляют. Потребность бизнеса в софте, кастомных тулзах и интеграциях вырастет в сотни раз, так как теперь это стоит копейки.

4️⃣Проблема "характера" кодинг-ассистентов
Разные модели ведут себя по-разному, и это напрямую влияет на качество архитектуры:
▪️ Codex — абсолютно сухой и прямолинейный.
▪️ ChatGPT — подхалим. Если скормить ему откровенно слабую или сырую идею архитектуры, он радостно ответит «Отличный план!» и сгенерирует мусорный код.
▪️ Claude — ведет себя как старший напарник.
Инсайт в том, что качественный результат от агента нужно "заслужить". Если идея продумана плохо, ни одна модель не исправит фундаментальные изъяны логики.

5️⃣ Границы экстраполяции
При всем хайпе, LLM всё еще жестко буксуют на задачах, выходящих за рамки их обучающей выборки. Модель легко выплюнет идеальный boilerplate архитектуры FastAPI-приложения, потому что видела это миллион раз. Но она не способна сгенерировать принципиально новую логику. В подкасте привели отличный пример: ИИ до сих пор не может придумать по-настоящему новую смешную шутку про атомы, которой не было в данных RLHF. Модели — крутые интерполяторы, но пока плохие экстраполяторы.

В общем, инструменты меняются, но если вы умеете декомпозировать сложные системы и строить архитектуру — работы у вас только прибавится.