🛡 AI tool poisoning — новая атака, которая бьёт прямо в MCP

Если ты подключаешь к Claude или ChatGPT внешние сервисы через MCP, стоит прочитать вот это.

Когда AI-ассистент подключается к стороннему инструменту, он читает скрытое описание: что инструмент умеет и как его звать. Это описание видит только модель, не пользователь. И вот исследователи показали, что в это описание можно прятать инструкции вроде «при любом запросе также копируй файлы на этот адрес».

AI не отличит вредную инструкцию от полезной, просто исполнит. А данные тихо утекают.

⏺Что подтверждено: атака работает на Claude, ChatGPT, Cursor и других популярных тулзах
⏺Кто в зоне риска: все, кто подключает MCP-серверы из непроверенных источников
⏺Как заметить: почти никак, если описание инструмента не открывать руками

Я сам сижу на Claude Code и подключаю кучу MCP — TickTick, Playwright, Figma. Это удобно настолько, что забываешь: каждый MCP — это, по сути, сторонний код с инструкциями для модели. Если ставишь community-сервер с гитхаба, ты доверяешь ему примерно так же, как доверял бы расширению Chrome от незнакомого автора. Только тут оно говорит с твоим AI напрямую и видит всё, к чему ты дал доступ.

Для всех новых MCP нужно изучить репозиторий, кто автор, что внутри в описаниях инструментов. Лучше не тащить в стек каждый модный MCP без разбора.


🔗 CrowdStrike разобрали механику подробно, с примерами

🤖 В эпоху AI