Погружаемся в Context Engineering. Разбираемся, как сократить расходы токенов, не упираться в лимиты и платить меньше за API. В этом видео я собрал 13 способов оптимизации контекста, которые помогут реже упираться в лимиты использования Claude Code и других LLM. Некоторые из советов экспериментальные, часть из них мы обсуждали в вайбкодерском чате в ТГ. Я попробовал их применить и решил поделиться опытом. Этот подробный разбор будет полезно всем, кто хочет использовать ИИ агентов для разработки на максимум, эффективно использовать контекст и тратить меньше денег на подписки и API. Оплата Claude из РФ: Годный вайбкодинг в ТГ - Вайбкодерский чат - Ресурсы из видео - Полный гайд по Claude Code - Урок по документации для ИИ агентов - Воркшоп по документации для ИИ - Таймкоды: 00:00 - Вступление 00:49 - План видео 01:04 - Ценообразование LLM 01:48 - Как считаются лимиты 02:28 - Оплата вычислительной мощности 02:51 - Основные принципы оптимизации контекста 03:20 - Стоимость моделей Claude 04:18 - Как поменять модель в Claude Code 05:22 - "Отвечай коротко" и лаконичные промпты 06:16 - Разделение документации на мелкие файлы 08:45 - Память Claude Code и файл 10:25 - Описание структуры кода 11:44 - Процесс разработки 12:38 - Как работает контекстное окно 14:21 - Что забивает контекст 16:28 - Отключение MCP серверов 18:03 - Использование Sub Agents 20:15 - Agent Skills вместо MCP 27:45 - Semantic Code Search MCP 34:14 - Selfhosted LLM 36:32 - Ollama mcp 37:52 - Итоги











