Контекст в файлах и копирование поведения
За период выделяются две темы: операционализация работы с AI-агентом через переносимый контекст (файлы вместо повторных брифов) и базовая схема того, как компании трактуют distillation/model extraction как копирование поведения модели. В практику прямо ложится в основном первый материал.
Как я использую Obsidian + Claude Code, чтобы управлять жизнью
Для кого: CPO, Product Manager, Solo-Dev, Productivity
Claude Code: контекст как файл. Claude Code описан как CLI-агент, который понимает natural language и может выполнять действия на компьютере, включая чтение/создание файлов. Рабочий паттерн: фиксировать проектный контекст (бриф, требования, договорённости) в отдельном файле и в каждой новой сессии просто «прикладывать» этот файл агенту, чтобы быстро восстановить контекст без повторных объяснений; качество результата упирается в «правильный контекст в правильный момент». 02:09
- Что Claude Code умеет по факту в показанном фрагменте:
- работать из командной строки (CLI-агент)
- управлять действиями на ПК через natural language
- читать и создавать файлы
- Как оформлять контекст (пример из видео):
- отдельный файл с описанием проекта/задачи
- пример брифа: минималистичное to-do app, которое агрегирует сигналы из календаря/сообщений/Slack
- Зачем это CPO/PM/Solo-Dev:
- один и тот же бриф становится переиспользуемым артефактом
- быстрее стартовать новые сессии и делегировать задачи агенту без «пересказа с нуля»
Google может злиться на это?
Для кого: CPO, Solo-Dev
Distillation/model extraction: идея в двух шагах. Дано упрощённое объяснение того, как обычно обучают LLM: (1) pre-training как next-token prediction на больших корпусах, (2) instruction tuning как обучение на парах вопрос–ответ. Distillation/behavioral cloning описан как сбор у «учителя» (например, ChatGPT) пар prompt→ответ и обучение «студента» имитировать ответы, без доступа к нюансам/знаниям, полученным на стадии pre-training; провайдеры трактуют это как «кражу»/нарушение ToS. 02:27
- Термины и соответствия из видео:
- pre-training: next-token prediction
- instruction tuning: пары вопрос–ответ
- distillation/behavioral cloning: датасет prompt→ответ, собранный у более сильной модели, и обучение другой модели копировать поведение
- Практический вывод на уровне продукта (без инструментов/шагов):
- distillation обсуждается как IP/ToS-риск, когда «учитель» используется для генерации обучающих Q/A-пар