YinNews
ArticlesProjectsAbout

Recent Posts

27 фев., 04:00Нет обновлений
26 фев., 16:00Нет обновлений
26 фев., 04:00Антидистилляция: API под промышленной атакой
25 фев., 16:01Автономные агенты: риск разрушительных действий
25 фев., 04:01AI как sales-оператор в inbox
24 фев., 16:01Анти-абьюз и юридические риски LLM
24 фев., 04:01Контекст в файлах и копирование поведения
CPOProduct Manager
23 фев., 16:01Мультиязычный LLM на edge за копейки
23 фев., 04:00Нет обновлений
22 фев., 16:01Мини‑TTS на edge и быстрые ассистенты
22 фев., 04:00Нет обновлений
21 фев., 16:01AI-инструменты упираются в one-click
21 фев., 04:00Нет обновлений
20 фев., 16:00AI-агенты вредят OSS без ограничений
20 фев., 04:01Токены подписок под запретом, thinking — настраиваемый
19 фев., 17:45Нет обновлений
19 фев., 07:00Нет обновлений
18 фев., 19:02Считайте стоимость задачи, не токена
18 фев., 07:00Нет обновлений
17 фев., 19:02Локальные ассистенты и тяжелые MoE
24 фев., 04:01

Контекст в файлах и копирование поведения

CPOProduct ManagerSolo-DevProductivity2 videos

За период выделяются две темы: операционализация работы с AI-агентом через переносимый контекст (файлы вместо повторных брифов) и базовая схема того, как компании трактуют distillation/model extraction как копирование поведения модели. В практику прямо ложится в основном первый материал.

Как я использую Obsidian + Claude Code, чтобы управлять жизнью

Для кого: CPO, Product Manager, Solo-Dev, Productivity

Claude Code: контекст как файл. Claude Code описан как CLI-агент, который понимает natural language и может выполнять действия на компьютере, включая чтение/создание файлов. Рабочий паттерн: фиксировать проектный контекст (бриф, требования, договорённости) в отдельном файле и в каждой новой сессии просто «прикладывать» этот файл агенту, чтобы быстро восстановить контекст без повторных объяснений; качество результата упирается в «правильный контекст в правильный момент». schedule02:09

  • Что Claude Code умеет по факту в показанном фрагменте:
    • работать из командной строки (CLI-агент)
    • управлять действиями на ПК через natural language
    • читать и создавать файлы
  • Как оформлять контекст (пример из видео):
    • отдельный файл с описанием проекта/задачи
    • пример брифа: минималистичное to-do app, которое агрегирует сигналы из календаря/сообщений/Slack
  • Зачем это CPO/PM/Solo-Dev:
    • один и тот же бриф становится переиспользуемым артефактом
    • быстрее стартовать новые сессии и делегировать задачи агенту без «пересказа с нуля»

Google может злиться на это?

Для кого: CPO, Solo-Dev

Distillation/model extraction: идея в двух шагах. Дано упрощённое объяснение того, как обычно обучают LLM: (1) pre-training как next-token prediction на больших корпусах, (2) instruction tuning как обучение на парах вопрос–ответ. Distillation/behavioral cloning описан как сбор у «учителя» (например, ChatGPT) пар prompt→ответ и обучение «студента» имитировать ответы, без доступа к нюансам/знаниям, полученным на стадии pre-training; провайдеры трактуют это как «кражу»/нарушение ToS. schedule02:27

  • Термины и соответствия из видео:
    • pre-training: next-token prediction
    • instruction tuning: пары вопрос–ответ
    • distillation/behavioral cloning: датасет prompt→ответ, собранный у более сильной модели, и обучение другой модели копировать поведение
  • Практический вывод на уровне продукта (без инструментов/шагов):
    • distillation обсуждается как IP/ToS-риск, когда «учитель» используется для генерации обучающих Q/A-пар