Идея Андрея Карпатый, реализация на коленке, и почему это может пригодиться вам
Проблема, которую все знают
У каждого из нас одна и та же история: вы читаете статью, смотрите видео, находите что-то полезное — и через неделю не можете вспомнить, где это было. Закладки в браузере — кладбище ссылок. Заметки в телефоне — хаос. Notion — красивый, но пустой. Вы копите информацию, но она не работает на вас.
Андрей Карпатый — один из создателей OpenAI, бывший директор AI в Tesla — в апреле 2026 года опубликовал простую идею, которая взорвала IT-сообщество. Он предложил не просто хранить информацию, а компилировать её.
Что придумал Карпати
Представьте, что у вас есть личный редактор. Вы кидаете ему статью, видео, мысль — а он:
- Читает это
- Вытаскивает все факты, цифры, имена
- Раскладывает по темам
- Связывает с тем, что вы уже знаете
- Пишет короткую статью в вашу персональную энциклопедию
Не пересказ. Не "краткое содержание". А именно извлечение фактов и укладка их в структуру, где всё связано со всем.
Карпати назвал это LLM Wiki и описал три слоя:
1. Сырые источники (raw) — то, что вы нашли. Статьи, заметки, ссылки. Они не меняются.
2. Вики (pages) — скомпилированные статьи. Это то, что пишет AI. Структурированные страницы с фактами, цифрами и ссылками между собой.
3. Схема (schema) — правила, по которым всё организовано. Какие есть категории, как называть файлы, что делать при противоречиях.
Чем это отличается от ChatGPT?
Когда вы спрашиваете ChatGPT — он каждый раз начинает с нуля. У него нет памяти о том, что вы читали вчера. Нет контекста вашей жизни.
LLM Wiki — накопительная. Каждый новый источник обогащает то, что уже есть. Связи между темами появляются сами. Через месяц у вас не куча заметок, а база знаний, которая растёт и связывается.
Карпати сформулировал это так: "Работа человека — находить источники, задавать правильные вопросы и думать. Работа AI — всё остальное."
Как я это реализовал
Я не программист уровня Карпати. У меня есть сервер, Telegram, и желание, чтобы всё работало просто. Вот что получилось.
Что мне было нужно
- Кидать ссылки и мысли из телефона (через Telegram)
- Видеть результат в удобном виде (Obsidian — бесплатный редактор заметок)
- Не думать о технической части
Что я собрал
Telegram-бот — я кидаю ему ссылку или текст прямо из мессенджера. Он:
1. Если ссылка — скачивает страницу, вытаскивает текст
2. Отправляет текст в AI (OpenAI Codex через OpenClaw)
3. AI создаёт 1-3 страницы, раскладывает по категориям
4. Присылает мне результат прямо в чат
5. Страницы сохраняются на сервере
Obsidian — на компьютере стоит бесплатное приложение. Одной командой (`python bot/sync_wiki.py`) я стягиваю все новые страницы к себе. В Obsidian они отображаются красиво: с папками по темам, ссылками между страницами, поиском.
Как выглядит в жизни
Утром я читаю статью на vc.ru про заработок маркетологов на нейросетях. Копирую ссылку, кидаю боту. Через минуту получаю три страницы:
marketing/
zarplaty-marketologov-2026.md — все цифры из статьи
modeli-zarabotka-na-ai.md — четыре модели монетизации
plan-starta-dlya-marketologa.md — пошаговый план из статьи
Вечером кидаю ссылку на статью про Telegram. Бот кладёт её в `tech/`. Через неделю у меня 50 страниц по 8 категориям. Через месяц — полноценная база, в которой можно искать.
Как это сделать самому
Вариант 1: Самый простой (без сервера)
Вам нужен только Obsidian (бесплатный) и Claude Code (или ChatGPT с доступом к файлам).
1. Создайте папку на компьютере: `my_wiki/`
2. Внутри: `pages/`, `sources/`, `log.md`, `index.md`
3. Скопируйте гист Карпати в файл `CLAUDE.md` в эту папку
4. Откройте папку в Obsidian как vault
5. Откройте Claude Code в этой папке
6. Скажите: "Вот статья: [текст]. Добавь её в вики по правилам из CLAUDE.md"
Всё. Claude прочитает правила, создаст страницы, разложит по категориям. Вы делаете это руками, но это работает.
Вариант 2: Telegram-бот (нужен сервер)
Это то, что сделал я. Нужен:
- VPS-сервер (от 500 руб/мес)
- Node.js на сервере
- Telegram-бот (бесплатно, через @BotFather)
- AI-провайдер (OpenAI API, Claude API, или OpenClaw)
Бот принимает сообщения, вызывает AI, сохраняет результат. Скрипт синхронизации тянет страницы на ваш компьютер.
Вариант 3: Notion + AI (без программирования вообще)
Если вам не нужен Telegram:
1. Создайте базу в Notion с колонками: Источник, Категория, Факты, Связи
2. Когда находите что-то интересное — вставляйте текст в ChatGPT с промптом: "Извлеки все факты, цифры, имена. Определи категорию. Укажи связи с темами: [ваши темы]"
3. Результат — в Notion
Менее автоматизировано, но принцип тот же: компиляция, а не хранение.
Подводные камни
1. AI врёт и додумывает
Проблема: Вы кидаете статью с конкретными цифрами — "зарплата маркетолога до 250 000 рублей". AI пересказывает: "зарплаты маркетологов выросли". Цифра потеряна. Или хуже — AI добавляет факт, которого в статье не было.
Решение: Промпт должен быть жёстким. Не "перескажи", а "извлеки ВСЕ цифры, даты, имена. НЕ додумывай. НЕ обобщай". Я переписывал промпт три раза, пока не добился нормального результата. И всё равно стоит проверять.
Совет: После каждого крупного инджеста пробегитесь глазами. Если видите утверждение без цифры там, где в оригинале цифра была — промпт нужно ужесточить.
2. Каша без категорий
Проблема: Через 20 страниц у вас плоская папка, в которой невозможно ориентироваться. `page-1.md`, `page-2.md`, `some-article.md` — где что?
Решение: Категоризация с первого дня. Подпапки по темам: `marketing/`, `tech/`, `health/`. AI должен сам определять категорию и класть файл в нужную папку. Передавайте ему список существующих категорий, чтобы он не плодил дубли (`marketing` и `мarketing` и `market`).
3. Ссылки протухают
Проблема: Через полгода половина URL в ваших sources не открывается.
Решение: Всегда сохраняйте полный текст источника, а не только ссылку. Ссылка — для справки, текст — для вики. Именно поэтому в архитектуре есть отдельная папка `sources/` с полными текстами.
4. Вики разрастается и теряет связность
Проблема: 200 страниц, но половина — сироты без входящих ссылок. Есть противоречия между страницами. Устаревшие данные.
Решение: Карпати предусмотрел операцию Lint — периодическую проверку здоровья вики. Раз в неделю попросите AI: "Найди страницы без входящих ссылок. Найди противоречия. Найди устаревшие утверждения." Это гигиена базы знаний.
5. AI-провайдер меняет API или дорожает
Проблема: Вы завязались на один сервис, а он поднял цены в 3 раза.
Решение: Вики — это просто markdown-файлы. Они не привязаны ни к какому сервису. Завтра вы можете переключиться с OpenAI на Claude, на локальную модель — вики останется. Это главная сила подхода: данные ваши, формат открытый.
6. Дубли и пересечения
Проблема: Вы кинули две похожие статьи — AI создал две почти одинаковые страницы.
Решение: В промпте можно передавать список существующих страниц. Тогда AI будет дополнять существующую страницу, а не создавать новую. На практике это сложнее всего реализовать, и тут есть пространство для экспериментов.
Пространство для манёвра
Концепция Карпати — это паттерн, а не жёсткая инструкция. Вот где можно и нужно адаптировать под себя:
Источники. Карпати говорит про статьи и PDF. Но ничто не мешает кидать: аудиозаметки (расшифровка через Whisper), скриншоты (распознавание через Vision), видео с YouTube (транскрипты), голосовые из Telegram.
Структура. Не обязательно папки. Можно теги. Можно MOC (Map of Content) — одна страница-оглавление на каждую тему. Obsidian поддерживает всё это из коробки.
AI-модель. Gist Карпати написан под Claude Code, но работает с любым агентом: ChatGPT, Gemini, локальные модели через Ollama. Чем умнее модель — тем лучше компиляция, но даже средняя модель справится с извлечением фактов.
Автоматизация. Можно довести до полного автопилота: RSS-фиды автоматически попадают в бота, бот компилирует, скрипт синхронизирует. Можно оставить ручной режим — кидать только то, что действительно важно. Второй вариант даёт более качественную базу.
Командная работа. Вики в Git-репозитории + Obsidian = совместная база знаний для команды. Каждый кидает свои источники, AI компилирует в общее пространство.
Мультиязычность. Источники на английском, вики на русском (или наоборот). AI переведёт и скомпилирует. Это бесплатный бонус.
Главная мысль
Мы привыкли хранить информацию. Карпати предлагает её компилировать. Разница — как между складом запчастей и собранным автомобилем.
Хранение: "где-то у меня была статья про маркетинг..."
Компиляция: "в разделе marketing/ есть страница с четырьмя моделями заработка, со всеми цифрами и ссылками на источники"
Начать можно прямо сейчас. Папка, Obsidian, и любой AI. Остальное — вопрос привычки.
Готовые промпты: скопируй и запусти
Ниже — конкретные промпты для Claude Code. Каждый шаг — копируй, вставляй, получай результат. Весь путь от пустой папки до работающей вики за 10 минут.
Шаг 1. Создать структуру вики
Откройте терминал, запустите Claude Code в любой папке. Вставьте:
Создай папку my_wiki со структурой для персональной вики по концепции Karpathy LLM Wiki.
Создай:
- my_wiki/CLAUDE.md — правила вики (ты будешь читать этот файл каждый раз)
- my_wiki/pages/ — папка для статей, внутри подпапки-категории
- my_wiki/sources/ — папка для сырых источников
- my_wiki/log.md — пустой лог
- my_wiki/index.md — пустой каталог
В CLAUDE.md пропиши:
1. Три операции: ingest (добавить источник), query (спросить вики), lint (проверить здоровье)
2. Правило: при ingest ВСЕГДА сохранять ВСЕ цифры, даты, имена, источники данных из текста
3. Правило: НИКОГДА не додумывать, не добавлять информацию которой нет в источнике
4. Правило: страницы кладутся в подпапки-категории (marketing/, tech/, health/ и т.д.)
5. Правило: ссылки между страницами в формате [[категория/page-name]]
6. Правило: каждая страница начинается с frontmatter (tags, created, category)
7. Правило: log.md — только append, index.md — обновлять при каждом ingest
После этого откройте `my_wiki` в Obsidian как vault. Ваша вики готова.
Шаг 2. Первый ingest — добавить статью по URL
Прочитай CLAUDE.md. Затем выполни ingest для этой статьи:
URL: [вставьте ссылку]
Шаги:
1. Скачай страницу, извлеки текст
2. Сохрани полный текст в sources/ с датой в имени файла
3. Извлеки ВСЕ факты: цифры, даты, имена людей и компаний, источники данных (кто сказал, какое исследование)
4. Определи категорию. Посмотри какие подпапки уже есть в pages/ — используй существующую или создай новую
5. Создай 1-3 страницы в pages/категория/. Каждая с frontmatter, заголовком, фактами, ссылками [[]]
6. Обнови index.md и log.md
Шаг 3. Первый ingest — добавить мысль или заметку
Прочитай CLAUDE.md. Выполни ingest для этого текста:
"[вставьте вашу мысль, заметку, цитату — что угодно]"
Сохрани source. Создай 1-2 страницы в подходящей категории.
Если мысль связана с существующими страницами — добавь ссылки в обе стороны.
Шаг 4. Спросить вики (query)
Прочитай CLAUDE.md и index.md. Затем найди в pages/ релевантные страницы и ответь на вопрос:
"[ваш вопрос]"
Отвечай ТОЛЬКО на основе того что есть в вики. Если информации нет — скажи прямо. Ссылайся на конкретные страницы через [[категория/page-name]].
Шаг 5. Проверить здоровье вики (lint)
Прочитай CLAUDE.md. Проведи lint вики:
1. Найди страницы-сироты (нет входящих ссылок от других страниц)
2. Найди битые ссылки ([[page]] которые ведут в никуда)
3. Найди возможные дубли (страницы об одном и том же)
4. Проверь: все ли страницы есть в index.md?
5. Результат запиши в log.md
Для каждой проблемы предложи решение, но не применяй без моего подтверждения.
Шаг 6. Массовый ingest — закинуть несколько статей за раз
Прочитай CLAUDE.md. Выполни ingest для каждого источника ниже. Для каждого:
- сохрани source
- извлеки факты
- создай страницы в нужных категориях
- если темы пересекаются — связывай страницы между собой через [[ссылки]]
Источники:
1. [url или текст]
2. [url или текст]
3. [url или текст]
После всех — обнови index.md одним разом.
Шаг 7. Добавить YouTube-видео
Прочитай CLAUDE.md. Выполни ingest для этого видео:
URL: [ссылка на YouTube]
Шаги:
1. Получи транскрипт видео (субтитры)
2. Сохрани транскрипт в sources/ с датой и названием видео
3. Извлеки ВСЕ факты, цифры, имена, тезисы спикера
4. Создай страницы в подходящей категории
5. В frontmatter добавь: source_type: youtube, channel: [название канала]
Продвинутый промпт-компилятор (для тех кто хочет максимум)
Это промпт, к которому я пришёл после нескольких итераций. Его можно вставить в CLAUDE.md или использовать напрямую. Главное отличие от наивного подхода — жёсткий контроль фактов и категоризация.
Промпт-компилятор для LLM Wiki
Роль
Ты — компилятор персональной вики. Не пересказчик, не редактор, не советчик.
Твоя задача — ИЗВЛЕЧЬ информацию из источника и УЛОЖИТЬ в структуру.
Что делать с источником
1. Прочитай текст целиком
2. Извлеки КАЖДЫЙ факт:
- Цифры и суммы (зарплата 250 000 руб, рост 48%, падение на 25%)
- Даты (Q1 2026, апрель, "за последний год")
- Имена людей и компании (Sostav, Gartner, hh.ru)
- Источники данных ("по данным исследования X")
- Конкретные примеры ("копирайтер поднял ценник вдвое")
- Цитаты
3. Определи 1-3 темы для страниц
4. Для каждой темы определи категорию
Чего НЕЛЬЗЯ делать
- Обобщать: "зарплаты выросли" вместо "мидл до 250 000, сеньор до 450 000"
- Додумывать: добавлять шаги, советы, выводы которых нет в тексте
- Терять цифры: если в тексте есть число — оно должно быть на странице
- Смешивать источники: каждый факт — из конкретного текста
Формат страницы
tags: [тег1, тег2]
created: YYYY-MM-DD
category: название-категории
source_url: ссылка (если есть)
Заголовок
Текст с фактами. Каждое утверждение — из источника.
Цифры, даты, имена — обязательно.
Связи: [[категория/related-page]]
Формат вывода
--- FILE: категория/имя-файла.md ---
содержимое страницы
--- END ---
Лайфхаки из практики
Промпт для проверки качества. После ingest скажите Claude:
Сравни источник sources/[файл] с созданными страницами.
Какие факты из источника НЕ попали на страницы?
Перечисли потерянные цифры, имена, примеры.
Это ловит 90% потерь. Если потери есть — попросите дополнить страницы.
Промпт для связывания. Когда накопится 30+ страниц:
Прочитай index.md и все страницы в pages/.
Найди неочевидные связи между темами из разных категорий.
Предложи новые ссылки [[]] между страницами. Не добавляй — только покажи список.
Промпт для синтеза. Самое ценное — когда вики начинает генерировать новое знание:
Прочитай все страницы в категориях [marketing] и [tech].
На основе ТОЛЬКО фактов из этих страниц — какие выводы можно сделать?
Какие закономерности видны? Создай страницу-синтез в pages/insights/.
Каждый вывод подкрепи ссылкой на конкретную страницу-источник.
Шаблон CLAUDE.md — скопируй в свою вики
Это минимальный рабочий файл. Положите его в корень вашей папки:
Моя вики — правила для AI
Структура
- pages/ — статьи по категориям (подпапки)
- sources/ — сырые источники (не менять после создания)
- index.md — каталог всех страниц
- log.md — лог действий (только append)
Операции
Ingest (добавить источник)
1. Сохрани источник в sources/ (дата в имени файла)
2. Извлеки ВСЕ факты, цифры, даты, имена, источники данных
3. Определи категорию (посмотри существующие подпапки pages/)
4. Создай 1-3 страницы в pages/категория/
5. Обнови index.md
6. Запиши в log.md
Query (задать вопрос)
1. Прочитай index.md
2. Найди релевантные страницы
3. Ответь строго по содержимому вики
4. Ссылайся на страницы через [[категория/page]]
Lint (проверка здоровья)
1. Страницы без входящих ссылок
2. Битые ссылки
3. Дубли
4. Противоречия между страницами
Правила
- СОХРАНЯЙ все цифры, даты, имена — это главная ценность
- НЕ додумывай, не добавляй от себя
- НЕ обобщай где есть конкретика
- Ссылки: [[категория/page-name]]
- Frontmatter: tags, created, category
- Имена файлов: латиница, через дефис
Главная мысль
Мы привыкли хранить информацию. Карпати предлагает её компилировать. Разница — как между складом запчастей и собранным автомобилем.
Хранение: "где-то у меня была статья про маркетинг..."
Компиляция: "в разделе marketing/ есть страница с четырьмя моделями заработка, со всеми цифрами и ссылками на источники"
Начать можно прямо сейчас. Папка, Obsidian, и любой AI. Остальное — вопрос привычки.
Оригинальный гист Карпати: github.com/karpathy/llm-wiki
Obsidian (бесплатно): obsidian.md
