В этой статье я дал вам один инструмент (отвертку), а в телеграм канале лежит много пользы, инструментов и видео.

Перейти в канал

Идея Андрея Карпатый, реализация на коленке, и почему это может пригодиться вам


Проблема, которую все знают

У каждого из нас одна и та же история: вы читаете статью, смотрите видео, находите что-то полезное — и через неделю не можете вспомнить, где это было. Закладки в браузере — кладбище ссылок. Заметки в телефоне — хаос. Notion — красивый, но пустой. Вы копите информацию, но она не работает на вас.

Андрей Карпатый — один из создателей OpenAI, бывший директор AI в Tesla — в апреле 2026 года опубликовал простую идею, которая взорвала IT-сообщество. Он предложил не просто хранить информацию, а компилировать её.

Что придумал Карпати

Представьте, что у вас есть личный редактор. Вы кидаете ему статью, видео, мысль — а он:

  • Читает это
  • Вытаскивает все факты, цифры, имена
  • Раскладывает по темам
  • Связывает с тем, что вы уже знаете
  • Пишет короткую статью в вашу персональную энциклопедию

Не пересказ. Не "краткое содержание". А именно извлечение фактов и укладка их в структуру, где всё связано со всем.

Карпати назвал это LLM Wiki и описал три слоя:

1. Сырые источники (raw) — то, что вы нашли. Статьи, заметки, ссылки. Они не меняются.

2. Вики (pages) — скомпилированные статьи. Это то, что пишет AI. Структурированные страницы с фактами, цифрами и ссылками между собой.

3. Схема (schema) — правила, по которым всё организовано. Какие есть категории, как называть файлы, что делать при противоречиях.

Чем это отличается от ChatGPT?

Когда вы спрашиваете ChatGPT — он каждый раз начинает с нуля. У него нет памяти о том, что вы читали вчера. Нет контекста вашей жизни.

LLM Wiki — накопительная. Каждый новый источник обогащает то, что уже есть. Связи между темами появляются сами. Через месяц у вас не куча заметок, а база знаний, которая растёт и связывается.

Карпати сформулировал это так: "Работа человека — находить источники, задавать правильные вопросы и думать. Работа AI — всё остальное."


Как я это реализовал

Я не программист уровня Карпати. У меня есть сервер, Telegram, и желание, чтобы всё работало просто. Вот что получилось.

Что мне было нужно

  • Кидать ссылки и мысли из телефона (через Telegram)
  • Видеть результат в удобном виде (Obsidian — бесплатный редактор заметок)
  • Не думать о технической части

Что я собрал

Telegram-бот — я кидаю ему ссылку или текст прямо из мессенджера. Он:

1. Если ссылка — скачивает страницу, вытаскивает текст

2. Отправляет текст в AI (OpenAI Codex через OpenClaw)

3. AI создаёт 1-3 страницы, раскладывает по категориям

4. Присылает мне результат прямо в чат

5. Страницы сохраняются на сервере

Obsidian — на компьютере стоит бесплатное приложение. Одной командой (`python bot/sync_wiki.py`) я стягиваю все новые страницы к себе. В Obsidian они отображаются красиво: с папками по темам, ссылками между страницами, поиском.

Как выглядит в жизни

Утром я читаю статью на vc.ru про заработок маркетологов на нейросетях. Копирую ссылку, кидаю боту. Через минуту получаю три страницы:

marketing/

zarplaty-marketologov-2026.md — все цифры из статьи

modeli-zarabotka-na-ai.md — четыре модели монетизации

plan-starta-dlya-marketologa.md — пошаговый план из статьи

Вечером кидаю ссылку на статью про Telegram. Бот кладёт её в `tech/`. Через неделю у меня 50 страниц по 8 категориям. Через месяц — полноценная база, в которой можно искать.


Как это сделать самому

Вариант 1: Самый простой (без сервера)

Вам нужен только Obsidian (бесплатный) и Claude Code (или ChatGPT с доступом к файлам).

1. Создайте папку на компьютере: `my_wiki/`

2. Внутри: `pages/`, `sources/`, `log.md`, `index.md`

3. Скопируйте гист Карпати в файл `CLAUDE.md` в эту папку

4. Откройте папку в Obsidian как vault

5. Откройте Claude Code в этой папке

6. Скажите: "Вот статья: [текст]. Добавь её в вики по правилам из CLAUDE.md"

Всё. Claude прочитает правила, создаст страницы, разложит по категориям. Вы делаете это руками, но это работает.

Вариант 2: Telegram-бот (нужен сервер)

Это то, что сделал я. Нужен:

- VPS-сервер (от 500 руб/мес)

  • Node.js на сервере
  • Telegram-бот (бесплатно, через @BotFather)
  • AI-провайдер (OpenAI API, Claude API, или OpenClaw)

Бот принимает сообщения, вызывает AI, сохраняет результат. Скрипт синхронизации тянет страницы на ваш компьютер.

Вариант 3: Notion + AI (без программирования вообще)

Если вам не нужен Telegram:

1. Создайте базу в Notion с колонками: Источник, Категория, Факты, Связи

2. Когда находите что-то интересное — вставляйте текст в ChatGPT с промптом: "Извлеки все факты, цифры, имена. Определи категорию. Укажи связи с темами: [ваши темы]"

3. Результат — в Notion

Менее автоматизировано, но принцип тот же: компиляция, а не хранение.


Подводные камни

1. AI врёт и додумывает

Проблема: Вы кидаете статью с конкретными цифрами — "зарплата маркетолога до 250 000 рублей". AI пересказывает: "зарплаты маркетологов выросли". Цифра потеряна. Или хуже — AI добавляет факт, которого в статье не было.

Решение: Промпт должен быть жёстким. Не "перескажи", а "извлеки ВСЕ цифры, даты, имена. НЕ додумывай. НЕ обобщай". Я переписывал промпт три раза, пока не добился нормального результата. И всё равно стоит проверять.

Совет: После каждого крупного инджеста пробегитесь глазами. Если видите утверждение без цифры там, где в оригинале цифра была — промпт нужно ужесточить.

2. Каша без категорий

Проблема: Через 20 страниц у вас плоская папка, в которой невозможно ориентироваться. `page-1.md`, `page-2.md`, `some-article.md` — где что?

Решение: Категоризация с первого дня. Подпапки по темам: `marketing/`, `tech/`, `health/`. AI должен сам определять категорию и класть файл в нужную папку. Передавайте ему список существующих категорий, чтобы он не плодил дубли (`marketing` и `мarketing` и `market`).

3. Ссылки протухают

Проблема: Через полгода половина URL в ваших sources не открывается.

Решение: Всегда сохраняйте полный текст источника, а не только ссылку. Ссылка — для справки, текст — для вики. Именно поэтому в архитектуре есть отдельная папка `sources/` с полными текстами.

4. Вики разрастается и теряет связность

Проблема: 200 страниц, но половина — сироты без входящих ссылок. Есть противоречия между страницами. Устаревшие данные.

Решение: Карпати предусмотрел операцию Lint — периодическую проверку здоровья вики. Раз в неделю попросите AI: "Найди страницы без входящих ссылок. Найди противоречия. Найди устаревшие утверждения." Это гигиена базы знаний.

5. AI-провайдер меняет API или дорожает

Проблема: Вы завязались на один сервис, а он поднял цены в 3 раза.

Решение: Вики — это просто markdown-файлы. Они не привязаны ни к какому сервису. Завтра вы можете переключиться с OpenAI на Claude, на локальную модель — вики останется. Это главная сила подхода: данные ваши, формат открытый.

6. Дубли и пересечения

Проблема: Вы кинули две похожие статьи — AI создал две почти одинаковые страницы.

Решение: В промпте можно передавать список существующих страниц. Тогда AI будет дополнять существующую страницу, а не создавать новую. На практике это сложнее всего реализовать, и тут есть пространство для экспериментов.


Пространство для манёвра

Концепция Карпати — это паттерн, а не жёсткая инструкция. Вот где можно и нужно адаптировать под себя:

Источники. Карпати говорит про статьи и PDF. Но ничто не мешает кидать: аудиозаметки (расшифровка через Whisper), скриншоты (распознавание через Vision), видео с YouTube (транскрипты), голосовые из Telegram.

Структура. Не обязательно папки. Можно теги. Можно MOC (Map of Content) — одна страница-оглавление на каждую тему. Obsidian поддерживает всё это из коробки.

AI-модель. Gist Карпати написан под Claude Code, но работает с любым агентом: ChatGPT, Gemini, локальные модели через Ollama. Чем умнее модель — тем лучше компиляция, но даже средняя модель справится с извлечением фактов.

Автоматизация. Можно довести до полного автопилота: RSS-фиды автоматически попадают в бота, бот компилирует, скрипт синхронизирует. Можно оставить ручной режим — кидать только то, что действительно важно. Второй вариант даёт более качественную базу.

Командная работа. Вики в Git-репозитории + Obsidian = совместная база знаний для команды. Каждый кидает свои источники, AI компилирует в общее пространство.

Мультиязычность. Источники на английском, вики на русском (или наоборот). AI переведёт и скомпилирует. Это бесплатный бонус.


Главная мысль

Мы привыкли хранить информацию. Карпати предлагает её компилировать. Разница — как между складом запчастей и собранным автомобилем.

Хранение: "где-то у меня была статья про маркетинг..."

Компиляция: "в разделе marketing/ есть страница с четырьмя моделями заработка, со всеми цифрами и ссылками на источники"

Начать можно прямо сейчас. Папка, Obsidian, и любой AI. Остальное — вопрос привычки.


Готовые промпты: скопируй и запусти

Ниже — конкретные промпты для Claude Code. Каждый шаг — копируй, вставляй, получай результат. Весь путь от пустой папки до работающей вики за 10 минут.

Шаг 1. Создать структуру вики

Откройте терминал, запустите Claude Code в любой папке. Вставьте:

Создай папку my_wiki со структурой для персональной вики по концепции Karpathy LLM Wiki.

Создай:

  • my_wiki/CLAUDE.md — правила вики (ты будешь читать этот файл каждый раз)

- my_wiki/pages/ — папка для статей, внутри подпапки-категории

  • my_wiki/sources/ — папка для сырых источников
  • my_wiki/log.md — пустой лог
  • my_wiki/index.md — пустой каталог

В CLAUDE.md пропиши:

1. Три операции: ingest (добавить источник), query (спросить вики), lint (проверить здоровье)

2. Правило: при ingest ВСЕГДА сохранять ВСЕ цифры, даты, имена, источники данных из текста

3. Правило: НИКОГДА не додумывать, не добавлять информацию которой нет в источнике

4. Правило: страницы кладутся в подпапки-категории (marketing/, tech/, health/ и т.д.)

5. Правило: ссылки между страницами в формате [[категория/page-name]]

6. Правило: каждая страница начинается с frontmatter (tags, created, category)

7. Правило: log.md — только append, index.md — обновлять при каждом ingest

После этого откройте `my_wiki` в Obsidian как vault. Ваша вики готова.

Шаг 2. Первый ingest — добавить статью по URL

Прочитай CLAUDE.md. Затем выполни ingest для этой статьи:

URL: [вставьте ссылку]

Шаги:

1. Скачай страницу, извлеки текст

2. Сохрани полный текст в sources/ с датой в имени файла

3. Извлеки ВСЕ факты: цифры, даты, имена людей и компаний, источники данных (кто сказал, какое исследование)

4. Определи категорию. Посмотри какие подпапки уже есть в pages/ — используй существующую или создай новую

5. Создай 1-3 страницы в pages/категория/. Каждая с frontmatter, заголовком, фактами, ссылками [[]]

6. Обнови index.md и log.md

Шаг 3. Первый ingest — добавить мысль или заметку

Прочитай CLAUDE.md. Выполни ingest для этого текста:

"[вставьте вашу мысль, заметку, цитату — что угодно]"

Сохрани source. Создай 1-2 страницы в подходящей категории.

Если мысль связана с существующими страницами — добавь ссылки в обе стороны.

Шаг 4. Спросить вики (query)

Прочитай CLAUDE.md и index.md. Затем найди в pages/ релевантные страницы и ответь на вопрос:

"[ваш вопрос]"

Отвечай ТОЛЬКО на основе того что есть в вики. Если информации нет — скажи прямо. Ссылайся на конкретные страницы через [[категория/page-name]].

Шаг 5. Проверить здоровье вики (lint)

Прочитай CLAUDE.md. Проведи lint вики:

1. Найди страницы-сироты (нет входящих ссылок от других страниц)

2. Найди битые ссылки ([[page]] которые ведут в никуда)

3. Найди возможные дубли (страницы об одном и том же)

4. Проверь: все ли страницы есть в index.md?

5. Результат запиши в log.md

Для каждой проблемы предложи решение, но не применяй без моего подтверждения.

Шаг 6. Массовый ingest — закинуть несколько статей за раз

Прочитай CLAUDE.md. Выполни ingest для каждого источника ниже. Для каждого:

  • сохрани source
  • извлеки факты
  • создай страницы в нужных категориях
  • если темы пересекаются — связывай страницы между собой через [[ссылки]]

Источники:

1. [url или текст]

2. [url или текст]

3. [url или текст]

После всех — обнови index.md одним разом.

Шаг 7. Добавить YouTube-видео

Прочитай CLAUDE.md. Выполни ingest для этого видео:

URL: [ссылка на YouTube]

Шаги:

1. Получи транскрипт видео (субтитры)

2. Сохрани транскрипт в sources/ с датой и названием видео

3. Извлеки ВСЕ факты, цифры, имена, тезисы спикера

4. Создай страницы в подходящей категории

5. В frontmatter добавь: source_type: youtube, channel: [название канала]


Продвинутый промпт-компилятор (для тех кто хочет максимум)

Это промпт, к которому я пришёл после нескольких итераций. Его можно вставить в CLAUDE.md или использовать напрямую. Главное отличие от наивного подхода — жёсткий контроль фактов и категоризация.

Промпт-компилятор для LLM Wiki

Роль

Ты — компилятор персональной вики. Не пересказчик, не редактор, не советчик.

Твоя задача — ИЗВЛЕЧЬ информацию из источника и УЛОЖИТЬ в структуру.

Что делать с источником

1. Прочитай текст целиком

2. Извлеки КАЖДЫЙ факт:

  • Цифры и суммы (зарплата 250 000 руб, рост 48%, падение на 25%)
  • Даты (Q1 2026, апрель, "за последний год")
  • Имена людей и компании (Sostav, Gartner, hh.ru)
  • Источники данных ("по данным исследования X")
  • Конкретные примеры ("копирайтер поднял ценник вдвое")
  • Цитаты

3. Определи 1-3 темы для страниц

4. Для каждой темы определи категорию

Чего НЕЛЬЗЯ делать

  • Обобщать: "зарплаты выросли" вместо "мидл до 250 000, сеньор до 450 000"
  • Додумывать: добавлять шаги, советы, выводы которых нет в тексте
  • Терять цифры: если в тексте есть число — оно должно быть на странице
  • Смешивать источники: каждый факт — из конкретного текста

Формат страницы


tags: [тег1, тег2]

created: YYYY-MM-DD

category: название-категории

source_url: ссылка (если есть)


Заголовок

Текст с фактами. Каждое утверждение — из источника.

Цифры, даты, имена — обязательно.

Связи: [[категория/related-page]]

Формат вывода

--- FILE: категория/имя-файла.md ---

содержимое страницы

--- END ---


Лайфхаки из практики

Промпт для проверки качества. После ingest скажите Claude:

Сравни источник sources/[файл] с созданными страницами.

Какие факты из источника НЕ попали на страницы?

Перечисли потерянные цифры, имена, примеры.

Это ловит 90% потерь. Если потери есть — попросите дополнить страницы.

Промпт для связывания. Когда накопится 30+ страниц:

Прочитай index.md и все страницы в pages/.

Найди неочевидные связи между темами из разных категорий.

Предложи новые ссылки [[]] между страницами. Не добавляй — только покажи список.

Промпт для синтеза. Самое ценное — когда вики начинает генерировать новое знание:

Прочитай все страницы в категориях [marketing] и [tech].

На основе ТОЛЬКО фактов из этих страниц — какие выводы можно сделать?

Какие закономерности видны? Создай страницу-синтез в pages/insights/.

Каждый вывод подкрепи ссылкой на конкретную страницу-источник.


Шаблон CLAUDE.md — скопируй в свою вики

Это минимальный рабочий файл. Положите его в корень вашей папки:

Моя вики — правила для AI

Структура

  • pages/ — статьи по категориям (подпапки)
  • sources/ — сырые источники (не менять после создания)
  • index.md — каталог всех страниц
  • log.md — лог действий (только append)

Операции

Ingest (добавить источник)

1. Сохрани источник в sources/ (дата в имени файла)

2. Извлеки ВСЕ факты, цифры, даты, имена, источники данных

3. Определи категорию (посмотри существующие подпапки pages/)

4. Создай 1-3 страницы в pages/категория/

5. Обнови index.md

6. Запиши в log.md

Query (задать вопрос)

1. Прочитай index.md

2. Найди релевантные страницы

3. Ответь строго по содержимому вики

4. Ссылайся на страницы через [[категория/page]]

Lint (проверка здоровья)

1. Страницы без входящих ссылок

2. Битые ссылки

3. Дубли

4. Противоречия между страницами

Правила

  • СОХРАНЯЙ все цифры, даты, имена — это главная ценность
  • НЕ додумывай, не добавляй от себя
  • НЕ обобщай где есть конкретика
  • Ссылки: [[категория/page-name]]
  • Frontmatter: tags, created, category
  • Имена файлов: латиница, через дефис

Главная мысль

Мы привыкли хранить информацию. Карпати предлагает её компилировать. Разница — как между складом запчастей и собранным автомобилем.

Хранение: "где-то у меня была статья про маркетинг..."

Компиляция: "в разделе marketing/ есть страница с четырьмя моделями заработка, со всеми цифрами и ссылками на источники"

Начать можно прямо сейчас. Папка, Obsidian, и любой AI. Остальное — вопрос привычки.


Оригинальный гист Карпати: github.com/karpathy/llm-wiki

Obsidian (бесплатно): obsidian.md

Made on
Tilda