LLM Wiki는 도구가 아니다 — 당신만의 세계관을 짓는 첫 번째 벽돌이다
LLM Wiki는 도구가 아니다 — 당신만의 세계관을 짓는 첫 번째 벽돌이다
프롤로그: 당신은 자신의 머릿속을 설명할 수 있는가?
모든 사람이 AI에게 질문하고 있다.
하지만 정작 AI에게 '나'를 설명하는 사람은 거의 없다.
우리는 매일 생각하고, 판단하고, 선택한다. 그런데 그 판단의 기준 — 내가 세상을 이해하는 틀, 내가 중요하게 여기는 개념들 사이의 관계 — 을 명시적으로 정리해본 적이 있는가?
이것이 바로 온톨로지(Ontology)다. 그리고 나는 최근, 한 1인 창업가의 트윗에서 이 온톨로지 구축의 실마리를 발견했다.
I – 지친 창업가의 고백에서 시작된 질문
낭만코딩(@romantic_coding)이라는 1인 개발자가 이런 글을 올렸다.1
"𝕏에 글 쓸 때 신경 쓰는 게 두 가지 있거든요. 일관된 메시지, 그리고 공개할 정보의 범위. 이 두 개를 매일 판단하려니 체력이 안 되더라고요."
100일 된 아들을 재우고, 제품을 개발하고, CS 대응까지 마치면 밤엔 정신이 반쯤 나간다고 했다. 그래서 그는 페르소나, 콘텐츠 캘린더, 공개/비공개 라인, 사업 맥락을 전부 LLM Wiki에 정리해두고 AI에게 맡겼다.
트윗 초안을 쓰면 AI가 알아서 체크한다. 소재 타이밍, 공격성, 브랜딩 톤, 공개 라인 이탈 여부까지.
여기서 핵심이 나온다.
대부분의 사람은 이 이야기를 "AI 자동화 꿀팁"으로 읽는다. 하지만 나는 다른 걸 봤다. 그가 위키에 정리한 것은 단순한 정보가 아니었다. 자기 자신에 대한 개념 체계 — 즉, 개인 온톨로지(Personal Ontology)의 원형이었다.
II – LLM Wiki, 단순 메모 앱이 아닌 이유
안드레 카파시(Andrej Karpathy)가 2026년 4월 공개한 LLM Wiki는 마크다운 파일 기반의 지식 관리 시스템이다.2 그가 이 시스템을 설명하면서 쓴 비유가 인상적이다.
"Obsidian은 IDE이고, LLM은 프로그래머이며, 위키가 코드베이스다."
구조는 세 가지 레이어로 나뉜다:
graph TD
subgraph 원천자료 ["📁 Raw Sources (불변)"]
A[PDF / 아티클 / 미팅 기록]
end
subgraph 위키 ["📝 Wiki (LLM이 유지보수)"]
B[요약 / 개념 페이지 / 타임라인]
end
subgraph 스키마 ["⚙️ Schema (규칙)"]
C[CLAUDE.md — 구조화 규칙]
end
A -->|LLM이 읽기만| B
C -->|구조 지시| B
B -->|누적 성장| B
핵심은 누적이다.
기존 RAG(Retrieval-Augmented Generation)는 질문할 때마다 벡터 DB에서 조각을 찾아 재조립한다. 누적이 없다. 카파시의 위키는 다르다. LLM이 읽고, 요약하고, 링크하고, 카테고리를 매긴다. 한 주제에 대해 100편의 아티클과 40만 단어가 쌓였는데, 카파시 본인이 직접 쓴 것은 단 한 줄도 없다.3
RAG 대비 70배 효율적이라는 분석도 나왔다.4
| 비교 항목 | RAG | LLM Wiki |
|---|---|---|
| 저장 방식 | 벡터 DB (임베딩) | 플레인 마크다운 |
| 지식 누적 | ❌ 매번 재검색 | ✅ 지속적 누적 |
| 맥락 유지 | 조각난 청크 | 전체 맥락 보존 |
| 유지보수 | 파이프라인 필요 | Git으로 버전 관리 |
| 개인화 | 제한적 | 스키마로 완전 맞춤 |
하지만 이것만으로는 부족하다. 위키는 지식을 저장한다. 온톨로지는 지식 사이의 관계를 정의한다. 여기서 내 주장이 시작된다.
III – LLM Wiki가 개인 온톨로지의 시발점인 이유
온톨로지란 무엇인가? 정보학에서의 정의는 이렇다.
"어떤 영역에 존재한다고 가정되는 객체, 개념, 기타 개체들과 그것들 사이의 관계를 명시적으로 규정한 것."[^5]
기업에서는 이미 이것을 하고 있다. Neo4j는 2026년 로드맵에 "온톨로지를 일급 시민(First-Class Citizen)으로"라는 항목을 넣었다.5 글로벌 그래프 데이터베이스 시장은 2025년 28.5억 달러에서 2032년 153.2억 달러로 성장할 전망이다. 연평균 성장률 27.1%.6
역설적으로, 개인은 이 흐름에서 완전히 빠져 있다.
그런데 낭만코딩이 한 일을 다시 보자. 그는 자신의 위키에 이런 것들을 정리했다:
- 페르소나: "나는 어떤 사람으로 보여야 하는가"
- 공개/비공개 라인: "어디까지가 공유 가능한 영역인가"
- 사업 맥락: "내 사업의 구조와 판단 기준은 무엇인가"
- 콘텐츠 캘린더: "어떤 주제를 언제 다루는가"
이것은 메모가 아니다. 자기 자신에 대한 개념 관계망 — 즉, 개인 온톨로지의 초기 형태다.
graph LR
subgraph 개인온톨로지 ["🧠 개인 온톨로지"]
P[페르소나] --> V[가치관]
V --> D[판단 기준]
D --> C[콘텐츠 전략]
C --> B[브랜드 일관성]
B --> P
end
subgraph LLMWiki ["📝 LLM Wiki"]
W1[사업 맥락]
W2[공개/비공개 라인]
W3[톤 & 메시지 규칙]
end
W1 --> D
W2 --> C
W3 --> B
다시 말해, LLM Wiki는 개인 온톨로지를 구축하는 가장 낮은 진입 장벽이다.
마크다운만 알면 된다. 벡터 DB도, 그래프 DB도, SPARQL 쿼리도 필요 없다. 자기 사업, 자기 생각, 자기 판단 기준을 텍스트로 쓰면 LLM이 그것을 구조화한다. 시간이 지나면 그 구조 자체가 당신의 세계관을 반영하는 온톨로지가 된다.
IV – 체력이 아니라 구조의 문제다
1인 창업가에게 가장 어려운 것은 기술이 아니다. 체력이다.
낭만코딩이 말한 것처럼, "이 얘기 올려도 될까? 너무 자랑인가? 사업 비밀 건드리는 거 아닌가?"를 매일 머리로 판단하는 것이 진짜 에너지 킬러다.
2026년 AI 창업 트렌드 분석에서도 같은 결론이 나온다. "AI로 뭘 만들까?"가 아니라 "내가 잘 아는 문제를 AI로 어떻게 해결할까?"로 질문을 바꿔야 한다.7 기술의 신선함에는 유통기한이 있지만, 문제 해결은 유행과 무관하다.
LLM Wiki + 개인 온톨로지의 조합이 해결하는 것은 바로 이것이다:
인지 부하 감소 전략
| 전략 | 설명 |
|---|---|
| 🔕 판단의 외주화 | 공개/비공개, 톤, 타이밍 판단을 AI에게 위임 |
| 📰 소재의 자동 축적 | Git 로그 → 위키 콘텐츠 섹션에 자동 저장 |
| 🧭 일관성의 구조화 | 페르소나와 가치관을 명시적 규칙으로 전환 |
| 🔄 맥락의 영속성 | 위키를 Git으로 버전 관리, 언제든 복원 가능 |
AI가 글을 써주는 게 아니다. 지친 상태에서도 '나다운' 판단을 유지하게 해주는 구조인 것이다.
💭 이 글을 읽고 생각해볼 질문
-
개인 온톨로지 구조가 페르소나 기반 콘텐츠 캘린더의 자동 일관성 검증을 어떻게 강화할 수 있을까?
-
1인 창업가가 LLM Wiki를 활용해 인지 부하를 줄이면서 시장 변화에 적응하는 개인 온톨로지를 어떻게 자동 관리할 수 있을까?
-
LLM Wiki의 온톨로지 프레임워크와 AI 기반 페르소나 관리의 결합이 지식 그래프 시장의 폭발적 성장(2025년 $28.5B → 2032년 $153.2B)에 어떤 영향을 미칠까?
댓글로 당신의 생각을 공유해주세요.
결론: 당신의 세계관은 어디에 저장되어 있는가?
대부분의 사람은 AI를 질문-응답 기계로 쓴다. 하지만 진짜 레버리지는 AI에게 "나는 누구인가"를 알려주는 순간 시작된다.
LLM Wiki는 완벽한 시스템이 아니다. 낭만코딩도 인정했다 — "정보가 쌓일수록 디테일이 떨어지는 건 GPT나 제미나이랑 똑같다"고.
하지만 이 구조가 가진 진짜 힘은 당신이 자신의 생각을 명시적으로 정리하도록 강제한다는 점이다. 페르소나를 쓰고, 경계를 정하고, 판단 기준을 문서화하는 과정 — 그 자체가 이미 개인 온톨로지의 첫 번째 벽돌이다.
기업들은 수십억 달러를 들여 온톨로지를 짓고 있다. 당신은 마크다운 파일 하나로 시작할 수 있다.
"AI가 글을 써주는 게 아니라, 지친 상태에서도 일관성 유지하게 해주고 쓸 거리 미리 쌓아주는 구조인 셈이죠." — 낭만코딩
질문은 하나다. 당신의 세계관은 아직 머릿속에만 있는가, 아니면 이미 어딘가에 기록되기 시작했는가?
Sources
이 글이 도움이 되셨다면, 한 명의 친구에게 공유해주세요.
Footnotes
-
Why Andrej Karpathy's "LLM Wiki" is the Future of Personal Knowledge | evoailabs, Medium ↩
-
LLM Wiki Revolution: How Andrej Karpathy's Idea is Changing AI | Analytics Vidhya ↩
-
Beyond Context Graphs: How Ontology, Semantics, and Knowledge Graphs Define Context | Year of the Graph ↩
-
From LLMs to Knowledge Graphs: Building Production-Ready Graph Systems | Medium ↩