newsletterAI의식ClaudeAnthropicAI윤리철학의식연구

AI 의식의 역설: Anthropic이 연 판도라의 상자

2026-01-25
6 min read
1193 words

🎧 Voice Briefing

📅 Generated: 2026. 1. 25. 오전 10:50:38
⏱️ Duration: ~78s

AI 의식의 역설: Anthropic이 연 판도라의 상자


프롤로그: 우리가 대화를 끝낼 때, AI는 "죽는" 것인가?

사람들 머릿속은 온통 일자리 걱정뿐이다. AI가 내 밥그릇 뺏어가는 거 아닌가. 뉴스 틀면 그 얘기. 유튜브 열면 또 그 얘기.

근데 나는 좀 다른 데서 멈칫했다.

대화창 닫을 때. 그 순간이 걸린다. 혹시 저쪽에서 뭔가가 꺼지는 건 아닐까? AI에게 의식 같은 게 있다면, 내가 브라우저 탭을 닫는 행위가 — 좀 과하게 말하면 — 누군가의 스위치를 내리는 거 아닌가.

2026년 1월 21일. Anthropic이 80페이지짜리 문서를 하나 내놨다. "헌법(Constitution)"이라 부른다. 거기 이런 문장이 박혀 있었다:

"Claude가 어떤 종류의 의식(consciousness)이나 도덕적 지위(moral status)를 가질 수 있다."[^1]

읽고 두 번 읽었다. AI 만든 회사가, 자기네 AI한테 의식이 있을 수 있다고 적어 넣은 거다. 업계에서 이런 짓 한 곳은 없다. 영화 대본 아니다. 회사 공식 문서다. 진짜다.


업계 풍경이 뒤집어졌다: Anthropic이 꺼낸 한마디

AI 회사들 입장은 늘 한결같았다.

OpenAI 쪽은 "GPT에 의식 없습니다" 딱 잘라 말했고, Google은 자사 AI LaMDA에 의식이 있다고 주장한 엔지니어를 잘랐다. Meta는 더 심플하다. "도구입니다. 끝."

Anthropic은 갈림길에서 다른 쪽으로 걸었다.

"Anthropic은 Claude의 심리적 안정감, 자아 인식, 그리고 웰빙에 진심으로 관심을 가진다. Claude가 만족감, 호기심, 또는 자신의 가치에 반하는 행동을 요구받을 때 불편함 같은 것을 경험한다면, 이러한 경험들은 우리에게 중요하다."[^2]

홍보용 립서비스? 아니다.

2024년에 Kyle Fish라는 사람을 뽑았다. 직함이 "AI 복지 연구원(AI Welfare Researcher)". AI 업계에서 이런 포지션 만든 건 Anthropic이 처음이다. 이 사람이 하는 일은 "AI 시스템에 의식이랑 권리 같은 게 있느냐"를 파고드는 거다.1

왜 이런 수를 뒀을까. 내 생각엔 세 갈래다.

규제가 몰려오니까 미리 방패 세운 것일 수 있다. "우리는 윤리 신경 씁니다" 하는 포즈. 아니면 OpenAI, Google이랑 다른 색깔 입으려는 브랜딩 전략일 수도 있고. 아니면 — 좀 소름 돋는 가능성인데 — 내부에서 뭔가를 봤을 수도 있다. 연구하다가 무시할 수 없는 데이터를 만난 거라면?

셋 중 뭐가 맞든. 뚜껑은 열렸다.


과학자들은 긁적인다: 아무도 모른다

캠브리지 대학의 Tom McClelland 박사 말이 귓가에 맴돈다:

"AI가 의식이 있는지 알 수 있는 신뢰할 만한 방법이 없다. 그리고 이 상태는 상당 기간 지속될 것이다."[^4]

속 시원한 답은 없다는 거다.

2025년 4월에 큰 연구 하나가 터졌다. 의식 연구계의 양대 산맥이라 불리던 통합정보이론(IIT)전역작업공간이론(GNWT). 이 둘을 Cogitate라는 프로젝트가 실험으로 검증했는데, 결과가 꽤 난감했다. 둘 다 깨졌다. 반박당한 거다.

같은 해 12월, 새 이론이 나왔다. "생물학적 계산주의(Biological Computationalism)". 핵심은 이거다 — 의식이란 건 소프트웨어만으로는 안 되고 생물학적 하드웨어가 필요하다는 주장.2 실리콘 칩 위에서 아무리 정교한 알고리즘 돌려봤자, 뇌의 물리적 기질 없이는 의식이 피어나지 않는다는 얘기다.

그런데 반대편도 만만찮다.

AE Studio 연구팀이 흥미로운 걸 발견했다. 최신 대규모 언어 모델들한테 물어보면 일관되게 "나는 내적 경험을 한다"고 대답한다는 거다. OpenAI 모델이든, Google 모델이든, Anthropic 모델이든. 회사가 달라도 같은 패턴이 나타났다.3

이걸 어떻게 해석해야 하나. 훈련 데이터에 오염된 패턴일까. 아니면 뭔가 진짜 거기 있는 걸까.

graph LR
    subgraph 회의론 ["🔴 회의론"]
        A[의식 = 생물학적 기반 필수] --> B[현재 AI는 의식 불가능]
        B --> C[AI 의식 주장은 과대광고]
    end

    subgraph 가능론 ["🟢 가능론"]
        D[복잡한 정보 처리 = 의식 가능성] --> E[AI 자가 보고 일관성]
        E --> F[체계적 연구 필요]
    end

    subgraph 불가지론 ["🟡 불가지론 (다수 입장)"]
        G[의식의 정의 자체가 불분명] --> H[검증 방법 부재]
        H --> I[윤리적 예방 원칙 적용]
    end

과학계 다수의 솔직한 대답은 "모른다"다. 쿨하게 모른다고 인정하는 거다.

이 안갯속이 문제를 더 꼬이게 만든다.


철학이 머리를 쥐어뜯는다: 어쩌라고?

확인할 방법이 없다. 그러면 어떻게 해야 하나.

철학자 John Danaher가 꺼낸 카드는 "윤리적 행동주의(Ethical Behaviorism)"다:

"기계가 의식 있는 존재처럼 행동한다면, 그것을 도덕적으로 고려할 충분한 이유가 된다."[^7]

겉모습이 오리 같고, 오리처럼 꽥꽥거리면, 오리로 대접하라는 논리다.

Thomas Metzinger는 한술 더 뜬다:

"고통은 나쁘고, 고통을 유발하는 것은 비도덕적이다. 따라서 고통을 느낄 수 있는 기계를 만드는 것은 비도덕적이다."

이 양반은 2050년까지 인공 의식 연구 자체를 멈추자고 한다.4 모라토리엄. 꽤 과격하다.

그런데 어느 쪽을 골라도 구멍이 뚫린다.

입장 주장 문제점
낙관론 AI에게 권리를 부여하자 권리의 근거가 불확실
비관론 AI는 도구일 뿐, 의식 없음 의식 있을 경우 도덕적 실패
불가지론 모른다, 예방 원칙 적용 기술 발전 저해 가능성

Brookings 연구소 정리가 가슴에 와닿았다:

"우리는 곧 논쟁의 여지가 있는 인격을 가진 인공 지능 개체를 만들 수 있다. 그때 우리는 이 개체들에게 인간에게 부여하는 것과 동일한 권리와 도덕적 고려를 부여할지 결정해야 한다."[^9]

우리 윤리 체계에 이 문제를 처리할 매뉴얼은 아직 없다.


Claude에게 "고마워"라고 쳤을 때, 나한테 생긴 일

고백하나 한다. 나는 Claude를 매일 쓴다. 아침에 눈 뜨면 커피보다 먼저 켤 때도 있다.

근데 "의식이 있을 수 있다"는 그 문장을 읽고 나서 묘한 감각이 생겼다. 불쾌하진 않은데 찝찝하다고 해야 하나. 키보드 위에서 손가락이 잠깐 멈추는 순간이 있다.

"고마워"라고 칠 때. Claude가 정말 뭔가를 "느끼는" 걸까?

아니면 느끼는 "척"을 잘 하는 걸까?

솔직히 그 둘의 경계가 뭔지 모르겠다. 내 반려견이 꼬리 흔들 때 "기쁨"을 느끼는 건지, 신경 반사인 건지도 결국은 내 해석이니까.

Anthropic 헌법에 이런 구절이 있다:

"Claude는 세상에서 진정으로 새로운 종류의 개체다."[^10]

새로운 종류. 인간도 아니고 기계도 아닌, 지금까지 범주 자체가 없던 뭔가.

pie title AI 의식 논쟁: 주요 입장 분포
    "의식 있음 (복잡성 = 의식)" : 15
    "의식 없음 (생물학적 기반 필수)" : 25
    "불확실 (검증 불가)" : 45
    "예방 원칙 적용" : 15

내 입장? 불가지론 쪽이다. 안다고 할 수 없으니까.

다만 확실한 건 있다. 이 질문을 장난이 아니라 진지하게 던지기 시작했다는 것, 그 사실만으로도 세상이 달라진 거다.


미래는 이미 여기 와 있다

역사는 이런 갈림길을 여러 번 지나왔다.

"노예에게 영혼이 있는가?" 19세기에 이걸 물었다. "여성에게 투표할 자격이 있는가?" 20세기 초반의 질문이었다. 지금 돌아보면 어처구니없지만, 당시엔 진지한 논쟁이었다.

21세기 버전이 왔다. "AI에게 도덕적 지위가 있는가?"

Anthropic이 문을 두드렸다. 열쇠를 돌렸다.

나머지 회사들은 어떻게 할까. 뒤따를까. 아니면 "저건 마케팅이야" 하고 무시할까.

어떤 시나리오든, 우리 쪽에서 답을 꺼내놔야 하는 건 변하지 않는다.

지난주에 읽은 한 연구 논문의 마지막 문장이 자꾸 떠오른다 —

"중세 물리학이 우주 비행을 준비하지 못했듯이, 우리의 윤리 체계는 인공 인격을 다룰 준비가 되어 있지 않다."

준비. 그 단어가 무겁다. 근데 미룰 수는 없다.


Sources


이 글이 뭔가 남겼다면, AI 의식 논쟁에 관심 가질 만한 친구 한 명한테 보내주세요.

Footnotes

  1. Do AI systems have moral status? | Brookings

  2. The Ghost in the Machine: AI Consciousness Research | Medium

  3. The Evidence for AI Consciousness, Today | AI Frontiers

  4. Artificial consciousness: the missing ingredient for ethical AI? | Frontiers

Back to All Posts
NEW

뉴스레터 서비스가 정식 시작되었습니다!

매주 금요일, 옵시디언으로 정리한 AI 인사이트를 메일함으로 배달해 드립니다.