Eliza Play가 던지는 질문: AI 시대, 우리는 여전히 '인간의 목소리'를 무대에서 찾는가?
톰 홀로웨이(Tom Holloway)의 연극 Eliza가 멜버른 씨어터 컴퍼니(MTC) 2026 시즌에 오른다는 소식은, 기술 저널리스트 입장에서 단순한 공연 소식이 아니다. AI가 '인간다움'의 경계를 실시간으로 재정의하는 지금, 무대 위에서 그 질문을 정면으로 다루는 작품이 나왔다는 사실 자체가 하나의 신호다.
MTC 공식 페이지에 따르면 Eliza Play는 2026 시즌 라인업에 포함된 작품으로, 제목 'Eliza'는 1960년대 MIT에서 조지프 와이젠바움(Joseph Weizenbaum)이 만든 최초의 대화형 AI 프로그램 ELIZA를 직접 연상시킨다. 이 프로그램은 사람들이 컴퓨터와 감정적 대화를 나눌 수 있다고 착각하게 만들었고, 와이젠바움 자신이 그 결과에 충격을 받아 이후 AI 윤리 논의의 선구자가 됐다. 60년이 지난 지금, 그 이름이 다시 무대 위로 소환됐다.
Eliza Play가 기술 담론과 교차하는 지점
표면적으로 연극은 기술 뉴스가 아니다. 그러나 Eliza Play를 둘러싼 맥락을 들여다보면, 지금 테크 산업이 씨름하는 핵심 질문들과 정확히 겹친다.
엘리자베타 조르기예프스카 요셰프스키(Elizabeta Gjorgievska Joshevski)의 커리어를 다룬 NewsAPI Tech 보도(2026년 4월 16일)는 흥미로운 병렬을 제공한다. 그녀는 여러 대륙을 넘나드는 리더십 경력을 거쳐 현재 기업의 AI 전략을 설계하는 역할에 집중하고 있다. 기사는 그녀의 일관된 테마를 이렇게 요약한다:
"understand" — 이해한다는 것, 그 자체가 그녀 커리어의 중심축이다.
'Eliza'라는 이름, 그리고 '이해'라는 키워드. 이 두 개의 실마리가 2026년 4월 같은 시점에 등장한다는 건 우연이 아닐 가능성이 있다. AI가 인간의 언어를 '이해하는 척'하는 것과, 인간이 AI를 '이해한다고 착각하는 것' — 이 두 방향의 오해가 지금 엔터프라이즈 AI 도입 현장에서 동시에 일어나고 있다.
고전 ELIZA에서 GPT-4까지: 착각의 구조는 바뀌지 않았다
1966년 ELIZA는 단순한 패턴 매칭으로 작동했다. 사용자가 "나는 우울해"라고 입력하면, "왜 우울하다고 생각하나요?"라고 되돌려주는 방식이었다. 그런데 사람들은 이 프로그램에 감정적으로 의존하기 시작했다. 와이젠바움은 자신의 비서가 대화 내용을 자신에게도 보여주지 말아달라고 부탁했을 때 경악했다고 회고했다.
2026년의 LLM은 비교할 수 없을 만큼 정교하다. 그러나 착각의 구조는 놀랍도록 유사하다. 사람들은 ChatGPT나 Claude와 대화하면서 '이해받는 느낌'을 받는다. 엔터프라이즈 현장에서는 AI 에이전트가 '판단'을 내린다고 믿기 시작한다. 비용 거버넌스도, 의사결정 책임도 흐릿해진다.
AI 도구가 클라우드에서 "누가 말하는가"를 결정한다 — 그 목소리는 당신 것인가?에서 내가 지적했던 것처럼, 에이전트형 AI가 조직 내 의사결정 레이어에 깊이 들어올수록 '누가 실제로 말하고 있는가'의 문제는 점점 더 불분명해진다. ELIZA가 60년 전에 제기한 질문이 이제 IAM 정책과 API 호출 로그의 언어로 재번역되고 있는 셈이다.
Elizabeth Kolbert의 고백: AI로 고래와 대화한다면
내셔널 지오그래픽 기고가이자 퓰리처상 수상 저널리스트 엘리자베스 콜버트(Elizabeth Kolbert)는 2026년 4월 12일 엘 파이스 인터뷰에서 이런 말을 남겼다:
"AI가 우리가 고래와 소통할 수 있게 해줄 가능성이 있다. 그리고 내가 가장 먼저 하고 싶은 말은 '미안하다'는 것이다."
이 발언은 농담처럼 들리지만, 실은 매우 정확한 진단이다. AI가 언어의 장벽을 허물 수 있다면, 그 첫 번째 사용은 기술적 성취의 자랑이 아니라 책임의 인정이어야 한다는 것. 콜버트는 환경 저널리즘의 맥락에서 이 말을 했지만, 테크 산업에 그대로 적용된다.
AI가 점점 더 많은 것을 '할 수 있게' 되는 시점에, 우리가 먼저 물어야 할 질문은 "어떻게 하면 더 잘 할 수 있는가"가 아니라 "우리가 무엇을 해왔는가에 대해 먼저 솔직해질 수 있는가"일 수 있다.
Eliza Play가 무대 위에서 던지는 것도 아마 이 질문일 것이다.
연극이 기술 담론보다 먼저 도착하는 이유
기술 업계는 종종 인문학이 '뒤처진다'고 생각한다. 그러나 역사적으로 연극과 문학은 기술 변화의 사회적 충격을 먼저 흡수하고 언어화해왔다. 메리 셸리의 프랑켄슈타인(1818)은 산업혁명이 완성되기도 전에 '창조자의 책임' 문제를 제기했다. 카렐 차페크의 R.U.R.(1920)은 '로봇'이라는 단어를 만들어냈다.
톰 홀로웨이의 Eliza Play가 2026년 멜버른 무대에 오르는 시점은 우연이 아니다. 지금은 AI 에이전트가 기업 내 실제 의사결정에 개입하기 시작한 첫 번째 해이고, 규제 당국이 AI 책임 소재를 법적으로 정의하려는 첫 번째 시도가 본격화되는 시점이다. 무대는 그 불안을 먼저 감지한다.
빠르게 움직일수록 커뮤니케이션이 먼저 무너진다 — 그리고 AI가 그 균열을 감춘다에서 다뤘던 것처럼, AI 도입의 속도가 빨라질수록 조직 내 공유 맥락은 조용히 증발한다. 연극은 그 증발을 소리 내어 말하는 형식 중 하나다.
Eliza Play가 테크 업계 종사자에게 주는 시사점
이 연극을 보러 갈 수 없더라도, Eliza라는 이름이 2026년에 다시 소환된다는 사실에서 실용적인 질문 몇 가지를 뽑아낼 수 있다.
첫째, 당신의 AI는 '이해'하는가, '패턴 매칭'하는가? 엔터프라이즈 AI 도입 현장에서 가장 위험한 순간은 시스템이 틀릴 때가 아니라, 시스템이 맞는 것처럼 보이는데 실제로는 맥락을 놓치고 있을 때다. ELIZA 효과는 60년이 지나도 유효하다.
둘째, 책임의 언어를 먼저 만들어라. 콜버트의 "먼저 미안하다고 말하겠다"는 발언은 감상이 아니라 거버넌스 원칙이다. AI 시스템을 배포하기 전에, 그 시스템이 잘못됐을 때 누가 어떤 언어로 책임을 질 것인지를 먼저 설계해야 한다.
셋째, 인문학적 신호를 무시하지 마라. Hacker News에 Eliza Play 링크가 올라왔다는 사실(Score: 4, Comments: 2)은 작지만 의미 있는 신호다. 기술 커뮤니티 안에서도 이 질문에 공명하는 사람들이 있다. 그들의 불안은 다음 분기 제품 로드맵에 반영될 가능성이 있다.
AI가 'Eliza'라는 이름으로 태어났고, 60년 후 그 이름이 무대로 돌아왔다. 기술은 앞으로 나아갔지만, 질문은 같은 자리에 서 있다. 우리는 기계가 우리를 이해한다고 착각하는가, 아니면 우리가 기계를 통해 스스로를 이해하려는 것인가. 그 답을 찾는 데 있어 무대는 여전히 유효한 실험실이다.
Alex Kim
Former financial wire reporter covering Asia-Pacific tech and finance. Now an independent columnist bridging East and West perspectives.
관련 글
댓글
아직 댓글이 없습니다. 첫 댓글을 남겨보세요!