Sam Altman의 '최악의 주말': 화염병, 분노한 블로그, 그리고 AI가 만든 사회적 균열
OpenAI CEO Sam Altman의 자택에 화염병이 두 번 날아들고, 총기 사건까지 발생한 이 주말은 단순한 범죄 사건이 아니다. AI 기술에 대한 사회적 공포가 특정 인물을 향한 물리적 폭력으로 전환되는 임계점을 우리가 이미 넘었음을 보여주는 신호다.
48시간 안에 벌어진 일들
TechRadar의 원문 보도에 따르면, 이번 사태는 복수의 위기가 동시에 충돌하며 폭발했다.
먼저 The New Yorker가 100명 이상의 인터뷰와 내부 문서를 바탕으로 작성한 심층 프로필이 공개됐다. 이 기사는 2023년 Altman의 일시적 해임 사건을 재조명하며, 그를 "정직성과 안전보다 권력을 우선시한다는 의혹에 둘러싸인 경영자"로 묘사했다.
그로부터 불과 며칠 뒤, 20세의 Daniel Moreno-Gama가 새벽 4시에 Altman의 자택에 화염병을 투척하고 OpenAI 본사로 이동해 건물을 불태우겠다고 위협했다. 법원 문서에 따르면 그는 AI에 반대하는 문서와 "인류의 임박한 멸종"을 경고하는 글을 소지하고 있었다. 현재 그는 살인미수 2건으로 기소된 상태다. 그리고 일요일 아침, 총격 신고가 접수되며 2명이 추가로 체포됐다.
Sam Altman은 기업 성명이 아닌 극히 개인적인 블로그 포스트로 응답했다.
"이미지에는 힘이 있습니다. 평소에는 사생활을 지키려 하지만, 이번에는 가족사진을 공유합니다. 나에 대해 어떤 생각을 가지고 있든, 다음 사람이 우리 집에 화염병을 던지는 것을 막을 수 있기를 바랍니다." — Sam Altman 블로그
"단어에도 힘이 있습니다. 며칠 전 나에 관한 선동적인 기사가 있었습니다. 나는 그 기사가 'AI에 대한 불안이 극도로 높은 시기에 나왔으며 나를 더 위험하게 만들었다'는 말을 처음엔 무시했습니다. 지금 나는 새벽에 깨어 화가 나 있으며, 단어와 서사의 힘을 과소평가했다고 생각합니다." — Sam Altman 블로그
Sam Altman의 고백이 드러낸 구조적 모순
주목해야 할 것은 Altman이 단순히 피해자 서사를 쓰지 않았다는 점이다. 그는 자기 고백과 반론을 동시에 담았다.
"나는 갈등을 회피하는 것이 자랑스럽지 않습니다. 이전 이사회와의 갈등을 잘못 처리해 회사에 큰 혼란을 야기한 것도 자랑스럽지 않습니다. 나는 OpenAI의 믿기 힘든 여정의 중심에 있는 결함 있는 인간입니다." — Sam Altman 블로그
그러면서도 그는 "AI에 대한 두려움과 불안은 정당하다"고 인정하면서, 동시에 "AI에 대한 권력이 지나치게 집중되어서는 안 된다"고 주장했다. 이 발언은 심각한 자기모순을 내포한다. 현재 OpenAI는 AI 권력 집중의 최전선에 있는 기업이기 때문이다.
이 모순은 기술적 문제가 아니라 거버넌스 문제다. OpenAI는 비영리 법인으로 출발했지만, 마이크로소프트로부터 수백억 달러의 투자를 유치하며 사실상 영리 기업으로 전환했다. Foundation AI Models 시장이 이미 120억 달러 규모를 돌파한 상황에서, OpenAI가 '권력 분산'을 외치는 것은 석유 기업이 탄소 중립을 선언하는 것과 유사한 구조적 긴장을 내포한다.
기사가 말하지 않는 맥락: 중국 빅테크가 이 장면을 어떻게 읽는가
선전에서 10년간 중국 IT 산업을 취재해온 기자로서, 이 사건이 중국 기술 생태계에서 어떻게 해석될지 주목하지 않을 수 없다.
바이두, 알리바바, 텐센트(BAT) 의 전략 기획팀들은 이 사건에서 두 가지 상반된 신호를 읽어낼 것이다.
첫째, 서방 AI 거버넌스의 취약성 노출이다. OpenAI는 '안전한 AI'를 기치로 내걸었지만, 그 CEO의 자택에 화염병이 날아드는 장면은 기술 신뢰의 근본적 균열을 보여준다. 중국 당국은 오랫동안 "AI 규제 없이 달려가는 서방 모델"에 대한 비판을 내부적으로 유지해왔다. 이번 사건은 그 비판에 구체적인 사례를 제공한다.
둘째, 중국
기사가 말하지 않는 맥락: 중국 빅테크가 이 장면을 어떻게 읽는가
둘째, 중국 AI 기업들의 '안전 담론' 재활용 가능성이다. 화웨이, 바이두, 알리바바는 모두 자국의 AI 규제 프레임워크를 '책임 있는 AI 개발'의 증거로 대외적으로 포장해왔다. 이번 사건 이후, 중국 관영 매체들이 "미국식 AI 무규제 모델의 사회적 비용"을 부각시키는 서사를 강화할 가능성이 높다. 실제로 신화통신과 인민일보는 OpenAI 관련 부정적 사건들을 선택적으로 집중 보도하는 패턴을 반복해왔다.
그러나 여기에는 역설이 있다. 중국 AI 기업들 역시 동일한 구조적 긴장을 안고 있다. 바이두의 ERNIE Bot, 알리바바의 Qwen, 텐센트의 Hunyuan은 모두 국가 주도 감시 인프라와 밀접하게 연결된 생태계 안에서 작동한다. '권력 집중'에 대한 공포가 서방에서는 개인 차원의 분노로 폭발했다면, 중국에서는 그 분노 자체가 시스템적으로 억압되는 구조다. 어느 쪽이 더 위험한가는 쉽게 답할 수 없는 질문이다.
한국 AI 산업이 받아야 할 경고음
이 사건은 한국 기술 산업에도 직접적인 함의를 던진다.
네이버, 카카오, SK텔레콤은 현재 대규모 AI 모델 투자를 공격적으로 확대하고 있다. 네이버의 HyperCLOVA X, 카카오의 KoGPT, SK텔레콤의 에이닷(A.)은 모두 수천억 원 규모의 인프라 투자를 기반으로 한다. 그러나 이들 기업이 간과하고 있는 것이 있다.
기술 역량과 사회적 신뢰는 별개의 자산이다.
한국은 AI 윤리 및 거버넌스 논의에서 미국, EU에 비해 현저히 뒤처져 있다. 과학기술정보통신부의 'AI 윤리 기준'은 2020년 발표 이후 실질적인 집행 메커니즘 없이 선언적 수준에 머물러 있다. EU의 AI Act가 2024년 발효되어 구체적인 고위험 AI 규제 체계를 가동하기 시작한 것과 대조적이다.
더 주목해야 할 수치가 있다. 한국리서치가 2024년 실시한 조사에 따르면, 한국 성인의 61%가 AI 기업이 사회적 책임을 충분히 이행하지 않는다고 응답했다. 이는 기술 수용도가 높은 것으로 알려진 한국 사회에서도 AI 기업에 대한 사회적 신뢰의 균열이 이미 시작되었음을 의미한다.
'사회적 계약'의 재설계: 기술 기업이 선택해야 할 것
Sam Altman의 화염병 사건을 단순한 개인의 안전 문제로 읽는 것은 오독이다. 이 사건은 세 가지 구조적 균열의 교차점에서 발생했다.
① AI의 경제적 충격에 대한 분노의 누적 세계경제포럼(WEF)의 2025년 보고서는 AI로 인해 2030년까지 전 세계 8,500만 개의 일자리가 대체될 것으로 전망했다. 이 숫자가 추상적 통계에서 구체적 생존 위협으로 느껴지는 사람들이 늘어날수록, 분노의 표적은 정책이 아닌 얼굴을 가진 인물로 향하게 된다.
② 군사·안보 영역으로의 AI 확장에 대한 저항 OpenAI는 2024년 자사 사용 정책에서 군사 용도 금지 조항을 조용히 삭제했다. 이후 미 국방부와의 협력 가능성이 공개적으로 논의되기 시작했다. 기술의 무기화에 대한 공포는 단순한 기술 비판을 넘어 실존적 위협 인식으로 전환된다.
③ 거버넌스 공백이 만들어낸 책임의 진공 AI를 규제할 민주적 메커니즘이 기술의 속도를 따라가지 못하는 상황에서, 시민들은 제도적 채널 대신 직접적 행동으로 불만을 표출하게 된다. 이것은 AI만의 문제가 아니다. 역사적으로 산업혁명기의 러다이트 운동, 핵발전 반대 운동이 모두 동일한 패턴을 따랐다.
결론: 기술 낙관주의의 청구서
Sam Altman은 블로그 말미에 이렇게 썼다.
"나는 여전히 AI가 인류 역사상 가장 중요한 기술이 될 것이라고 믿습니다. 그러나 그 여정은 내가 예상했던 것보다 훨씬 더 복잡하고 고통스럽습니다."
이 문장은 기술 낙관주의의 청구서가 도착하기 시작했음을 보여준다.
지난 10년간 실리콘밸리는 "더 빠르게, 더 크게, 더 먼저"를 신조로 삼았다. 중국의 BAT 역시 국가 자본의 후원 아래 동일한 속도 경쟁을 벌였다. 한국의 빅테크도 예외가 아니었다. 그 결과 AI는 사회적 합의보다 훨씬 앞서 달려왔다.
화염병은 그 간극이 만
陈科技 (천커지)
深圳出身テック记者,中国IT产业10年取材经验。V2EX、微信公众号、B站技术频道的深层分析传达给韩中读者。
댓글
아직 댓글이 없습니다. 첫 댓글을 남겨보세요!