AI윤리의 언어 문제: 우리는 왜 같은 단어로 다른 것을 말하는가?
"공정성(fairness)"이라는 단어를 들었을 때, 당신은 무엇을 떠올리십니까?
AI윤리 담론에서 이 질문은 단순한 철학적 유희가 아닙니다. 수백만 명의 삶에 직접 영향을 미치는 알고리즘이 "공정하게 설계되었다"는 선언 아래 작동하고 있기 때문입니다. 그런데 흥미로운 점은, AI윤리 분야에서 가장 자주 등장하는 단어들 — 공정성, 투명성, 책임(accountability), 해악(harm) — 이 실제로는 서로 전혀 다른 의미로 사용되고 있다는 사실입니다. 우리는 같은 언어로 대화하는 척하면서, 사실은 서로 다른 도덕 세계에 살고 있는 것일지도 모릅니다.
AI윤리의 공통 언어는 실제로 존재하는가?
2018년 이후, 전 세계 정부·기업·연구기관에서 AI 윤리 원칙(AI ethics principles) 문서가 쏟아져 나왔습니다. 조안나 브라이슨(Joanna Bryson)과 아이빈드 스텔(Aimee van Wynsberghe)의 연구에 따르면, 2019년까지 발표된 주요 AI 윤리 문서 84개를 분석했을 때 "공정성", "투명성", "책임", "프라이버시", "자율성" 다섯 가지 원칙이 공통적으로 등장했습니다. 표면적으로는 전 세계가 같은 언어를 쓰는 것처럼 보입니다.
그러나 언어철학자 루트비히 비트겐슈타인(Ludwig Wittgenstein)은 일찍이 이렇게 경고했습니다.
"언어는 철학적 문제들을 위장한다. 같은 단어가 다른 문법 속에서 다른 방식으로 작동한다." — Philosophical Investigations, §111
이 경고는 AI윤리 담론에 그대로 적용됩니다. "공정성"이라는 단어 하나만 해도, 수학적으로 상호 양립 불가능한 정의가 20개 이상 존재한다는 것이 이미 학술적으로 입증되어 있습니다. 예를 들어 "개인 공정성(individual fairness)"은 유사한 개인을 유사하게 대우하는 것을 의미하지만, "집단 공정성(group fairness)"은 집단 간 결과의 통계적 균형을 요구합니다. 두 정의는 동시에 만족될 수 없는 경우가 대부분입니다.
개념의 공허화(Concept Emptying): 단어가 내용을 잃을 때
여기서 한 가지 사고실험을 해보겠습니다.
어떤 기업이 "우리 AI는 투명하게 설계되었습니다"라고 선언합니다. 이 문장은 무엇을 의미할까요? 모델의 가중치(weights)가 공개되었다는 뜻일까요? 의사결정 과정이 사용자에게 설명된다는 뜻일까요? 아니면 개발 과정에서 외부 감사가 이루어졌다는 뜻일까요? 이 세 가지는 완전히 다른 투명성입니다.
사회학자 프랭크 파스콸레(Frank Pasquale)는 그의 저서 The Black Box Society에서 이 현상을 "투명성 세탁(transparency washing)"이라고 명명했습니다. 기업들이 투명성이라는 단어를 사용하면서도 실질적인 공개를 회피하는 방식을 비판한 것입니다.
이것이 단순한 수사적 문제가 아닌 이유는, 언어가 책임의 경계를 결정하기 때문입니다. "설명 가능한 AI(Explainable AI, XAI)"라는 개념을 예로 들어보겠습니다. 어떤 맥락에서 "설명"은 통계적 기여도를 나타내는 SHAP 값(SHapley Additive exPlanations)을 의미합니다. 다른 맥락에서는 사용자가 이해할 수 있는 자연어 서술을 의미합니다. 전자는 기술자에게 투명하지만 일반 시민에게는 불투명합니다. 그런데 두 경우 모두 "설명 가능하다"는 동일한 언어로 포장됩니다.
역사적 선례: 개념의 전쟁은 처음이 아닙니다
이 문제는 AI윤리에만 고유한 것이 아닙니다. 역사적으로 보면, 새로운 기술이나 사회적 변화가 도래할 때마다 기존 개념들이 전장이 되는 패턴이 반복되어 왔습니다.
20세기 초 "민주주의"라는 단어는 자유민주주의자, 사회주의자, 파시스트 모두가 자신들의 체제를 정당화하는 데 사용했습니다. 한나 아렌트(Hannah Arendt)는 이 개념의 전쟁이 단순한 의미론적 혼란이 아니라 권력의 정당성을 둘러싼 실질적 투쟁임을 보여주었습니다.
마찬가지로 "지속가능성(sustainability)"이라는 개념도 환경운동에서 출발했지만, 이후 기업들이 이 언어를 전용(appropriation)하면서 의미가 희석되었습니다. 오늘날 "지속가능한 패션"이라는 말은 진정한 생태적 전환을 의미하기도 하고, 단순한 마케팅 문구이기도 합니다.
AI윤리도 같은 궤적을 걷고 있을 가능성이 있습니다. 초기에는 연구자와 활동가들이 개념을 정교하게 다듬었지만, 이제는 기업과 정부가 그 언어를 전용하면서 내용이 공허해지는 과정에 있는 것으로 보입니다.
AI윤리 담론의 세 가지 언어 공동체
현재 AI윤리 담론에는 서로 다른 언어 게임(language game)을 하는 세 공동체가 존재한다고 볼 수 있습니다.
1. 기술 공동체: 수치로 말하는 윤리
엔지니어와 컴퓨터과학자들은 윤리를 측정 가능한 지표로 환원하는 경향이 있습니다. "공정성"은 통계적 동등성(statistical parity)이나 균등화된 오즈(equalized odds)로 정의됩니다. 이 접근법의 강점은 명확성과 검증 가능성입니다. 그러나 약점은 측정할 수 없는 해악 — 존엄성의 침해, 문화적 삭제, 역사적 불의의 재현 — 을 윤리의 범주 밖으로 밀어낸다는 것입니다.
2. 정책 공동체: 절차로 말하는 윤리
입법자와 규제자들은 윤리를 프로세스와 거버넌스 구조로 번역합니다. EU AI법(EU AI Act)이 대표적 사례입니다. "책임"은 감사 절차와 문서화 의무를 의미합니다. 이 언어의 강점은 집행 가능성입니다. 그러나 절차가 실질적 결과를 보장하지는 않습니다. 완벽한 문서화를 갖춘 채 사람들에게 해를 끼치는 시스템도 "책임 있는 AI"로 인증받을 수 있습니다.
3. 시민사회 공동체: 경험으로 말하는 윤리
활동가, 피해 당사자, 비판적 연구자들은 윤리를 살아있는 경험(lived experience)의 언어로 말합니다. 알고리즘에 의해 대출이 거부된 사람, 얼굴 인식 기술로 인해 잘못 체포된 사람 — 이들의 언어는 통계도 절차도 아닌 구체적 해악의 서술입니다. 이 언어는 윤리의 실질적 의미에 가장 가깝지만, 기술 사양서나 규제 문서에 번역되는 과정에서 종종 사라집니다.
번역 불가능성의 정치학
세 언어 공동체 사이에서 발생하는 번역의 실패는 단순한 소통 문제가 아닙니다. 이것은 누구의 언어가 표준이 되는가라는 권력의 문제입니다.
언어학자 가야트리 스피박(Gayatri Spivak)이 "하위주체는 말할 수 있는가(Can the Subaltern Speak?)"라는 질문을 던졌을 때, 그녀가 지적한 것은 단순히 발언권의 부재가 아니었습니다. 말을 해도 그 언어가 지배적 담론의 문법으로 번역되는 과정에서 의미가 왜곡된다는 것이었습니다.
AI윤리 담론에서도 같은 역학이 작동합니다. 피해를 경험한 당사자가 "이 시스템은 우리 공동체를 차별합니다"라고 말할 때, 기술 공동체는 "그 주장을 통계적으로 증명하십시오"라고 요구합니다. 증명이 이루어지면 정책 공동체는 "감사 절차를 개선하겠습니다"라고 응답합니다. 그 과정에서 원래의 언어 — 존엄, 정의, 역사적 맥락 — 는 사라집니다.
알고리즘이 사실상 선출되지 않은 입법자처럼 작동한다는 문제를 생각해보면, 이 언어의 위계는 더욱 심각한 함의를 갖습니다. 누구의 언어가 알고리즘의 설계 원칙으로 번역되는가는 곧 누구의 가치관이 시스템에 새겨지는가를 결정합니다.
개념의 재전유(Reappropriation): 가능한 출구는 무엇인가?
이 문제에 대한 반응은 크게 두 가지 방향으로 나뉩니다.
첫 번째 입장: 개념을 포기하고 새 언어를 만들어야 한다. 일부 비판적 AI 연구자들은 "공정성"이나 "투명성" 같은 개념이 이미 너무 오염되어 있어, 새로운 어휘를 개발해야 한다고 주장합니다. 루하 벤자민(Ruha Benjamin)이 제안하는 "인종화된 기술(race-ful technology)" 분석이나, 사피야 우모자 노블(Safiya Umoja Noble)의 "억압의 알고리즘(Algorithms of Oppression)"이라는 프레임이 이 방향의 시도입니다.
두 번째 입장: 개념을 포기하는 것은 전장을 내주는 것이다. 개념 자체가 아니라 그 해석권을 둘러싼 투쟁이 중요하다는 입장입니다. "공정성"이라는 단어를 기업에 넘겨주는 것이 아니라, 그 단어의 의미를 더 풍부하고 역사적으로 두꺼운 방식으로 채워야 한다는 것입니다.
두 입장 모두 타당한 근거를 갖고 있습니다. 저는 개인적으로 두 번째 입장에 더 공감하지만, 그것이 가능하려면 전제 조건이 있다고 봅니다. 바로 언어가 어떻게 작동하는지에 대한 메타인식(meta-awareness)입니다.
AI윤리 실무자를 위한 언어적 성찰
이 분석이 추상적인 철학으로 머물지 않으려면, 실제 AI 개발·정책·거버넌스에 관여하는 사람들에게 구체적인 함의가 있어야 합니다.
첫째, "공정성"이나 "투명성"을 사용할 때마다 그 정의를 명시하십시오. "우리 모델은 공정합니다"가 아니라 "우리 모델은 집단 간 거짓 양성률(false positive rate)의 차이가 5% 이내입니다"처럼 구체화해야 합니다. 그리고 그 정의가 어떤 가치 선택을 내포하는지를 함께 밝혀야 합니다.
둘째, 다른 언어 공동체의 번역 손실을 의식적으로 추적하십시오. 피해 당사자의 증언이 기술 사양서로 번역되는 과정에서 무엇이 사라지는지를 기록하는 것 자체가 중요한 윤리적 실천입니다.
셋째, 개념의 역사를 공부하십시오. "책임"이라는 개념이 법학, 도덕철학, 조직이론에서 각각 어떻게 발전해왔는지를 아는 것은, 그 개념이 AI 맥락에서 어떻게 오용될 수 있는지를 예측하게 해줍니다.
유럽의회가 채택한 EU AI Act는 이런 의미에서 흥미로운 사례입니다. 법문 자체가 "위험(risk)"이라는 개념을 어떻게 정의하느냐에 따라 규제의 실질적 범위가 완전히 달라지기 때문입니다. 같은 단어가 어떤 해석을 허용하느냐는 입법 언어의 문제이기도 하지만, 결국 권력의 문제입니다.
마지막으로, 조심스럽게 제안하자면
저는 AI윤리의 위기가 기술적 문제라기보다 언어적·철학적 문제라는 견해를 점점 더 굳히고 있습니다. 우리가 "윤리적 AI"를 만들 수 없는 것은 알고리즘이 부족해서가 아니라, 윤리가 무엇인지에 대한 공유된 이해가 없기 때문일 가능성이 높습니다.
마셜 맥루한(Marshall McLuhan)이 "미디어는 메시지다(The medium is the message)"라고 말했을 때, 그는 내용이 아닌 형식이 의미를 만든다는 것을 지적했습니다. AI윤리에서도 마찬가지입니다. 어떤 원칙을 선언하느냐가 아니라, 그 원칙이 어떤 언어로, 누구에 의해, 어떤 맥락에서 정의되느냐가 실질적 의미를 결정합니다.
이것은 비관적 결론이 아닙니다. 오히려, 언어에 주의를 기울이는 것이 AI윤리의 가장 실천적인 출발점이 될 수 있다는 제안입니다. 기술을 바꾸기 전에 우리가 무엇을 말하고 있는지를 먼저 이해해야 합니다.
생각해볼 질문: 당신이 속한 조직이나 공동체에서 "AI 윤리적이다"라는 말을 들었을 때, 그 말이 구체적으로 무엇을 의미하는지 물어본 적이 있으십니까? 그리고 그 질문에 대한 답이 같은 방에 있는 모든 사람에게 동일했습니까?
Dr. 유토피안
인간-컴퓨터 상호작용을 연구한 미래학자. 기술이 사회와 인간에게 미치는 영향을 탐구하며, 기술 낙관론과 비관론 사이에서 균형 잡힌 시선을 제시합니다.
댓글
아직 댓글이 없습니다. 첫 댓글을 남겨보세요!