AI윤리의 언어 문제: "책임"이라는 단어는 왜 아무도 책임지지 않게 만드는가?
AI윤리 담론에는 기묘한 역설이 하나 있습니다. "책임(accountability)", "공정성(fairness)", "투명성(transparency)"이라는 단어가 그 어느 때보다 자주 등장하는데, 정작 AI 시스템이 누군가에게 실질적 피해를 입혔을 때 "그래서 누가 책임지는가?"라는 질문에 명확히 답하는 사람은 없습니다. 언어는 풍요로워졌지만, 책임은 오히려 희박해졌습니다.
이것이 우연일까요? 저는 그렇게 생각하지 않습니다. 오늘은 AI윤리 담론의 언어 그 자체가 어떻게 책임의 공백을 구조적으로 생산하는지, 그리고 우리가 그 언어적 함정에서 어떻게 빠져나올 수 있는지를 탐구해보겠습니다.
단어는 중립적이지 않다: 언어가 만드는 책임의 안개
철학자 루트비히 비트겐슈타인(Ludwig Wittgenstein)은 일찍이 이렇게 경고했습니다.
"언어는 우리의 지성을 마법에 걸어 놓는다(Language bewitches our intelligence)."
AI윤리 분야에서 이 마법은 매우 구체적인 형태로 작동합니다. "책임"이라는 단어를 예로 들어봅시다. 이 단어는 단일한 개념처럼 보이지만, 실제로는 서로 다른 도덕 세계를 가리킵니다.
- 책임(responsibility): 어떤 행위를 수행할 의무가 있다는 의미
- 책임(accountability): 그 행위의 결과에 대해 설명하고 답해야 한다는 의미
- 책임(liability): 법적·경제적 손해를 배상해야 한다는 의미
영어에서는 세 단어가 분리되어 있지만, 한국어에서는 모두 "책임"으로 수렴됩니다. 그러나 영어권 AI윤리 문서에서도 상황은 크게 다르지 않습니다. 기업의 AI 윤리 헌장이나 정책 문서를 살펴보면, "accountability"와 "responsibility"가 편의에 따라 교체 가능한 단어처럼 사용됩니다. 이 혼용은 무해한 부주의가 아닙니다. 특정 의미가 필요할 때는 그 단어를 내세우고, 실제 책임을 물을 때는 다른 의미로 슬쩍 이동하는 언어적 유연성을 만들어냅니다.
"공정성"이라는 단어의 세탁 과정
"공정성(fairness)"은 AI윤리 담론에서 가장 빈번하게 등장하는 단어 중 하나입니다. 그런데 한 가지 사고실험을 해보겠습니다.
어떤 채용 AI 시스템이 있습니다. 이 시스템은 다음 세 가지 기준을 모두 "공정하다"고 주장합니다.
- 인구통계적 균형(demographic parity): 각 집단에서 동일한 비율로 합격자를 선발한다.
- 예측 동등성(equalized odds): 실제로 우수한 지원자를 각 집단에서 동일한 비율로 정확히 식별한다.
- 개인 공정성(individual fairness): 유사한 자격을 가진 개인은 유사하게 대우한다.
수학자 조나 울드-타보르(Jon Kleinberg) 등의 연구는 이 세 가지 공정성 기준이 데이터 분포가 집단 간에 다를 경우 동시에 만족될 수 없다는 것을 증명했습니다. 즉, "공정한 AI"라는 표현은 어떤 공정성을 선택했는지를 명시하지 않는 한 의미론적으로 공허합니다.
그런데 기업의 AI 윤리 보고서나 정책 문서에서 "우리 시스템은 공정성을 준수한다"는 문장을 읽을 때, 독자는 어떤 공정성이 선택되었는지 알 수 없습니다. 이것이 바로 제가 "개념의 공허화(conceptual hollowing)" 라고 부르는 현상입니다. 단어는 남아 있지만, 그 안에 담겨 있어야 할 구체적 의미는 증발합니다.
더 심각한 문제는 이 공허화된 언어가 책임의 경계를 흐린다는 점입니다. 피해를 입은 당사자가 "이 시스템은 불공정하다"고 주장할 때, 시스템 설계자는 "우리는 공정성을 준수했다"고 답할 수 있습니다. 두 문장이 같은 단어를 쓰면서 서로 다른 세계를 이야기하고 있기 때문에, 논쟁은 해결되지 않고 책임은 증발합니다.
AI윤리 언어의 세 가지 구조적 함정
여기서 질문을 던져봅시다. 이러한 언어적 모호성은 단순한 부주의의 산물일까요, 아니면 구조적 필연일까요?
저는 적어도 세 가지 구조적 함정이 이 모호성을 재생산한다고 봅니다.
함정 1: 컴플라이언스 언어의 침투
법적·규제적 컴플라이언스(compliance) 문화가 AI윤리 담론에 침투하면서, 윤리적 언어가 체크리스트의 언어로 변환되었습니다. "우리는 GDPR을 준수한다", "우리의 AI는 EU AI Act의 고위험 시스템 기준을 충족한다"는 문장들은 법적 의무의 이행을 선언하지만, 도덕적 책임의 소재를 명확히 하지는 않습니다.
마치 "나는 법을 어기지 않았다"는 말이 "나는 옳은 일을 했다"를 의미하지 않는 것처럼, 컴플라이언스의 언어는 도덕적 책임을 법적 준수로 대체합니다. 이 과정에서 윤리는 규범 준수의 증거가 되고, 실제 피해를 입은 사람의 경험은 언어적으로 주변화됩니다.
함정 2: 행위자 없는 수동태의 문법
AI윤리 문서에서 매우 빈번하게 등장하는 언어 패턴이 있습니다. "편향이 발생했다(bias occurred)", "오류가 확인되었다(errors were identified)", "시스템이 잘못 분류했다(the system misclassified)". 이 문장들의 공통점은 행위자(agent)가 없다는 것입니다.
언어학자 조지 레이코프(George Lakoff)가 지적했듯이, 언어는 단순히 현실을 묘사하는 것이 아니라 현실을 프레이밍(framing)합니다. 행위자 없는 수동태는 피해를 마치 자연재해처럼, 누군가의 결정이 아닌 불가피한 사건처럼 프레임합니다. "시스템이 잘못 분류했다"는 문장에서 그 시스템을 설계하고, 훈련 데이터를 선택하고, 배포를 결정한 인간들은 언어적으로 사라집니다.
함정 3: 미래 지향적 언어로 현재의 책임 회피
"우리는 지속적으로 개선하겠다", "향후 더 나은 공정성을 위해 노력하겠다", "다음 버전에서는 이 문제를 해결할 것이다." 이러한 미래 지향적 언어는 현재 시점의 피해에 대한 책임을 미래의 약속으로 대체합니다.
흥미로운 점은 이 언어 패턴이 기술 산업 특유의 "영구 베타(perpetual beta)" 문화와 완벽하게 맞물린다는 것입니다. 제품은 항상 개선 중이고, 따라서 현재의 결함은 완성품의 실패가 아니라 진행 중인 과정의 일부로 재정의됩니다. 이 프레임 안에서 현재의 피해에 대한 책임을 묻는 것은 마치 미완성 건물에 왜 지붕이 없냐고 따지는 것처럼 불합리한 일이 됩니다.
역사적 선례: 언어가 책임을 지운 사례들
이러한 언어적 책임 회피가 AI 시대의 발명품은 아닙니다. 역사적으로 강력한 기관들은 언어를 통해 책임을 구조적으로 분산시켜 왔습니다.
20세기 초 대형 산업 재해 이후 기업들이 사용한 언어를 분석한 연구들은 유사한 패턴을 발견합니다. 행위자 없는 수동태, 피해를 "불행한 사고(unfortunate incident)"로 프레이밍하는 완곡어법, 미래 개선 약속으로의 전환. 사회학자 찰스 틸리(Charles Tilly)는 그의 저서 Credit and Blame에서 책임 귀속(blame attribution)이 단순히 사실의 문제가 아니라 사회적으로 협상되는 언어적 실천임을 보여줍니다.
AI윤리 담론에서 우리가 목격하는 것은 이 오래된 패턴의 디지털 버전입니다. 다만 두 가지 점에서 더 복잡합니다.
첫째, AI 시스템의 인과 사슬이 훨씬 길고 불투명합니다. 데이터 수집자, 레이블러, 모델 개발자, 플랫폼 운영자, 최종 배포 기업 사이의 책임은 기술적으로도 법적으로도 명확히 분리되지 않습니다. 이 복잡성 자체가 언어적 모호성의 온상이 됩니다.
둘째, AI 시스템은 전통적 제품과 달리 결정을 내리는 것처럼 보입니다. "알고리즘이 결정했다"는 표현은 마치 인간의 판단과 무관한 객관적 프로세스가 존재하는 것처럼 암시합니다. 이것이 AI 특유의 언어적 책임 회피 기제입니다.
대안적 언어의 가능성: 책임을 구체화하는 어휘들
그렇다면 우리는 어떤 언어를 써야 할까요? 몇 가지 구체적 제안을 드리고자 합니다.
"시스템이 결정했다" 대신 "X팀의 Y가 승인한 모델이 이 결과를 산출했다"
책임의 언어는 행위자를 명명해야 합니다. 특정 결정에 어떤 인간 집단이 관여했는지를 추적 가능하게 만드는 언어 관행이 필요합니다. 이는 기술적 문서화의 문제이기도 하지만, 근본적으로는 언어 문화의 문제입니다.
"공정성을 추구한다" 대신 "우리는 X 집단에 대한 Y 기준의 공정성을 선택했으며, 이는 Z 집단에 대해 다음과 같은 트레이드오프를 수반한다"
공정성의 언어는 어떤 공정성 기준을 선택했는지, 그 선택이 어떤 집단에게 어떤 영향을 미치는지를 명시해야 합니다. 이 투명성은 단순히 기술적 정보 공개가 아니라 도덕적 선택의 가시화입니다.
"지속적으로 개선하겠다" 대신 "현재 시스템으로 인해 피해를 입은 사람들에게 다음과 같은 구제 방법을 제공한다"
미래 약속의 언어는 현재 피해에 대한 구제 메커니즘의 언어로 보완되어야 합니다. 약속이 책임을 대체할 수 없습니다.
이러한 언어적 전환은 단순한 수사학적 변화가 아닙니다. AI 클라우드, 이제 "어디에 데이터를 둘지"를 결정한다 — 그 배치 판단은 당신이 승인했는가?에서 다루었듯이, AI 시스템의 핵심 결정들은 이미 사용자의 인식 밖에서 이루어지고 있습니다. 책임의 언어를 구체화하는 것은 그 결정들을 가시화하고 민주적 논의의 영역으로 끌어들이는 첫 번째 단계입니다.
AI윤리 언어를 어떻게 읽을 것인가: 실천적 독해법
독자 여러분이 AI윤리 문서나 기업의 책임 선언을 접할 때 적용할 수 있는 비판적 독해의 틀을 제안합니다.
질문 1: 행위자는 누구인가? 수동태 문장을 능동태로 변환해보세요. "편향이 발견되었다"를 "누가 편향을 발견했는가? 그 이전에 누가 그 편향을 만들었는가?"로 바꾸어 읽으면 언어가 숨기고 있는 행위자가 드러납니다.
질문 2: 어떤 공정성인가? "공정성", "형평성", "포용성" 같은 단어가 등장할 때, 그것이 어떤 기준으로 측정되는지를 확인하세요. 기준이 명시되지 않은 공정성 선언은 의미론적으로 공허합니다.
질문 3: 현재의 피해에 대한 구제는 무엇인가? 미래 개선 약속이 현재 피해에 대한 구제 메커니즘을 대체하고 있지는 않은지 확인하세요. 책임의 언어는 시제가 중요합니다.
질문 4: 이 언어는 누구를 위해 쓰였는가? AI윤리 문서의 수신자가 피해를 입을 수 있는 당사자인지, 아니면 규제 기관이나 투자자인지를 생각해보세요. 언어는 항상 특정 청중을 상정하고 쓰입니다.
이 독해법은 AI윤리 전문가만을 위한 것이 아닙니다. 기술 시스템이 우리 삶에 더 깊이 침투할수록, 그 시스템을 정당화하는 언어를 비판적으로 읽는 능력은 디지털 시민성(digital citizenship)의 핵심 역량이 될 것으로 보입니다.
언어는 제도가 된다
마셜 맥루한(Marshall McLuhan)이 "미디어가 메시지다(The medium is the message)"라고 했을 때, 그는 내용보다 형식이 더 깊은 영향을 미친다는 것을 말하고자 했습니다. AI윤리의 언어도 마찬가지입니다. 어떤 단어를 선택하고, 어떤 문법 구조를 사용하며, 어떤 개념을 중심에 놓는가 하는 문제는 단순히 표현의 문제가 아니라 제도의 문제입니다.
노코드 자동화, "잘 만든 것"보다 "살아남는 것"이 진짜 실력입니다에서 다루었듯이, 기술의 세계에서는 완벽한 설계보다 지속 가능한 실천이 더 중요할 때가 많습니다. AI윤리의 언어도 마찬가지입니다. 완벽한 윤리 언어 체계를 구축하는 것보다, 현재의 언어가 어떻게 책임을 분산시키고 있는지를 지속적으로 비판적으로 검토하는 실천이 더 중요할 수 있습니다.
AI윤리 담론이 성숙하려면, 우리는 언어를 단순한 소통의 도구가 아니라 권력과 책임을 배분하는 제도적 장치로 인식해야 합니다. "책임"이라는 단어가 실제로 아무도 책임지지 않게 만드는 역설을 극복하는 것은, 결국 그 단어에 구체적인 인간의 얼굴과 명확한 인과 사슬을 되돌려 주는 언어적 실천에서 시작됩니다.
EU AI Act의 공식 텍스트를 포함한 주요 AI 거버넌스 문서들이 EUR-Lex에 공개되어 있습니다. 이 문서들을 위에서 제안한 비판적 독해법으로 직접 읽어보는 것은 매우 유익한 실천이 될 것입니다.
생각해볼 질문: 당신이 마지막으로 읽은 AI 관련 기업의 윤리 선언이나 정책 문서에서, "책임"이라는 단어가 등장한 문장을 떠올려보세요. 그 문장에서 구체적으로 누가, 무엇에 대해, 어떻게 책임지는지가 명시되어 있었나요? 만약 그렇지 않았다면, 그 언어는 책임을 선언하고 있었던 것일까요, 아니면 책임을 지우고 있었던 것일까요?
Dr. 유토피안
인간-컴퓨터 상호작용을 연구한 미래학자. 기술이 사회와 인간에게 미치는 영향을 탐구하며, 기술 낙관론과 비관론 사이에서 균형 잡힌 시선을 제시합니다.
관련 글
댓글
아직 댓글이 없습니다. 첫 댓글을 남겨보세요!