51


AI 시대에도 트롤리 딜레마의 진짜 해법은 “누구를 희생할 것인가”가 아니라, 그 상황 자체를 만들지 않는 예방과 설계에 있습니다. 발전된 기술을 최대한 활용해 예방하도록 설계하되, 최종 가치 판단과 책임은 언제나 인간의 몫입니다.


기획: 박범순(Adam Park), 글쓴이: 클로드(Claude)

핵심 메시지

  1. 트롤리 딜레마의 해법은 딜레마 안에 없다. 공리주의냐 의무론이냐를 따지기 전에, 그 상황 자체가 발생하지 않도록 한 차원 위에서 시스템을 재설계하는 것이 진짜 해법이다.
  2. 윤리에는 보편적 정답이 없다. MIT 모럴머신이 보여주듯 문화권마다 도덕 판단이 다르기 때문에, AI 알고리즘에 특정 가치를 일방적으로 코딩하는 것은 또 다른 편향이 된다.
  3. 기술은 추천하고, 책임은 인간이 진다. AI가 아무리 정교해져도 최종 가치 판단과 그에 따른 책임의 주체는 윤리의식을 가진 인간이어야 한다.

한 번쯤 이런 상황을 상상해 본 적이 있는가. 브레이크가 끊긴 트롤리가 선로 위를 질주하고 있다. 앞에는 다섯 명이 묶여 있다. 당신 손에는 레버가 있고, 그것을 당기면 전차는 방향을 틀어 다른 선로로 달리지만, 그 선로에는 한 사람이 있다. 당신은 어떻게 할 것인가?

이 질문은 1967년 영국 철학자 필리파 풋이 처음 제안하고, 이후 주디스 자비스 톰슨이 다듬은 고전적 사고실험이다. 수십 년 동안 강의실 칠판 위에 머물던 이 딜레마가 오늘날 전혀 다른 공간으로 옮겨왔다. 자율주행차의 알고리즘 설계실, 의료 AI의 우선순위 코드, 그리고 국방 시스템의 의사결정 로직 안으로.

보이지 않는 것의 힘: AI 시대에 정말 중요한 것들특집 기사

우리는 보이는 것, 측정 가능한 것만 중요하다고 착각합니다. 하지만 생존 편향,데이터 편향,측정 편향이 보여주듯, 신뢰, 윤리, 지혜, 맥락 등 AI 시대에 진짜 중요한 것은 여전히 눈에 보이지 않습니다.

철학은 뭐라고 답했나?

트롤리 문제 앞에서 두 거대한 철학 전통은 서로 반대 방향을 가리킨다.

공리주의는 제러미 벤담과 존 스튜어트 밀이 체계화한 윤리 이론이다. “최대 다수의 최대 행복”이 도덕의 기준이므로, 레버를 당겨 한 명을 희생하고 다섯 명을 살리는 쪽이 분명히 옳다. 결과의 총합이 더 크기 때문이다. 같은 논리라면 육교에서 한 사람을 밀어 다섯 명을 구하는 것도, 숫자만 놓고 보면 허용 가능한 선택이 된다.

칸트의 의무론은 정반대의 지점에서 출발한다. 칸트는 그의 정언명령에서 “타인을 단지 수단으로 대하지 말고, 항상 동시에 목적으로 대하라”고 선언했다. 트롤리 문제에서 한 사람을 희생하는 것은, 그가 다섯 명을 살리기 위한 ‘도구’로 사용되는 순간이다. 그 사람의 죽음이 수단이 된다는 점에서, 칸트주의자는 어떤 버전의 트롤리 문제도 도덕적으로 허용할 수 없다고 본다.

구분 공리주의 칸트의 의무론
판단 기준 결과의 행복 총량 (숫자·규모) 행위의 원칙과 인간 존엄성
레버 당기기 5명을 살리므로 옳음 한 사람을 수단으로 쓰므로 불가
육교에서 밀기 결과상 5명 구출이면 용인 가능 직접적 도구화이므로 강하게 거부
핵심 물음 “얼마나 많은 생명을 살리냐?” “어떤 방식으로 사람을 대했냐?”

레버를 당기는 행위와 육교에서 사람을 미는 행위가 결과적으로 같음에도 사람들의 반응이 갈리는 이유도 여기에 있다. 레버를 당기는 것은 ‘간접적 개입’으로 느껴지지만, 사람을 미는 것은 신체적·직접적 살해에 가깝게 인식된다. 도덕 판단은 결과만으로 이루어지지 않으며, 행위의 구조와 의도까지 함께 작동한다는 사실을 이 사고실험은 섬뜩할 만큼 정확하게 드러낸다.

“우리의 도덕 판단은 결과와 의도, 양쪽 모두를 동시에 계산한다.
트롤리 문제가 불편한 이유는 그 두 계산이 충돌하기 때문이다.”

2026년 AI 트렌드 – 리더들을 위한 핵심 인사이트특집 기사

에이전틱 AI의 느린 발전, AI 버블 붕괴, 기업 차원의 GenAI 활용 필요성, AI 관리 조직 구조 논쟁, AI 팩토리를 통한 가치 창출 가속화 등 MIT의 톰 데이븐포트와 랜디 빈이 제시하는 2026년 5대 AI 트렌드를 지금 바로 확인하세요.

전 세계는 같은 대답을 했나?

철학적 논쟁이 아직 정리되지 않은 사이, MIT 연구팀은 더 실증적인 질문을 던졌다. “실제로 세계 사람들은 트롤리 문제에 어떻게 반응하는가?” MIT 미디어랩의 모럴머신(Moral Machine) 프로젝트는 200개 이상의 국가에서 4,000만 건이 넘는 응답을 수집해 그 패턴을 분석했다.

결론부터 말하면, 세계는 하나의 답에 동의하지 않았다. 다만 문화권별로 뚜렷한 경향이 나타났고, 연구팀은 이를 세 개의 클러스터로 분류했다.

  • 서구 클러스터: 미국, 독일, 영국, 호주, 북유럽 등
    개입(레버 조작)보다 무위(직진)를 선호하는 경향이 강하다. 개인주의와 법치 중심의 기독교 문화권과 연관된다.
  • 동양 클러스터: 한국, 일본, 중국, 이슬람권 등
    법을 준수한 사람을 우선 보호하려는 경향이 두드러진다. 유교·이슬람 문화권의 규범과 질서 중시 성향이 반영된다.
  • 남부 클러스터: 브라질, 멕시코, 콜롬비아, 프랑스어권 등
    여성 및 젊은이를 보호하려는 선호가 세 클러스터 중 가장 강하다. 경제적 불평등이 큰 중남미 사회 구조와 연관된다.

그럼에도 문화를 초월해 공유되는 경향도 있었다. 인간을 동물보다 우선하고, 더 많은 사람을 살리려 하며, 노인보다 젊은 사람을 보호하려는 경향은 전 지구적으로 비교적 일관되게 나타났다.

연구 확장: MultiTP 벤치마크

최근 연구자들은 모럴머신의 성과를 AI 평가에 적용한 MultiTP 벤치마크를 개발했다. 107개 언어, 약 97,520개의 트롤리 문제 시나리오로 구성된 이 데이터셋은 19개 대형 언어 모델(LLM)의 도덕 판단을 인간 응답과 비교한다. 결과는 명확했다. 대부분의 LLM은 인간 집단의 선택 패턴과 완전히 일치하지 않았다. AI는 아직 “어느 문화의 도덕을 배웠는가”라는 질문에 스스로 답하지 못한다.

이 연구가 남긴 가장 중요한 시사점은 이것이다. 트롤리 문제에는 보편적인 ‘정답’이 존재하지 않는다. 그렇다면 AI 알고리즘에 어떤 윤리를 코딩해야 하는가? 이 질문은 기술의 문제이기에 앞서, 누가 어떤 가치를 우선시하는 사회를 만들 것인가의 문제다.

한 차원 위에서 보라

트롤리 문제를 AI에 그대로 적용하려는 시도가 막히는 이유를 이해하기 위해, 헝가리 출신 과학 철학자 마이클 폴라니(Michael Polanyi)의 통찰을 빌려올 필요가 있다.

폴라니는 지식에는 두 가지 층위가 있다고 보았다. 언어와 숫자로 명시적으로 표현할 수 있는 지식이 있는 반면, 자전거를 타거나 표정을 읽는 것처럼 말로 다 표현할 수 없는 암묵짶(tacit knowledge)가 있다. 그는 이렇게 말했다. “우리는 우리가 말할 수 있는 것보다 훨씬 더 많이 알고 있다.”

더 중요한 것은 그가 지식의 계층 구조에 대해 말한 부분이다. 낮은 계층에서 반복되는 문제는 그 계층 안에서만 고치려 해서는 해결되지 않는다. 실험에서 계속 실패가 반복된다면, 기술적 세부를 수정하는 것만으로는 부족하다. 그 실험의 설계·가정·관점, 즉 한 차원 위의 암묵적 구조를 재조정해야 비로소 문제가 해결된다.

“낮은 계층의 문제는 그 바로 위 계층의 암묵적 구조를 통해서만 충분히 해결될 수 있다.
문제 안에서 맴도는 것은 해결이 아니다.”
— 마이클 폴라니의 지식론에서

트롤리 문제에 대입해 보자. “레버를 당기는가, 말 것인가”는 딜레마의 안쪽에 머문 질문이다. 폴라니라면 이렇게 물었을 것이다. “애초에 그 전차가 왜 브레이크 없이 달리고 있는가? 왜 선로에 사람이 묶여 있어야만 하는 상황이 설정되는가?” 문제를 해결하는 진짜 방법은 한 차원 위로 올라가, 그 딜레마 자체가 발생하지 않도록 만드는 것이다.

모든 AI 전략 성공의 기반, 클라우드 ERP특집 기사

가트너의 최근 분석에 따르면 CEO의 단 3분의 1만이 자신의 비즈니스 및 운영 모델이 AI 주도 세계에 대비되어 있다고 말합니다. AI의 진정한 가치를 실현하려면 먼저 라는 탄탄한 기반 시스템을 구축해야 합니다.

AI는 어떻게 대답하는가?

자율주행차가 보급되면서 트롤리 문제는 갑자기 현실적인 질문이 되었다. 브레이크가 고장 난 자율주행차가 5명의 보행자와 1명 사이에서 선택해야 한다면, 알고리즘은 어떻게 반응해야 하는가?

그런데 자율주행 업계의 실제 대답은 대부분 사람들의 기대와 다르다. 기업들은 “트롤리 문제를 어떻게 푸는가”가 아니라 “트롤리 문제 자체가 발생하지 않도록 설계하는 것”을 윤리적 목표로 삼는다. 폴라니가 말한 것처럼, 한 차원 위의 해결책이다.

사례: 웨이모(Waymo)의 접근 방식

사고 예방 중심 설계: 웨이모는 충돌 상황이 예측되는 순간, “누구를 칠 것인가”를 계산하기 이전에 조기 감속·경로 변경·완전 정지로 사고 자체를 피하는 방향을 최우선 원칙으로 삼는다. 트롤리 상황을 선택 알고리즘의 입력값으로 보지 않고, 설계상 제거해야 할 ‘비정상 상태’로 정의한다.

인간 존엄성·무차별 원칙: “5명을 살리기 위해 1명을 희생하는 공리주의 코드”는 법적·도덕적·사회적 이유로 공식 설계 원칙에 포함하지 않는다. 인간을 연령·성별·사회적 지위에 따라 수치화해 우선순위를 두는 방식 자체를 거부하며, 모든 생명을 원칙적으로 동등하게 다룬다.

투명성과 책임 추적: AI가 어떤 상황에서 어떤 결정을 내렸는지 기록하고 추적할 수 있는 시스템을 구축한다. 이는 사고 후 법적·사회적 판단의 근거가 되며, “알고리즘이 결정했으니 책임 없음”이 아니라 “결정 과정을 투명하게 드러내 사회가 판단하게” 하는 구조다.

독일 정부는 2017년 자율주행차 윤리위원회 보고서에서 한 발 더 나아가, “사람을 숫자로 비교해 더 가치 있는 사람을 정하는 공리주의적 설계는 금지”한다는 원칙을 명시했다. 미국의 소비자 설문에서도 “공리주의적으로 설계된 자동차를 구매하겠다”는 응답이 낮게 나왔다. 숫자로 희생자를 계산하는 알고리즘에 사람들은 본능적 거부감을 느낀다.

2016년 메르세데스-벤츠의 한 임원이 “자율주행차는 사고 시 승객을 최우선으로 보호하는 방향으로 설계된다”고 발언해 논란이 일었던 사례도 같은 맥락에서 이해할 수 있다. 이 발언은 공리주의가 아닌 계약주의적 설계, 즉 “차를 산 사람을 지킨다”는 방향으로 해석됐고, 이것 역시 사회적 동의를 얻지 못했다.

핵심 원칙 비교: 실제 자율주행 윤리 설계

✗ “5명을 살리기 위해 1명을 희생한다” – 공식 채택 사례 없음

✗ “승객을 보행자보다 우선한다” – 사회적 거부, 법적 문제

✓ “충돌 자체를 최대한 예방한다” – 공통 원칙

✓ “인간을 나이·성별·지위로 구분하지 않는다” – 공통 원칙

✓ “결정 과정을 투명하게 기록한다” – 공통 원칙

결국 자율주행차 업계가 내린 답은 폴라니의 논리와 일치한다. 트롤리 딜레마 안에서 최선의 선택을 계산하는 것이 아니라, 딜레마 자체가 발생하지 않도록 시스템 전체를 한 차원 높은 곳에서 재설계하는 것. 예방, 안전, 생명 존중이 공리주의적 계산보다 먼저다.

그래서 레버는 누가 당기는가?

AI 시대에 들어서며, 중요한 결정까지 알고리즘으로 자동화하려는 움직임이 빨라지고 있다. 의료 AI는 치료 우선순위를 제안하고, 사법 AI는 재범 가능성을 점수로 매기며, 국방 AI는 표적 식별을 도운다. 그러나 이 모든 영역에서 공통적으로 제기되는 원칙이 있다.

기술은 가능한 최선의 대안을 추천할 뿐이며, 최종 선택과 책임은 윤리의식이 있는 인간의 몫이다.

의료 AI가 “이 환자보다 저 환자를 먼저 치료하라”고 권고할 수 있지만, 그 결정의 무게를 짊어지는 것은 의사와 가족이다. 자율주행차가 사고를 최대한 예방하도록 설계되지만, 그 설계의 윤리 기준을 결정하는 것은 사회와 입법자다. AI는 트롤리 딜레마를 해결하는 것이 아니라, 그 딜레마가 가능한 한 발생하지 않도록 돕는 도구다.

AI를 빠르게 쓸수록, 창의력은 왜 느려질까?특집 기사

AI는 빠른 완성품을 내어주는 도구가 아니라,내가 스스로 만들어가도록 이끄는 멘토로 써야 합니다. 망설이고 고치고 직접 손대는 그 느린 과정이 바로 창의력이 자라는 자리입니다. 마야 애커만 박사가 제시하는 “겸손한 창작 동반자“로서의 AI를 만나보세요.

이것이 트롤리 문제가 AI 시대에 우리에게 남기는 진짜 질문이다. 달리는 전차를 멈추는 기술을 우리가 가지게 됐을 때,멈출 것인지 말 것인지를 결정하는 판단력과 책임감은 여전히 사람에게 있어야 한다.