본문 바로가기
일상의 윤리학

AI와 트롤리 딜레마: 테슬라 FSD의 법적 책임 공방 사례와 관련하여

by ethics-lab-1 2026. 3. 17.

2025년 8월, 미국 플로리다주 연방 법원이 테슬라에 2억 4,300만 달러(약 3,500억 원) 의 배상 판결을 내렸다. 오토파일럿이 켜진 상태에서 운전자가 바닥에 떨어진 휴대전화를 줍는 순간, 차량은 정지 표지판을 무시하고 달려 보행자를 사망케 했다. 테슬라는 "운전자 부주의 100%"를 주장했지만 배심원단은 달랐다. 테슬라에 33%의 책임이 있다고 판단했다. 시스템이 장애물을 인지하고도 경고를 주지 않았다는 이유로.

 

이 판결이 흥미로운 것은 단순히 거액의 배상 때문이 아니다. 법원이 처음으로 "AI의 판단"에 도덕적·법적 책임을 물었기 때문이다. 나는 이 기사를 읽으며 아주 익숙한 선로 그림을 떠올렸다. 트롤리 딜레마. 마이클 샌델 교수가 썼고 우리나라에서 왜인지 모르게 베스트셀러가 됐었던 [정의란 무엇인가]라는 책을 읽은 사람이라면 낯설지 않을 것이다. 그것이 이제 현실의 법정으로 들어왔다.

 

자율주행차를 구매했거나 구매를 고려 중인 사람이라면, 그리고 AI 윤리가 철학 토론이 아닌 실제 법적 분쟁으로 전개되는 방식이 궁금한 사람이라면 이 글은 당신을 위한 것이다.

AI와 트롤리 딜레마: 테슬라 FSD의 법적 책임 공방 사례와 관련하여
출처 pexels


1. 트롤리 딜레마의 현실 버전: AI는 무엇을 계산하는가

고전적 딜레마와 자율주행

브레이크가 고장 난 열차가 다섯 명의 인부를 향해 달린다. 선로를 바꾸면 한 명만 희생된다. 당신은 레버를 당기겠는가? 철학자 필리파 풋(Philippa Foot)이 1967년 제시한 이 사고 실험은 반세기 만에 자동차 설계 문제가 됐다.

 

자율주행차 버전은 더 복잡하다. 갑자기 뛰어든 보행자 무리를 피하기 위해 핸들을 꺾으면 탑승자가 벽에 충돌해 사망하는 상황. AI는 0.1초 안에 이 판단을 내려야 한다. 인간 운전자가 반응하는 평균 시간인 1.5초의 15분의 1이다. 문제는 그 0.1초 안의 판단이 누구의 가치관을 반영하느냐다.


2. 두 철학의 충돌: 공리주의 vs 의무론

공리주의: 숫자로 생명을 계산하라

공리주의는 행위의 결과가 가져오는 총 효용을 극대화해야 한다고 본다. 존 스튜어트 밀은 『공리주의(Utilitarianism)』에서 이렇게 말한다.

"행복을 증진시키는 행위는 옳고, 행복의 반대를 낳는 행위는 그르다(Actions are right in proportion as they tend to promote happiness, wrong as they tend to produce the reverse of happiness)." — J.S. Mill, 『공리주의』 2장

이 원칙을 적용하면 5명을 살리기 위해 1명을 희생시키는 알고리즘이 '옳다'. MIT 미디어랩의 '모럴 머신(Moral Machine)' 프로젝트가 233개국 4,000만 명을 대상으로 한 조사에서 응답자의 76% 가 다수를 살리는 공리주의적 선택을 지지했다.

 

그런데 역설이 있다. 동일한 응답자 중 정작 본인이 구매할 차는 "탑승자를 최우선으로 보호하는 차"이길 원한다고 답한 비율도 압도적이었다. 모두가 공리주의 차를 원하지만, 자기 차는 아니어야 한다는 '도덕적 불일치'다.

의무론: 수단으로 사용되어선 안 된다

칸트의 의무론은 결과와 무관하게 지켜야 할 보편적 도덕 법칙이 있다고 주장한다. 그의 정언명령은 명확하다.

"너 자신의 인격에서나 다른 모든 사람의 인격에서 인간성을 항상 동시에 목적으로 대하고, 결코 단순한 수단으로 대하지 않도록 행위하라(Handle so, daß du die Menschheit sowohl in deiner Person, als in der Person eines jeden andern jederzeit zugleich als Zweck, niemals bloß als Mittel brauchest)." — 칸트, 『도덕 형이상학 정초』

이 원칙에서 보면 탑승자를 '다수를 살리기 위한 수단'으로 프로그래밍하는 것 자체가 비도덕적이다. 의무론적 설계는 따라서 "누구를 죽일지 선택하지 않는다"를 원칙으로 삼는다. 교통법규를 철저히 준수하고, 사고 발생 시 책임 소재를 명확히 하는 구조를 선호한다.


3. 법정으로 들어온 트롤리 딜레마: 테슬라 공방 3대 사례

3,500억 원 배상 판결 (2025년 8월)

서두에 언급한 플로리다 판결은 자율주행 윤리 논쟁의 전환점이다. 배심원단이 테슬라에 33% 책임을 물은 핵심 근거는 두 가지였다. 시스템이 장애물을 인지하고도 경고를 주지 않은 알고리즘 결함, 그리고 기술적 한계를 소비자에게 충분히 설명하지 않은 정보 비대칭. 전체 배상액 중 2억 달러가 징벌적 손해배상으로 책정됐다는 사실은 법원이 테슬라의 '고의적 방치'를 인정했음을 의미한다.

FSD 허위 광고 판결 (2025년 12월)

캘리포니아 행정법 판사는 'Full Self-Driving'이라는 명칭이 "불법적인 방식으로 소비자를 오도했다"고 판단했다. 캘리포니아 DMV는 테슬라의 차량 판매·제조 면허 30일 정지 처분을 예고했다. '완전 자율주행'이라는 마케팅 언어가 의무론적 기준에서 소비자와의 신뢰 계약을 위반했다고 본 것이다.

한국 집단소송 (2026년 현재 진행 중)

국내에서도 2024년 12월, 테슬라 구매자들이 약 1,000만 원 규모의 FSD 옵션 부당이득 반환 청구 집단소송을 제기했다. 기능을 제대로 사용할 수 없다는 것이 이유다. 2026년 초부터 본격적인 법정 공방이 진행 중이며, 미국 텍사스에서는 사이버트럭이 FSD 모드로 주행 중 장벽에 충돌한 사건으로 100만 달러(약 14억 원) 소송이 제기됐다.


4. 한국의 대응: 국토교통부 가이드라인과 현실의 간극

한국은 2020년 자율주행차 윤리 가이드라인을 발표했다. 핵심은 세 가지다. 인명 보호 최우선, 나이·성별·장애 여부에 따른 생명 차별 금지, 불가피한 사고 시 피해 최소화. 공리주의와 의무론의 절충을 시도한 구조다.

 

그러나 현실과의 간극이 크다. 가이드라인은 원칙을 제시하지만 사고 발생 시 제조사·운전자·정부 중 누가 얼마의 책임을 지는지 명확한 기준이 없다. 미국 법원이 '33% 제조사 책임'이라는 구체적 수치를 도출하는 동안, 한국은 아직 이 기준 자체를 논의 중이다.


결론: 기계에게 도덕을 가르치기 전에

법적 공방의 흐름은 명확하다. 과거에는 "운전자 부주의 100%"로 끝났지만, 2025~2026년의 판결들은 제조사의 알고리즘 설계와 마케팅 언어까지 도덕적·법적 책임의 대상으로 포함시키기 시작했다. 철학 교과서 속 트롤리 딜레마가 현실의 법정 언어로 번역되고 있는 것이다.

 

나는 자율주행차 시대에 가장 시급한 과제가 알고리즘 설계가 아니라 '사회적 합의'라고 생각한다. 어느 정도의 위험을 용인하고, 사고 시 책임을 어떻게 분담할 것인지에 대한 공론화가 기술 상용화보다 먼저여야 한다. 기계에게 도덕을 가르치기 전에, 우리가 어떤 가치를 소중히 여기는지 먼저 합의해야 한다. 3,500억 원짜리 판결이 그 숙제를 우리 앞에 던져놓았다.