자율주행 자동차 상용화에 대한 가장 큰 관건은 기술이 아니라 법적인 측면인데요.
즉 사고났을 경우에 liability가(책임이) 누구에게 있냐하는 것이죠, 운전사인지, 제조사인지.
이것에 대한 중요한 선례가 될수 있는 (상업화되어 있는 차량에 대한) 형사 소송이 최초로 기소되었습니다. 2019년에 LA에서 앞에 (서?)있던 차량을 충돌하여 그차에 있던 두사람을 사망하게 한 테슬라 차량(auto-pilot 사용중)의 운전자에 대해 캘리포니아 검사가 형사기소를 하였습니다.
https://www.theverge.com/2022/1/18/22889768/tesla-autopilot-criminal-charges-la-fatal-crash
아직 어떻게 결론이 나올지는 시간이 많이 걸릴 것 같은데요. 지난 2018년 아리조나에서 있었던 Uber의 실험용 차량에 의한 사망사고 경과와 여러 공식 statement를 볼때, 운전자가 책임이 있다고 결론이 나올 것 같다는 개인적 느낌입니다.
저도 개인적으로 운전자인 관계로 이런 결론이 나올경우에는 매우 유감스러울 것 같습니다. 기존에 미국은 liability가 아주 넓게 적용되는 법을 가진 관계로 (예를 들어 상가의 주차장 사고를 경우에 따라서 상점에서 책임지는 것, 차가 사고를 내었을때 소유자도 책임지는 것 등등) 제조사가 책임을 물게하여도 크게 이상하다고 느끼지 않을 것 같습니다.
2월달에 hearing이 있다고 하니 그 결과가 궁금하군요.
찾아보니 교차로에서 초록불 받고 진행하던 Civic을 고속도로에서 나온 테슬라가 빨간불을 무시하고 달려서 충돌했나봅니다. Autopilot이 켜져있던 상태라고 조사에서 밝혀진 것 같고요.
테슬라의 자율주행은 진짜 자율주행이 아니라 주행보조장치라서요. 운전자에게 liability가 가는게 맞는 것 같습니다.
이건 당연히 운전자에게 책임 있다고 결론나오는게 맞습니다.
자율주행 Level 3 이상부터 제조사 쪽으로 책임이 전가되는데요.
테슬라의 FSD(Full-Self Driving) 모드가 Level 2입니다.
FSD는 신호등까지 인식하는데요
위 사건에서는 FSD가 아닌 그보다 낮은 운전 보조 시스템인 Auto-pilot을 사용중이였기 때문에 당연히 운전자 부주의에 의한 사고라보는게 맞죠.
문제는 테슬라의 마케팅이죠. 이름도 오토 파일럿으로 지어서 마치 보조수단이 아니라 스스로 주행하는 것 처럼 홍보를 하니, 모르는 사람은 그냥 자동주행으로 생각한다는 점이지요.
그러면 캘리에서 운전자를 형사 기소
운전자는 테슬라 기소하면 될 것 같은데요.
운전자는 아니지만 사망자 가족니 이미 테슬라를 민사 소송했다고 기사에 나옵니다.
기소된 사람이 기소된 내용을 다른 (potential) 가해자에게 돌려서 기소하는 제도가 있는지 모르겠습니다.
이게 성립되기 어려운점이 있습니다. Auto-pilot 기능 자체가 운전자 동의 없이 활성화 되지않을 뿐더러
항공기에 탑제된 자동 운항 시스템 이름 또한 Auto-pilot입니다.
그러나 아시다시피 기장 및 부기장이 항시 대기하며 이/착륙시 반 수동모드로 전환하죠.
이미 운행 보조로써 Auto-pilot이라는 네이밍이 오래전부터 사용되고있습니다.
그렇죠. 문제는 그건 법적인 부분인거고, 사람들의 생각은 "Auto-Pilot = auto-driving" 이라는 점이지요.
어차피 보통사람인 배심원이 유죄/무죄 판결을 하게 되고, 자세한 fine-print 안 읽어보는게 보통 사람들인지라, (그리고 차 살때 사람이 붙어서 자세히 설명해주지도 않거든요.) 테슬라 사장의 그럴싸한 PR에 misled되었다고 판단하면 차를 구입한 운전자에게는 무죄가 나올 수도 있는 게, 현 미국 시스템이라 생각합니다. 그래서 최종 배심원 판결까지 가야지 알 것 같습니다. (판사 재량하에 한쪽을 기각할 수 도 있으니, 변수가 더 있기도 하네요.)
선박/항공기에 있는 오토파일럿은 일반적인 명칭이죠. 개솔린 자동차나 자동변속기처럼요. 테슬라는 자신들의 ADAS 시스템을 "Tesla Autopilot"이라고 이름 지었고, A는 반드시 대문자로 쓰입니다. 대문자 소문자의 차이는 엄청납니다. 자율의 의미가 아닌데 사람들이 혼동을 매우 하죠. 전문가나 관련업 종사자가 아닌 이상 항공기선박의 오토파일럿을 떠올리지는 못하니깐요. 자동이 자율이 아니기도 하고요. 그래서 아무리 테슬라 메뉴얼에 이건 ADAS 시스템이고 명확하게 운전자가 주의를 해야 한다고 해놨지만 "일반" 사람들이 혼동할 여지는 굉장히 높습니다. 독일에서는 이 명칭을 쓰지 말도록 조치도 내려졌죠.
Level 3 에서도 제조사가 책임질 수 없는 부분도 있지 않나요? 이번 케이스 처럼 제조사 법인이 형사 고소를 당할 수도 없는 일이잖아요.
제조사를 형사 기소하는 것은 좀 힘들지 않나 싶습니다. 만들어서 파는게 "불법"이거나 (마약처럼) "사기"인 경우에 가능할 것 같은데 이건 아닌 거 같거든요.
하지만 피해자가 제조사를 민사 소송하는 것은 가능하고 (지금 나온 이 건도 사망자 가족이 테슬라에 민사 소송했다고 뉴스에 나옵니다.), 지금까지 여러 건이 이미 진행되었고, 아마 테슬라가 비밀리에 고액으로 합의했을 거라 생각합니다.
Auto pilot 시작 하기전에 항상 라이어빌리티에 대해서 안내가 나오고, 동의를 해야 작동되는걸로 앎니다. 주요내용은 테슬라 책임 없음, 전부 운전자 너님 책임임! 동의합네까? 예쓰 눌러야 활성화 되죠. 그래서 이건 짤 없는 운전자 책임임데요... 이건 운전자다 똑똑하고 비싼 변호사 써서 테슬라하고 싸워봐야 하는 건 같은데요. 글쎄요.... 일론머스크가 돈니 너무 많아서요...
"auto-pilot"은 전혀 자율주행이 아닙니다. 이 부분부터 확실히 했으면 좋겠습니다. 그러니 자율주행 자동차가 사고를 낸 것도 아니고 순전히 운전자의 책임입니다. 그리고 autopilot은 선박/항공기에 있는 조향과 속도를 제한적으로 제어해주는 일반적인 기술명입니다. 테슬라는 자신들의 주행보조 기술을 "Tesla Autopilot"로 했을 뿐이죠. A가 대문자입니다. 이 두 차이는 어마어마하죠. 그러니 명칭부터 해서 혼란이 이만저만이 아닙니다. 혹시 일반적인 선박/항공기의 오토파일럿 기술을 아신다면 그걸 "자율" 주행으로 번역하시는 분도 전혀 없을 겁니다. https://en.wikipedia.org/wiki/Autopilot
한술 더 떠서 테슬라의 FSD는 "F"ull-"S"elf-"D"riving의 약자인데, 이것 역시 정말 자율 주행아니라 진보된 주행보조 기술의 상품명입니다. 완전 자율 주행의 일반적인 full-self driving이 아닙니다. 대문자 소문자의 차이가 이렇게 중요합니다.
정부 당국은 하루 빨리 혼돈 그 자체의 테슬라의 "주행보조" 기술의 명칭부터 바꾸도록 강제해야 합니다.
p.s. 그래서 원글님의 제목 역시 "테슬라 auto-pilot 사고" => "테슬라 주행보조 기술 사고" 또는 "Tesla Autopilot 기술 사고" 이렇게 적어야 하는데, 오토 파일럿으로 그냥 쓰는 순간 기자들 포함 수많은 대중들은 "자율"로 받아들이고 모든 문제가 발생합니다 ㅠㅠ
기술적으로 Tesla의 autopilot이 완전 자율주행이 아니라 부분적 자율주행(partially automated)이라는 것은 NHTSA가 규정하고 있어서 당연히 아주 간단한 명제이고, 아시는 분들은 확실히 잘 아시고 계시죠.
그러나 사고시에 법적으로 책임이 누구에게 있냐는 것은 더 많이 복잡한 문제이고, 인간의 문제이고 그래서 법원이 존재하는 거죠.
아무도 읽어보지 않는 작은 fine print로 waiver해 놓으면 100% 면피되는 세상은 아니니까요.
South Carolina의 법학과 교수가 쓴 말을 인용해 봅니다.
"Tesla, he said, could be “criminally, civilly or morally culpable” if it is found to have put a dangerous technology on the road"
만든게 1이면 10으로 뻥튀기해 놓고 천재인 척은 다하면서 돈 끌어모아 그 돈으로 사람 써서 실제로 2 3 만들면서 언플하고, 그 와중에 사고 생기면 질질 끌면서 돈으로 막고. 과연 시장이 원하는 경영자상은 맞는 것 같은데, 자기를 철썩같이 믿었던 고객이 자기를 너무 믿은 대가로 죽을지도 모른다는걸 알면서도 계속 그러는게 사람이 할 짓인가 싶습니다.
불안한 건, 내가 믿다가 내가 죽는 정도가 아니라, 다른 사람이 죽을 수도 있다는 것이지요. 원글의 사고가 그런 경우이기도 하구요.
(근방 몇백미터 안에 Autopilot이 활성화된 테슬라를 알려주는 장치가 있는 것도 아니고...)
댓글 [17]