[미국] MIT, 자율주행 차량에서 윤리적 프로토콜에 대한 탐구결과 발표
미국 최고 대학인 매사추세츠공과대(MIT)에 따르면 실험용 온라인 플랫폼을 이용해 자율주행 차량에서 도덕적 프로토콜을 탐구한 결과를 발표했다. 모럴 머신(Moral Machine) 실험으로 불리는 이 연구결과는 네이처(Nature)지에 공개됐다.
약 4000만 건의 응답을 통해 도출한 실험결과는 로봇 기술자, 윤리학자, 제조업체 및 정책결정자에게 많은 윤리적 문제점에 대한 고민을 안겨준 것으로 평가된다.
윤리적 딜레마의 핵심은 위험을 피할수 없는 환경이 조성될 때 자율주행 차량이 선택해야 하는 기준이다. 예를들어 차량이 길을 따라 가다가 어린이, 성인, 동물 등이 갑자기 밖으로 나가면 어떻게 해야할까?
보행자(또는 동물)를 피해 승객을 부상당하거나 죽이게 해야 하는가? 아니면 승객을 보호하고 보행자를 해치거나 죽여야 하는가?
이 실험의 시나리오는 9가지 유형의 딜레마를 조사해 상황에 대한 판단, 보행자의 나이 또는 성별 및 관련된 보행자 수를 묻는 방식으로 진행됐다.
때때로 다른 요인들이 추가됐다. 예를 들어 보행자는 임신했을 수도 있고 매우 높거나 혹은 낮은 사회경제 계층의 구성원일 수도 있다.
이 연구결과에서는 동물에 대한 인간의 보살핌, 더 많은 생명의 보전 및 어린 생명의 보전이 우선적으로 선호돼는 것으로 나타났다.
따라서 이러한 3가지 선호는 기계윤리를 위한 필수 구성요소로 간주되거나 정책입안자가 고려해야 할 필수적인 주제로 자리매김할 수 있을 것으로 평가된다.
의사 결정에서 일치되지 않은 요인으로는 사회적, 문화적, 경제적인 요인 등이 존재한다. 예를들어 개인주의 문화와 집단주의 문화 사이의 차이는 보편적인 기계윤리의 중요한 장애물이 될 수도 있다.
과학자들은 실험결과가 자율주행 차량을 위한 윤리강령에 최종적으로 서명해야 하는 실험실, 공장 및 정부의 사람들에게 신뢰할만한 데이터를 제공할 수 있을 것이라고 주장했다.
▲ US-MIT-automonouscar-MoralMachine-homepage
▲MIT의 모럴 머신 실험자료(출처 : 홈페이지)
약 4000만 건의 응답을 통해 도출한 실험결과는 로봇 기술자, 윤리학자, 제조업체 및 정책결정자에게 많은 윤리적 문제점에 대한 고민을 안겨준 것으로 평가된다.
윤리적 딜레마의 핵심은 위험을 피할수 없는 환경이 조성될 때 자율주행 차량이 선택해야 하는 기준이다. 예를들어 차량이 길을 따라 가다가 어린이, 성인, 동물 등이 갑자기 밖으로 나가면 어떻게 해야할까?
보행자(또는 동물)를 피해 승객을 부상당하거나 죽이게 해야 하는가? 아니면 승객을 보호하고 보행자를 해치거나 죽여야 하는가?
이 실험의 시나리오는 9가지 유형의 딜레마를 조사해 상황에 대한 판단, 보행자의 나이 또는 성별 및 관련된 보행자 수를 묻는 방식으로 진행됐다.
때때로 다른 요인들이 추가됐다. 예를 들어 보행자는 임신했을 수도 있고 매우 높거나 혹은 낮은 사회경제 계층의 구성원일 수도 있다.
이 연구결과에서는 동물에 대한 인간의 보살핌, 더 많은 생명의 보전 및 어린 생명의 보전이 우선적으로 선호돼는 것으로 나타났다.
따라서 이러한 3가지 선호는 기계윤리를 위한 필수 구성요소로 간주되거나 정책입안자가 고려해야 할 필수적인 주제로 자리매김할 수 있을 것으로 평가된다.
의사 결정에서 일치되지 않은 요인으로는 사회적, 문화적, 경제적인 요인 등이 존재한다. 예를들어 개인주의 문화와 집단주의 문화 사이의 차이는 보편적인 기계윤리의 중요한 장애물이 될 수도 있다.
과학자들은 실험결과가 자율주행 차량을 위한 윤리강령에 최종적으로 서명해야 하는 실험실, 공장 및 정부의 사람들에게 신뢰할만한 데이터를 제공할 수 있을 것이라고 주장했다.
▲ US-MIT-automonouscar-MoralMachine-homepage
▲MIT의 모럴 머신 실험자료(출처 : 홈페이지)
저작권자 © 파랑새, 무단전재 및 재배포 금지