자동차와 문제점 자율주행

자율주행차는 운전자의 개입 없이 주변 환경을 인식하고 주행 상황을 판단해 차량을 제어함으로써 스스로 주어진 목적지까지 주행하는 자동차다.최근 자율주행차는 다양한 장점으로 많은 관심을 받고 있는 분야다.완전한 자율주행이 가능하다면 음주운전, 졸음운전, 난폭운전, 보복운전, 뺑소니 등 사람이 운전할 때 나타나는 문제점을 완전히 없앨 수 있다.또 운전을 못하거나 하기 어려운 교통약자도 편하게 자가용을 이용할 수 있다.사람이 전혀 운전하지 않아 차 안에서 여유시간을 가질 수도 있다.

미국자동차공학회는 자율주행 기술 수준에 따라 6단계로 나눈다.

0단계 비자동화-운전자는 상황을 파악하고 운전한다.

1단계 운전자 보조 – 운전자는 상황을 파악하고 운전하는 → 시스템이 운전자의 가속 또는 감속 또는 조향 보조 → 스마트 크루즈 또는 차선 유지 보조

2단계 부분 자동화 – 운전자는 상황을 파악하고 운전하는 → 고속도로 주행 보조 → 원격 스마트 주차 보조

3단계 조건부 자동화 – 운전자가 시스템 요청 시 운전하는 → 시스템이 상황 파악을 하여 운전 → 교통 혼잡 시 저속 주행 → 고속도로 주행 → 자동차로 변경

4단계 고도 자동화 – 운전자가 시스템에 개입하지 않음 → 시스템이 정해진 도로와 조건 하에서 운전한다.

5단계 완전 자동화 → 시스템이 모든 도로와 조건에서 운전하다

4단계나 5단계는 사람이 운전에 전혀 개입하지 않기 때문에 사고가 절대 발생해서는 안 된다.하지만 현재까지 4단계나 5단계에서 사고가 난 사례가 있다.운전자는 운전을 할 때 정보 수집 → 의사결정 → 정보 제공 → 자동차 조작 단계를 거친다. 하지만 AI 정보 수집 과정이나 의사결정 과정에서 센서 오류 또는 시스템 오류로 인해 사고가 난 사례가 있어 자율주행 자동차의 안전성을 아직 담보하기 어렵다.

보안 관련 문제도 있다. 운전자가 사람이 아닌 AI일 때 차량이 해킹당하면 자율주행자동차가 존재하는 세계 곳곳에서 테러에 버금가는 대형 사고가 발생할 수 있다.

한편 사고가 났을 때도 역시 문제가 나타난다. 현재 자율주행 시 사고가 났을 때 책임 소재가 분명치 않다. 운행자가 책임져야 하는지, 제조사가 책임져야 하는지 명확한 기준이 없다. 여기에 운행자 책임이라고 해도 보험사에서 자율주행 사고까지 보험에 포함시킬지 등 논란이 있다.

이외에도 윤리적 문제인 트롤리 딜레마가 언급되기도 한다.트롤리 딜레마는 브레이크가 망가진 상황에서 그대로 직진하면 5명의 사람이 차에 치여 목숨을 잃고 방향을 바꾸면 1명의 사람이 목숨을 잃는 경우처럼 긴급한 상황에서 어떤 판단을 해도 누군가가 목숨을 잃는 상황이다.

모든 자동차가 자율주행차라면 기술적인 관점에서 사고가 날 환경을 만들지 않는 것이 중요하지만 자율주행차와 사람이 운전하는 자동차가 섞인 도로에서는 많은 변수가 있다.운행자와 보행자 우선순위, 어린이와 노인 우선순위, 소수보다 다수를 우선시하는 공리주의 등 다양한 상황에서 인공지능이 사람처럼 윤리적 판단을 할 수 있을지 의문이 든다.자율주행자동차가 활성화되기 위해서는 인공지능의 윤리적 판단이 사람의 윤리적 판단 수준과 유사할 필요가 있다.

error: Content is protected !!