매일 50만개 데이터 들어온다..테슬라,딥러닝의 결정체
매일 50만개 데이터 들어온다..테슬라,딥러닝의 결정체
  • 주진완
  • 승인 2020.06.23 09:00
  • 조회수 3964
  • 댓글 0
이 기사를 공유합니다

대만에서 일어난 테슬라 사고 사진 (출처: news1.news)
대만에서 일어난 테슬라 사고 사진 (출처: news1.news)

지난 6월 1일 대만에서 고속도로를 주행 중인 테슬라 모델3가 1,2차로에 전복된 화물차를 추돌하는 사고가 발생했다. 모델3 운전자는 53세의 황(黃)씨로 사고 직전까지 테슬라의 반자율주행시스템인 오토파일럿을 이용, 110km/h로 주행 중이었다. 하지만 차량은 전도된 화물차와 그 앞에서 수신호를 하던 운전기사를 감지하지 못했다. 황씨가 무언가 잘못된 것을 알고 대응을 했지만 이미 충분한 제동거리가 확보되지 않은 상황이었다.

이번 사고 이외에도 테슬라의 자율주행시스템과 관련된 교통사고가 꾸준히 발생하고 있다. 테슬라에서 분기별로 발표하는 안전 보고서에 의하면 2020년 1분기 기준 10만 km 주행 시 사고율은 오토파일럿이 1.33%, 일반 자동차가 12.98% 이다. 오토파일럿 이용 시 일반자동차 대비 약 10% 정도로 낮은 사고율을 보여줘 충격적이다. 문제는 ‘0’이 아니라는 점이다. 사고를 100% 피할 수는 없다는 얘기다. 

테슬라에서 매 분기 발표하는 사고율
테슬라에서 매 분기 발표하는 사고율

테슬라는 지난해까지 약 58만대의 전기차를 판매했다. 쉽게 말해 거의 매일 50만대 이상의 차량에서 OTA로 각종 정보를 테슬라로 송신한다. 이미 오토파일럿은 수십억 마일의 주행 데이터로 학습을 한 셈이다. 이런 오토파일럿도 사고를 피할 수 없다. 아직까지 인공지능 딥러닝의 한계다. 자율주행에서 딥러닝은 인공지능 컴퓨터가 다양한 실 주행 데이터를 기반으로 심층학습을 하는 것으로, 머신러닝의 기법 중 하나다.  비지도 학습을 통해서 인공지능이 스스로 데이터를 분석하거나 군집을 정리한다. 하지만 데이터에 없었던 상황이 발생하는 경우 그 상황에서 인공지능이 어떻게 대처할지는 아직까지 예측이 불가능하다는 게 전문가의 주장이다. 기존 주행 데이터를 기반으로 학습하는 만큼 돌발적인 상황은 인공지능이 학습을 하지 못했기 때문이다. 더 많은 시간과 데이터가 필요하다는 얘기다.

2016년 발생한 모델S 사망사고 (출처: arstechnika.com)
2016년 발생한 모델S 사망사고 (출처: arstechnika.com)

센서의 한계 또한 여실히 드러난다. 2016년 5월 7일 미국 플로리다에서 테슬라 모델S가 오토파일럿 기능을 이용 중 교차로를 지나던 트레일러와 충돌하여 운전자가 사망한 사건이 발생했다. 美 도로교통안전국에서 공인한 첫 자율주행차 사망사고다. 조사 결과 이 사고는 오토파일럿이 밝은 색상의 트럭을 맑은 하늘과 혼동한 것으로 드러났다. 높은 차고의 흰색 트레일러 측면을 하늘이라고 판단한 것이다.

소프트웨어도 문제다. 인공지능은 결국 컴퓨터 프로그램이다. 소프트웨어에서 버그가 '제로'일 수 없는 것이다. 자율주행 시스템은 방대한 양의 데이터를 실시간으로 처리하고 판단해 대응해야 한다. 이 과정에서 프로그램 오류나 버그 따위로 문제가 생길 수도 있다. AI의 경우 알파고와 이세돌의 바둑 대국에서 보인 것처럼 스스로 정확한 판단에 실패하기도 한다.

애리조나에서 일어난 우버 택시 사고 (출처: nytimes.com)
애리조나에서 일어난 우버 택시 사고 (출처: nytimes.com)

인적 오류도 있다. 2018년 3월 18일 밤 10시경 미국 애리조나주에서 우버 자율주행차가 자전거를 타고 무단횡단하던 보행자를 치어 숨지게 한 사고가 났다. 자율주행차에 의한 첫 보행자 사망 사고다. 운전자 사망사고에 이은 보행자 사망사고로 자율주행 안정성에 대한 논란이 증폭된 사건이다.

 전문가들의 해석은 엇갈렸다. 자율주행 시스템은 시각적 정보인 카메라 판독 외에도 레이더나 라이다 등의 다양하고 정교한 정보를 수집해 작동하는 만큼 충분히 피할 수 있는 사고였다는 점이다. 조사 결과 소프트웨어 설계에서 무단횡단하는 보행자를 인식하지 않도록 되어있다는 것이 밝혀졌다. 결과적으로 인간의 돌출 행동이나 속임수에 대처하지 못한다는 것이다. 당시 충돌 6초 전 소프트웨어에서 보행자를 감지했지만 프로그래밍 되어있는 대로 보행자가 아닌 ‘미확인 물체’로 판단했다. 아직까지 프로그램의 한계를 보여준 셈이다.

이러한 문제를 보완하기 위해 전 세계에서 자율주행의 맹점을 연구하며 보완한다. 처음 시작은 사람이 답을 놓고 문제를 제시하며 학습시키는 지도학습이다. 지도학습을 반복하며 어느 정도 데이터가 쌓이고 인공지능의 패턴이 정립되면 비지도학습으로 전환한다. 방대한 양의 데이터를 입력해 AI가 스스로 판단, 학습을 시작한다. 학습량이 올라갈수록 많은 상황에서의 판단과 대처에 대한 기록이 생기고 더 나아가면 스스로 상황을 만들어 학습하기도 한다.

테슬라의 오토파일럿이 실시간으로 정보를 분석한다.
테슬라의 오토파일럿이 실시간으로 정보를 분석한다.

AI가 일상적으로 주행하는 차량의 데이터를 실시간으로 수집하고 일반적인 운전자가 판단해서 대처한 것을 점수화해 높은 점수의 운전을 표본으로 정해 학습하는 방법도 있다.

하지만 아직까지 자동차의 한계속도나 급격한 물리적 변화에는 대응하기 힘들다. 가령 돌발 상황에서 피할 수 있는 경로가 하나 밖에 없을 때, 그 경로를 지나갈 수 있는 속도를 파악하고 대응하지 못한다. 대부분의 자율주행시스템은 차량 제어 시 중력가속도 0.3G를 넘기지 않도록 설정되어 있어서다.

인공지능은 끊임없이 진화한다. 마치 인간처럼 스스로 주행하며 학습한다. 완벽해지기 전까진 실패를 거듭해야 하겠지만 ‘실패는 성공의 어머니’라는 말처럼 실패 확률을 줄여 나갈 것이다. 레벨5는 몰라도 레벨4 수준의 자율주행은 그리 멀지 않았다. 

주진완 에디터 jw.joo@carguy.kr


관련기사

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.