'자율주행' 믿고 운전했다 대형사고···"'자율' 용어 남발 막아야"
'자율주행' 믿고 운전했다 대형사고···"'자율' 용어 남발 막아야"
이 기사를 공유합니다

현재로선 운전자 개입 없이 스스로 주행하는 자율주행차 없어
WP "테슬라 FSD 맹신으로 발생한 사고 2019년 이후 4년간 736건"
경부고속도로 상행선 금강나들목 인근 CCTV (사진=국가교통정보센터)

[서울파이낸스 문영재 기자] 지난 19일 경부고속도로 금강나들목 인근 직선구간에서 검은색 승용차가 앞서가던 트럭을 들이받는 사고가 발생했다. 이 사고로 승용차는 심하게 찌그러졌고, 50대 운전자는 사망했다. 자세한 사고 경위는 밝혀지지 않았지만 일각에선 운전자가 '자율주행'이라고 불리는 주행보조 기능을 맹신한 것이 화근이 된 것이 아니냐는 관측이 나온다. 자동차 업계가 운전자의 방심을 유발할 수 있는 '자율'이란 부정확한 용어를 함부로 사용하는 것이 문제라고 전문가들은 지적한다. 

22일 현행 자동차관리법에 따르면 자율주행은 '운전자 또는 승객의 조작 없이 자동차 스스로 주행을 가능케 하는 기술'을 의미한다. 시판 중인 자동차 가운데 자동차관리법이 정의한 스스로 주행이 가능한 자동차에 해당하는 자동차는 현재로선 없다. 시선을 국외로 돌려봐도 마찬가지다. 그럼에도 업계에선 자율주행이란 용어를 빈번히 쓰고 있다. 제조사들이 자사의 기술력을 부각하고자 주행보조 기능을 자율주행이란 용어로 쓰는 경우가 적지 않다. 

현대자동차그룹은 '고속도로 주행보조2'(HDA2, Highway Driving Assist2)를 자율주행을 구현하는 기술로 표현하고 있고, 올 하반기 선보일 주행 보조 기능은 아예 '고속도로자율주행'(HDP, Highway Driving Pilot)이라고 표기한다. 테슬라는 한 발 더 나아가 완전자율주행을 뜻하는 '풀 셀프 드라이빙'(FSD, Full Self Driving)이란 용어를 사용한다. 테슬라 FSD는 과장에 가까운 표현으로 지난해 미국 캘리포니아주 교통국으로부터 시정 명령을 받았다. 고도화된 주행보조 기능일 뿐, 자동차 스스로 의사를 결정하지 않는다는 이유에서다. 테슬라가 이를 어기면 600억원의 벌금을 내야 한다.

주행보조 기능 단계를 처음 설정한 미국자동차공학회(SAE, Society of Automotive Engineers)는 제조사들의 이 같은 행태를 두고 '자주적'(Autonomous)이라는 개념을 어느새 '자동화'(automation)와 동등한 의미로 쓰고 있다고 꼬집었다.

문제는 제조사를 신뢰하는 소비자가 이름뿐인 자율주행만 믿고 전방주시가 필요한 상황에서도 스마트폰을 보거나 동영상을 시청하는 등 위험천만한 행동을 할 수 있다는 점이다. 이와 관련해 워싱턴포스트(WP)는 지난 10일 테슬라 FSD 맹신으로 인해 발생한 사고가 2019년 이후 4년간 736건에 달한다고 보도했다. 사고 대부분은 오토바이를 추돌하거나 응급차를 들이받아 발생한 것으로 조사됐다. WP는 "사고의 책임은 대부분 운전자에 있다"며 "주행보조 기능을 장착한 자동차 설명서에는 열이면 열 '주행보조 기능은 주행을 보조할 뿐 반드시 전방을 주시한 채 스티어링 휠을 잡아야 한다'고 명시돼 있기 때문"이라고 보도했다.

업계 관계자는 "현재 나온 모든 주행보조 기능은 미완성의 자율주행 기술"이라면서 "자동차가 스스로 의사를 결정하는 주체가 아닌 만큼 함부로 '자율주행'이란 용어를 사용하지 말아야 한다"고 말했다.



이 시간 주요 뉴스
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.