자율주행 자동차의 눈
자율주행 자동차의 눈
  • 노준석 포항공과대학교 기계공학과 교수
  • 승인 2023.09.05 15:53
  • 댓글 0
이 기사를 공유합니다

  최근 자율주행 자동차가 주목받는 미래형 이동수단으로 떠오르고 있다. 이를 구성하는 센서와 작동 원리에 대해 짚어보고 자율주행 자동차의 실현 가능성을 알아보자.

 

  자율주행의 기준이 되는
  실시간 위치 지도

   집안을 움직이며 청소하는 로봇 청소기, 장애물을 피해서 돌아다니는 서비스 로봇, 스스로 도로를 주행하는 자율주행 자동차 등 자동으로 움직이는 자율주행에 필요한 기술을 슬램(SLAM)이라고 한다. 슬램은 ‘Simultaneous Localization and Mapping’의 약자로 동시적 위치 추정 및 지도 작성을 뜻한다. 로봇이 직접 주변 환경을 인식해 지도를 작성하고 현 위치를 파악하는 기술이며 일상에서 사용하는 차량용 네비게이션과는 차이가 있다. 네비게이션은 직접 주변 환경을 인식하지 않고 사전에 만들어진 지도를 이용하며 현 위치는 인공위성의 도움을 받아 파악한다. 따라서 주기적으로 저장된 지도를 업데이트 해줘야 한다. 이와 달리 실내외 정해지지 않은 모든 길로 자유롭게 다니는 자율주행 로봇의 경우는 준비된 지도가 없고 인공위성의 도움을 못 받는 상황도 발생해 로봇이 자체적으로 주변 환경을 인식해 공간 지도를 만들고 자신의 위치를 파악해야 하며 이를 가능하게 하는 기술이 바로 슬램이다.

 그렇다면 로봇은 구체적으로 어떻게 주변 환경을 인식해 주변 공간의 지도를 만들어 자신의 위치를 파악할까? 로봇은 여러 가지 센서를 활용해 주변 환경을 인식하는데 카메라를 이용하는 방식과 레이더, 라이다 센서를 사용하는 방식이 대표적이다. 레이더와 라이다는 공통적으로 전자기파를 방출하고 수신하는 방식으로 작동되며 사용하는 전자기파의 파장에 따라 구별한다. 수 센티미터 정도의 전파를 사용하면 레이더, 수백 나노미터 정도의 광파를 사용하면 라이다라고 한다.

두 대의 카메라로 촬영된 사진의 연관성을 분석해 만들어낸 거리 지도 <제공/노준석>

 

  인간의 눈처럼
  거리를 계산하다

  카메라를 이용하는 방식은 주변을 촬영하고 촬영된 사진의 연관성을 분석해 공간 지도를 만들고 위치를 인식한다. 이때 사용하는 방식은 여러 대의 카메라를 사용해 각각의 카메라에서 찍힌 서로 다른 이미지로 인간이 두 눈을 이용해 물체가 얼마나 떨어져 있는지 유추하는 것처럼 위치를 인식하는 방법이다.

  로봇은 이동하면서 주변을 촬영함과 동시에 연관성을 분석한다. 이동함으로 인해 조금씩의 차이가 발생한 경우 여러 장의 사진을 제대로 비교하기 위해서 비교점이 될 수 있는 영역에 특정점을 찍어 위치 변화를 계산한다. 집안을 움직이는 로봇청소기의 경우 특정점을 찍기 좋은 영역은 △벽 △천장 모서리 △책상 모서리다. 특정점은 여러 장의 사진을 비교할 때 기준이 되기 좋은 점을 뜻하는데 특정점이 많을수록 정교하고 정확한 공간 지도를 그릴 수 있다. 스마트폰의 얼굴 인식과 같이 높은 보안성을 위해 정교한 얼굴 지도를 그려야 하는 경우엔 특정점을 인위적으로 만들어 주기도 한다. 눈에 보이지 않는 적외선으로 얼굴에 도트 형태의 빛을 뿌려주고, 해당 도트를 특정점으로 이용해 얼굴의 윤곽을 정확하게 인식한 뒤 잠금 인식 장치로 사용하는 것이다.

   이러한 특정점을 통해 공간 지도를 그리고 나면 로봇은 자신의 위치를 알아낼 수 있다. 카메라를 이용하는 방식은 공간 지도 외에도 색이나 윤곽선 등 시각적으로 촬영되는 다양한 정보를 통해 신호등에 점등된 빛의 색깔을 보거나 윤곽선을 통해 어떤 물체인지 빠르게 판단하는 등 여러 기능을 할 수 있다는 장점이 있다. 다만, 이미지 정보를 분석하는 과정에 많은 컴퓨팅 소스가 필요하며 어두운 곳에서는 인식 능력이 떨어진다는 단점도 있다. 또한 공간지도 작성에 있어 절대적인 거리를 측정하는 것이 아니라 인간의 눈과 뇌처럼 거리를 추정하는 것이기 때문에 카메라만으로 완전한 자율주행은 힘들다. 2020년 한 자율주행자동차 회사에서 광고한 카메라 위주의 자동차가 도로에 전복된 트럭에 충돌하는 사고가 발생했다. 다행히 인명 피해는 없었으나 카메라 위주로 운전자 조작 없는 완전한 자율주행은 위험하다는 사실을 보여주는 사건이었다.

이스라엘 기업 아다스카이가 개발한 자율주행자동차용 적외선 카메라
이스라엘 기업 아다스카이가 개발한 자율주행자동차용 적외선 카메라 <출처/로봇신문>

 

  인간보다 정확하게
  판단 가능한 센서

  전파와 광파를 방출하고 수신하는 방식으로 작동하는 레이더와 라이다는 카메라를 이용하는 방식과 달리 절대적인 거리를 측정하는 기술이다. 따라서 별도의 이미지 처리 과정 없이 공간 지도를 작성할 수 있다. 레이더는 주로 전투기에 사용되는 기술로 △악천후 △구름 △밝은 태양 △캄캄한 밤 등 환경적인 제약과는 관계없이 적기를 빠르게 탐지해 파일럿의 생존 가능성을 높여준다.

  골프를 즐겨 치는 사람이라면, 골프장에서 멀리 떨어진 작은 핀까지의 거리를 측정하는 데 라이더를 사용해 본 경험이 있을 것이다. 레이저를 핀에 맞춰 쏘고 다시 돌아오는 데까지 걸리는 시간으로 정확한 거리를 측정하게 해준다. 따라서 레이더와 라이다는 공통적으로 전자기파를 송출하고 검출된 신호를 통해 물체의 위치와 속도를
구한다. 송출하는 전자기파의 파장의 차이는 해상도의 차이로 인해 나타나는데 파장이 짧은 광파를 이용하는 라이다가 더 높은 해상도로 거리를 측정할 수 있다. 그렇다면 구체적으로 어떻게 전자기파를 방출하고 수신해 물체의 거리와 속도를 계산해낼 수 있을까?

  대표적으로 사용하는 전자기파의 형태는 펄스(pulse)와 지속파(continuous wave) 방식이 있다. 우선 상대적으로 직관적인 펄스 형태의 전자기파를 이용하는 경우 펄스가 물체까지 왕복하는 데 걸리는 시간을 측정한 뒤 빛의 속도와 곱한 후 2로 나누면 물체까지의 거리를 계산할 수 있다. 속도 또한 연속한 두 개의 펄스로부터 계산된 거리와 펄스의 반복 주기를 알면 직관적으로 구하는 것이 가능하다. 고려해야 할 점은 두 번째 펄스가 방출되기 전, 첫 번째로 방출된 펄스가 물체에 반사된 후 돌아오게 만들어 반사된 신호가 몇 번째로 방출된 펄스에 의한 것인지 모호하지 않도록 해야 한다는 것이다. 이는 측정 가능한 최대 거리의 상한선을 결정한다. 펄스의 반복 주기가 1 밀리초일 때 빛의 속도로 전파된 첫 번째 펄스는 두 번째 펄스가 방출되기 전에 150km가량 왕복이 가능하므로 최대 측정 가능 거리는 150km가 된다. 고에너지 펄스에 비해 전력이 적게 드는 지속파 방법도 대표적인 방법 중 하나라고 할 수 있다.

 방출 신호를 첫 번째와 두 번째 펄스로 구분할 수 있었던 것과는 달리, 지속파는 연속적인 파형으로 신호의 시작과 끝이 없다. 그래서 다른 방식으로 거리와 속도를 구한다. 우선 속도의 경우 도플러 효과로 구할 수 있다. 도플러 효과는 일상에서 앰뷸런스가 가까워질 때와 멀어질 때 소리가 달라지는 현상으로 잘 알려져 있다. 특정 주파수로 물체에 신호를 보낼 때 물체가 정지해있다면 반사된 신호도 거울에 튕기듯 같은 주파수로 돌아온다. 하지만 물체가 가까워지고 있다면 반사된 신호의 주파수가 송신 주파수보다 높아진다. 물체가 멀어지고 있다면 반대로 진행되는데 물체가 더 빠른 속도로 가까워지거나 멀어진다면 반사 주파수는 더 큰 폭으로 높아지거나 낮아진다. 따라서 반사된 신호의 주파수 변화폭을 통해 속도를 알아낼 수 있다. 하지만 정지한 채로 거리만 달라지는 경우 반사된 신호의 주파수는 변하지 않은 상태로 더 늦게 수신되기만 하는데 지속파는 펄스와 달리 연속된 파형이기 때문에 이러한 시간적 지연을 감지할 수 없다. 따라서 지속파의 주파수를 시간에 따라 높였다가 낮춰주는 식으로 변조해 시간을 측정할 만한 정의적 특성을 송신 주파수에서 부여하는 방식을 사용해서 거리를 측정한다. 이를 FMCW, 주파수 변조 지속파(frequency modulated continuous wave) 방식이라고 한다.

주변 환경을 인식하기 위한 센서들과 항목별 성능 차이 왼쪽부터 △카메라 △레이다△라이다
주변 환경을 인식하기 위한 센서들과 항목별 성능 차이 왼쪽부터 △카메라 △레이다△라이다  <출처/노준석>

 

  머지않아 곧 현실로 다가올
  자율주행기술

 카메라, 레이더, 라이다의 원리로부터 각 센서들의 장단점을 파악했다. 특히 운전자의 조작이 없는 완전한 자율주행의 경우 각 센서들의 항목별 성능 차이가 크기 때문에 이들을 융합한 센서 퓨전 기술이 중요할 것으로 예측된다. 기존에 존재한 값싼 카메라, 레이더와 라이다를 결합하기 위해 라이다는 저렴해져야 하며 초기 라이다와 같이 택시처럼 자동차 머리 위에서 회전하면서 빛을 쏘아주는 방식은 대체돼야 한다. 모든 영역의 거리를 측정하기 위해 회전축을 사용하게 되면 노면의 충격 등에 취약할 수밖에 없다.

 이를 해결하기 위해 기계식 회전 방식이 아닌 다양한 광학적, 전기적 *빔 스티어링 기술들이 보고되며 관련 기업들이 생겨나고 있다. 가격 면에서 합리적이 된다면 카메라, 레이더, 라이다로 완전한 자율주행까지 될 날이 현실로 다가올 것으로 기대된다.

 


*빔 스티어링: 안테나의 빔을 특정한 단말기(수신기기)에 집중시키는 기술


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.

  • 서울특별시 도봉구 삼양로144길 33 덕성여자대학교 도서관 402호 덕성여대신문사
  • 대표전화 : 02-901-8551, 8552, 8558
  • 청소년보호책임자 : 고유미
  • 법인명 : 덕성여자대학교
  • 제호 : 덕성여대신문
  • 발행인 : 김건희
  • 주간 : 조연성
  • 편집인 : 고유미
  • 메일 : press@duksung.ac.kr
  • 덕성여대신문 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright © 2024 덕성여대신문. All rights reserved. mail to press@duksung.ac.kr
ND소프트