자율주행 3단계 시작은 nvid adrivelabs

자율주행에 대해 공부하면서 nvidiadrive를 접하게 되었다. (지난해 8월부터 처음 공부했다.

유튜브에 ‘엔비디아 드라이브 랩’이라는 카테고리에 그동안 개발한 상황을 보여준다.

이들 영상을 보고 테슬라와 자율주행의 격차가 그리 크지 않을 것이라는 확신을 얻었다.

완성차는 0.01%라도 자율주행 3단계에서 사고가 나면 절대 서비스를 할 수 없다.

3단계에서는 운전 권한이 제조사에 넘어가고 그에 따른 법적 책임이 있어 신중하다.

https://www.youtube.com/ watch?v=KPLTA4S_3Yo & feature=youtu.be 교차로 감지, 교통신호기와 교통표지 감지, 교차로 구조 이해와 같은 다양한 기능을 다루고 있습니다. 또한 이 모델은 주차공간 인지, 센서의 장애유무 감지 등의 다양한 과제에도 활용됩니다.

https://www.youtube.com/watch?v=HS1wV9NMLr8&feature=youtu.be 오토 하이빔넷(Auto High BeamNet)이 자율주행차의 헤드라이트를 제어하고 액티브 러닝 접근으로 어두운 곳에서 보행자 감지 기능을 향상시킵니다. 또한 DNN은 정확한 모션 플래닝을 위해 2D 카메라 이미지를 통해 3D 거리를 추정할 수 있습니다. NVIDIA의 다양한 인지기능은 자동차 주변에서 작동합니다. 서라운드 카메라 물체 추적 기능(surround cameraobject tracking)과 서라운드 카메라 레이더 퓨전(surround camera-radarfusion)을 장착하면 인지 사각지대가 확실히 사라집니다.

https://www.youtube.com/watch?v=4aq13pB9s7c&feature=youtu.be 자율주행 자동차는 환경 인식뿐만 아니라 도로 위의 다른 행위자들이 어떻게 행동하는지 이해할 수 있어야 안전한 경로 확보를 위한 계획을 세울 수 있습니다. 드라이브 랩에서는 자율주행차가 순환신경망(recurrentneural Network)을 통해 물체의 움직임에 대해 과거에 축적한 통찰력을 미래 예측 측정에 활용하는 방식을 보여줍니다.

https://youtu.be/gUJBYBGmmaoNVIDIA의 최근 모두와 과거 모델의 차이를 비교하며 보여주는 영상이다.바닥문자인식, 운전자모니터링, 서라운드라이더를 이용한 야간주행, 파킹존인식, http://youtu.be/Sdmc9 bwhn54 엔비디아를 보면서 테슬라 오토파일럿은 금방 따라잡을 수 있을 것 같았다.이들이 자랑한 ai 빅데이터는 이미지 센서와 레이더에만 한정된다.

내 생각에 테슬라 ceo는 똑똑하기 때문에 라이더와 고정밀 지도가 없는 구조이고 3단계를 서비스한다고 고객과 계약할 일은 없을 것 같다. (3단계란 사고가 났을 때 법적 책임을 회사가 진다는 약속이다.)

  • 테슬라가 3단계를 진행한다고 할 때 라이더가 있는지 지켜보자.
  • 기존 완성차 업체들은 안전을 위해서는 절대적으로 v2x와 고정밀도 지도, 라이다, 레이더, 카메라가 결합해 운행하는 데이터가 필요하다며 그런 기술을 지속적으로 개발하고 있다.
  • 시간이 흘러 테슬라가 라이더를 켜고 다시 빅데이터를 돌리기 시작하면 그때는 테슬라는 다른 완성차보다 더 뒤처지게 된다.
  • 벤츠, 현대, 중국 상하이자동차, 니오 등이 nvida 시스템을 사용하기로 했다.완성차 자율주행은 어느 정도 시간이 지나면 비슷한 수준이 되지 않을까 싶다.

자율주행 프로세스에는 3가지가 필요하다.인지, 판단, 제어 엔비디아는 사물을 인지하고 판단하는 데 도움이 된다.

향후 자동차 시장은 지금의 휴대폰 시장처럼 얼마나 저렴하고 보다 안정적인 차를 제작해 공급하느냐가 관건이 될 것으로 보인다.

자동차 시장에서의 투자 관점은 시장 점유율이 관건이 될 것으로 보인다.

error: Content is protected !!