자율주행에 대해서 공부를 하면서 nvidiadrive를 접하게 되었다. 작년 8월부터 시작해서 공부했다.
유튜브에 엔비디아 드라이브랩스라는 카테고리로 지금까지 개발한 상황을 보여준다.
이 영상을 보고 테슬라와 자율주행의 격차가 그리 크지 않을 것이라는 확신을 얻었다.
완성차는 0.01%라도 자율주행 3단계에서 사고가 나면 절대 서비스를 할 수 없다.
3단계에서는 운전권한이 업체에 넘어가고 그에 따른 법적 책임이 있기 때문에 신중할 수밖에 없다.

https://www.youtube.com/ watch?v= KPLTA4S_3 Yo&feature= youtu.be 교차로 감지, 교통신호등과 교통표지판 감지, 교차로 구조 이해와 같은 다양한 기능을 다루고 있습니다. 또한 이 모델은 주차공간 인지, 센서의 장애여부 감지 등 다양한 과제에도 활용됩니다.
https://www.youtube.com/watch?v=HS1wV9NMLr8&feature=youtu.be 오토 하이빔 네트(Auto High Beam Net)가 자율주행차의 전조등을 제어해 액티브 러닝 접근으로 어두운 곳에서 보행자 감지 기능을 향상시킵니다. 또한 DN은 정확한 모션 플래닝을 위해 2D 카메라 이미지에서 3D 거리를 추정할 수 있습니다. 엔비디아의 다양한 인지기능은 자동차 주변에서 작동합니다. 서라운드 카메라 물체 추적 기능(surround camera object tracking)과 서라운드 카메라 레이더 퓨전(surround camera-radarfusion)을 장착하면 인지 사각지대가 확실하게 사라집니다.
https://www.youtube.com/watch?v=4aq13pB9s7c&feature=youtu.be 자율주행자동차는 환경인식뿐만 아니라 도로상의 다른 행위자들이 어떻게 행동하는지 이해할 수 있어야만 안전한 경로 확보를 위한 계획을 세울 수 있습니다. 드라이브 랩에서는 자율주행자동차가 순환신경망(recurrent neural network)을 통해 물체의 움직임에 대한 과거에 기른 통찰력을 미래 예측 측정에 활용하는 방식을 보여줍니다.
https://youtu.be/gUJByBGmmao 엔비디아의 최근 모델과의 차이를 비교하며 보여주는 영상이다.바닥글자 인식, 드라이버 모니터, 서라운드라이더를 이용한 야간주행, 파킹존 인식, http://youtu.be/Sdmc9bwhn54 엔비디어를 보면서 테슬라의 오토파일럿은 곧 따라잡을 수 있다고 생각했다.이들이 자랑한 ai 빅데이터는 이미지센서와 레이더에 국한된다.
내 생각에 테슬라는 똑똑하기 때문에 라이더와 고정밀 지도가 없는 구조로 3단계를 서비스하겠다고 고객과 계약하는 일은 없을 것 같다. (3단계는 사고가 났을 때 법적 책임을 회사가 진다는 약속이다.)
테슬라가 3단계를 할 때 라이더가 있는지를 지켜보자.
기존 완성차업체들은 안전을 위해 절대적으로 v2x와 고정밀도, 라이더, 레이더, 카메라가 결합해 운행하는 데이터가 필요하다며 그런 기술을 지속적으로 개발하고 있다.
시간이 지나 테슬라가 라이더를 켜고 다시 빅데이터를 돌리기 시작하면 그때 테슬라는 다른 완성차보다 더 뒤처지게 된다.
벤츠 현대 중국 상하이차 니오 등이 nvida 시스템을 사용하기로 했다.완성차의 자율주행은 어느 정도 시간이 지나면 비슷한 수준이 되지 않을까 싶다.
자율주행 프로세스에는 3가지가 필요하다.인지, 판단, 제어 엔진은 사물을 인지하고 판단하는 데 도움이 된다.
향후 자동차 시장은 지금의 휴대전화 시장처럼 얼마나 값싸고 안정적인 차를 제작해 공급하느냐가 관건이 될 것으로 보인다.
자동차 시장에서의 투자의 관점은 시장쉐어가 열쇠가 될 것으로 보인다.