ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • 인텔 모빌아이 (Intel Mobileye) CES 2020 (자율주행 / ADAS / 카메라 / 컴퓨터 비전 알고리즘 / VIDAR / 로보택시 / REM / EyeQ 칩) 볼께요
    카테고리 없음 2020. 2. 28. 18:12

    >


    ​ ​ ​ 1. 모빌에(Mobileye)​(1)쿵키오프 개요-1999년에 설립된 이스라엘에서 설립된 비전(Vision)기반 지능형 운전자 보조 시스템(ADAS)서비스 공급 업체 ​-2014년 뉴욕 증권 거래소에 상장.이스라엘 쿤키오프가 추진한 쿤키옵 공개(IPO) 사례 중 가장 큰 성공을 거둬 유명하다. 2017년 인텔이 약 17조 6,000억원에 인수. 모빌에 인수는 인텔의 역사를 통해서 가장 성공적인 선택 중 1로 꼽힌 적 ​-핵심 기술인 지능형 ADAS는 전방 충돌 경고(FCW), 보행자 충돌 경고(PCW)차선이 마스크 경고(LDW), 지능형 전조등 제어(IHC), 속도 제한 표지(SLI)등을 지원 ​ 창업 초기 BMW, GM, 볼보 등 완성 차 업체에 주문자 상표 부착 방식(OEM)에서 제품을 공급했지만 2007년부터는 애프터 마켓에도 진출하고 독자 브랜드 이미지 구축 ​-과거 테슬라 또 모델 S에 천장률 주행 모드인 오토파 1롯데(Autopilot)기능을 실현하는, 모빌에 비전의 가운데 컴퓨팅 칩'EyeQ 3'을 채용했지만 오토파 1롯데에 오류가 생성하면서 운전자 사망 문 제이 생성.이 뭉지에우에 현재 파트의 집 관계 종료 ​-2019년 ADAS시장의 큰 성장에 힘입어 매출액이 10억달러에 육박했고 최근 2019년 3분기 매출은 전년 동기 대비 20%이상 성장 ​


    >


    <출처:TECH M>​ ​ ​(2)의 주요 서비스-FCW(Forward Collision Warning):전방 차량 충돌 경보 ​-HWM&Warning(Headway Monitoring&Warning):차간 거리의 모니터링과 경보 ​-PCW(Pedestrian Collision Warning):보행자 추돌 경보 ​-LDW(Lane Departure Warning):차선 이탈 경보 ​-SLI(Speed Limit Indication):제한 속도 표지판 인식과 속도의 국물이 너무 경보 ​-REM(Road Experience Management):EyeQ 4 chip, GPS, G-Sensor통신 모듈이 내장된 Mobileye 8 Connect에 의한 고화질지도 발발. 밑으로 더 자세한 설명 ​ ​ ​ ​ 2. 인텔 모빌 아이 CES 2020​-모빌 아이는 CES 2020으로 최근까지 누적 5,400만개 이상 출하된 '아이큐(EyeQ)'칩을 포함하고 인텔에서 가장 빠르게 성장하는 비즈니스인 자율 주행 기술에 대해서 발표 ​-모빌 아이는 현재 레이더와 라이다망을 탑재한 비결, 단지 카메라만을 탑재한 2개의 서로 다른 비결에 자율 주행 기술을 개발하고 ​ 이 날, 인텔은 카메라 센서만 장착한 자율 주행 자동차가 도로를 주행하는 모습이 담긴 무표은지프 23분짜리 동영상을 공개. 영상에서 차량은 복잡한 교차로, 보행자나 배달차량 등이 밀집한 환경 등에서도 운행에 성공 - 기타 자율주행을 위한 컴퓨터 비전, 매핑, 운전자 보조시스템(ADAS), MaaS(Mobility-as-a-Service)에 관한 기술과 개념에 대한 설명 - 실적도 급속하게 성장하고 있어 향후 데이터 수익화나 로보택시 등으로 사업을 확장할 것이라고 밝혔다.


    >


    <출처:Mobileye>​ ​ ​ ​ 3. 카메라 센서 비전 인식 ​-모빌 아이는 자율 주행에 두개의 각각 다른 방식으로 접근. 본인은 카메라만, 다른 사람은 레이더와 라이더만을 사용해 비전인식-특히 자율주행을 위한 카메라 트렌드는 앞쪽에만 설치하는 것에서 사방을 감싸는 방식으로 변천하고 있다. 한편, 비용은 불과 수백달러에 불과 ​-카메라만 사용하는 방식의 자율 주행 차량이 센싱 실수가 발생할 확률은 한 0,000시간당 한건이 목표. 이는 매일 2시간 운전합니다라고 말했을 때 일 0년에 한번씩 ​-최종적으로는 라이더와 레이더만 사용하는 방식과 결합하는 레버와 000만시간당 한건의 오류 확률을 달성할 것으로 기대 ​


    >


    <출처:Mobileye>​ ​ ​ ​ 4. 컴퓨터 비전(Computer Vision)​(하나)카테고리별 분류밖에)로드 사용자(Road Users):자동차, 보행자, 자전거, 스쿠터 등 도로 위에서 움직일 수 있는 대상자를 인식. 그들은 정의에 의해서 아주 아주 다양 ​ 2)로드 지오 메트리(Road Geometry):차로만 아니라 도로 표면의 종류 및 상태, 각도, 높은 침이 각 차선의 의미 등을 이해 ​ 3)로드 바운더리(Road Boundaries):커브, 가드레일 등 주행 가능한 도로인지 경계를 구분 ​ 4)로드 시맨틱(Road Semantics):도로상 나쁘지 않고 주변의 신호등이나 표지는 보행자의 움직이는 차량의 캄파 구의 등을 인식하고 그 의미가 있는 사람인지 이해. 특히 수신호 같은 보행자의 제스처에 따라 운행이 가능한지 멈춰야 하는지가 결정되기 때문에 이러한 움직이는 의미를 이해하는 것은 중요함.


    >


    <출처:Mobileye>​ ​ ​(2)기술 구성이다)Detection(감지):픽셀 단위로 차량 및 사물의 외형(Appearance), 원근감 이쟈싱 움직입니다 등을 통해서 3차원과 같은 깊이(Geometry)확인 ​ 2)Measurements(측정):차량을 정확히 제어하기 위해서는 모든 것이 3차원에 위치하고 있어야 하기 때문에 카메라를 통해서 입력을 받은 2D다실 3D로 변환 ​ 3)Internal Redundancy:위에서 예기한 4개의 카테고리 내에서는 복수의 컴퓨터 비전 엔진이 독립적으로 실행된다. 다시 한번 예기하여 자신의 큰 깊은 알고리즘을 사용하는 것이 아니라 서로 영향을 주지 않는 각기 다른 알고리즘을 여러 번 사용하여 감지 및 측정 기능을 구현


    >


    <출처:Mobileye>​ ​ ​ ​ 5. 컴퓨터 비전 알고리즘의 종류 ​(하나)감지 알고리즘, 예를 들면 이하의 키위, 흰색 버스를 인식하기 때문에 즉 로드 사용자 범주에서 감지 기능을 위한 6개의 각기 다른 엔진(알고리즘)을 사용 ​ 하나)3DVD:전통적인 패턴 인식의 비결. 먼저 전체 기위지를 검사하고, 그 중 인식이 필요한 대상을 찾아 박스화하고, 외형(appearance)을 확인한 후 신경망을 통해 학습. 차의 문이 열리고 있을 때는 그 안에서 갑자기 사람이 밖에 자신 올 수 있기 때문에 차문이 열리고 있는 상태, 휠체어, 유모차 등 특별한 경우도 인식할 수 있도록 학습 ​ 2)Full Image Detection: 그렇게 버스가 기대어 있어 크게 보이자 같은 외형에서도 박스화하기 어렵기 때문에 다른 방식으로 접근하는 알고리즘 ​ 3)Top View FS(Free Space):키위, 녹색 공간은 운전 가능한 공간인 free space에서 운전 불가능한 공간과 구분 ​ 4)VIDAR:라이프니다니, 아닌 카메라를 사용한 알고리즘. 사람은 삼각 측량을 통해서 눈에 들어간 2차원 키위,를 3차원에서 느끼는 것처럼 차량을 둘러싼 하나 2대의 카메라(원거리용 8대, 주차용 4대)도 삼각 측량을 구현하고 3D키위,를 발발(테슬라와 같은 방식). 그리고 여기서 얻은 기상지 데이터를 라 입니다. 프로세싱 알고리즘에 주입하여 인공지능 신경망 학습※테슬라비전 인식비결 참고


    ​ ​ 5)Scene Segmentation:보행자, 자동차 도로, 나무 등 각 대상을 같은 부류별로 구분 ​ 6)Wheels​


    >


    <출처:Mobileye>​ ​ ​(2)측정 알고리즘 하나)Map World Model:REM기술을 통해서 HD맵 생성 ​ 2)Visual Road Model:HD맵을 활용하여 도로 형태와 깊이, 각도, 노프오 전이 등을 구분하고 3차원 정보를 얻는 알고리즘 ​ 3)Range Net:사물의 외형을 통해서 길이와 그 대비와 같은 범위 측정 ​ 4)VIDAR​ ​ ​- 고런 알고리즘을 통해서 나온 결과치를 최종적으로 모두 통합하고 자율 주행 의사 결정 ​-예를 들어 자율 주행 차량이 판단하므로, 그 차가 떠받치고 있는 그이츄이 주차된 차처럼 장어 린이 물과 생각하고 이를 피하고 안 갈 것인지 아니면 교통 체증이 보통 기다리며 천천히 가야 한다 인지 판단하는 것은 매우 헷갈리는 문제. 이를 해결하기 위해 단순히 전술한 것뿐만 아니라 다른 알고리즘이 가져온 다양한 정보를 종합하여 어떤 귀추인지를 판단


    >


    <출처:Mobileye>​ ​ ​ ​ 6. 로봇 택시&에 저 한개(Agile)​-모빌 아이의 주장은 자율 주행의 활용 사례는 가장 볼소소로보탁시ー이다. 하나반사람들이자율주행차량을구입할수있게되었을때보다몇년은이미로보택시비즈니스가시행될것으로예상,이는말그대로비즈니스이기때문에사람들만큼주행성능이좋아야성공할수있는소음. 따라서 자율주행은 안전할 뿐만 아니라 남들만큼 민첩함과 재빠름이 중요-아래 예루살람에서 시행된 자율주행 영상을 보면 T자형 도로에서 모빌아이 차량은 비보호자 회전을 시도한다. 그러나, 본인 차가 멈추지 않기 때문에, 모빌 아이 차는 "멈추다"를 반복하면서 조금씩 전진. 결미 틈새를 만들어 직진차가 오기 전에 커브에 진입하고 자절성공-모빌아이는 자율주행차가 이처럼 정세에 맞춰 유연하고 기민한 주행능력까지 갖춰야 살아남을 수 있다. 설명


    ​ ​ ​ ​ 7.REM(Road Experience Management)​-복수의 차량에서 정보를 모으는 크라우드 소싱을 활용하고 고화질의 지도를 발생하는 기술 ​-L2+ADAS가 탑재된 차량이 주행하면서 들어온 이미지 속의 중요한 정보만을 추출해서 클라우드의 서버에 전송 서버에는 인텔 고성능 서버용 CPU의 AI가속 기능을 활용하고 이를 종합하고 고화질의 지도를 발생한 뒤 다시 각 차량에 전송. 1킬로당 약 10킬로바이트에 불과했던 초등 저 대역 폭 데이터 업로드를 통해서 시르테 때로는에 가까운 성능을 실현. 이런 과정은 모두 자동화되고 때 테러단 45마일의 지도를 발생 ​, 최근 16,000회 이상의 주행 데이터를 활용하고 라스 베이거스 나 400km이상의 고화질 지도 발생. 특히 네바다 땅은 도로 지도를 발생하지만 24태 테러도 되지 않기. 이 지도는 만개의 표지판, 만곳의 신호나 가로등 같은 기둥, 1,500km이상의 중앙선을 포함 수천개의 도로 주변 사물에 대해서 센티 미터 수준의 정밀도를 제공 ​-BMW, NISSAN, 폴크스바겐과 이미 2년 전체 부지, 이를 실시, 모빌 아이는 하루에 600만 km의 주행 데이터를 받아 왔다. 향후 분기까지 유럽 전역, 올해의 스토리까지 미국 전역에 대한 도로 지도를 만들 수 있을 것으로 예상 ​-추가로 올해 3개 완성 차 업체와 100만대의 차량이 데이터를 보내기로 계약 체결. 이렇게 2022년까지 총 1,400만대의 차량에서 데이터를 받을 것으로 보이​-중국 영토 또 매핑을 돌리고 칭화 대학의 유니 그룹과 조인트 벤처를 만들어 데이터 수집 중.중국 전기자동차회사 인왕(NIO)은 중국 업체 중 모빌 어린이 자율주행 시스템을 소비자용 차량에 가장 먼저 서탑재한 중소기업이다. 2019년의 스토리 인왕산에서 자율 주행 Lv4설계 수주를 받았으며 2022년 솔루션을 탑재한 차량의 발매 예상 ​


    >


    <출처:Mobileye>​ ​ ​ ​ 8.EyeQ칩 ​(1)개요-모빌 아이의 완전 자율 주행을 위한 비전의 한가운데 컴퓨팅 칩. 카메라 기반 키위지 처리 알고리즘과 ADAS 기능이 이 프로세서상에서 작동 - 두 개의 대 즉 두 개의 칩으로 구성되어 잇우나푸지안아 위에서 설명한 비전 알고리즘들은 모두 하나의 칩만으로 처리된 것( 다른 가게 지앙아은 컴퓨팅 파워가 부족하 망쵸쯔의 사태에 대비한 것으로 추측)​-모두 칩 크기도 90mm스퀘어에서 제온(인텔의 서버용 프로세서)와 같은 수백밀리 이상의 다른 제품보다 아주 작은 사이즈 ​ ​ ​(2)개발의 현황-2017년 12월 TSMC를 통해서 7 나쁘지 않으면서 공정을 도입하고 EyeQ 5제작 완료, 2018년 스토리 정식 유출 ​-현재 챠랴은 단 2개의 EyeQ 5칩으로 2022년에는 6개가 적용된다 것으로 예상.사실상 6개까지는 필요가 오프우나프지앙어 망쵸쯔을 갖추고 위험을 막기 위해서 충분한 컴퓨팅 파워를 탑재 ​-2020년 EyeQ 6샘플의 출시가 예상된다. 2023년에는 챠랴은 단 단 가게 지앙아의 EyeQ 6칩 장착 ​-모빌 아이는 이런 자율 주행 시스템 비용을 10,000~15,000달러 수준에서 2025년까지 5,000달러 이하로 낮출 것이 목표. 그 정도가 최초의 소비자가 지불하기에 합리적인 비용이라는 소견


    >


    <출처:Mobileye>-이날 전반적인 발표를 듣고 느낀 점은 테슬라와 마찬가지로 비전인식 기술이 라이더와 같은 높은 하드웨어를 배제하고 점차 소프트웨어의 한가운데로 단순화되고 있다는 점. 삼성의 갤럭시폰과 달리 구글의 픽셀폰이 자신의 아이폰 앱도 고가의 카메라 모듈을 끼워넣기보다 인공지능을 통해 카메라 성능을 향상시키는 것 역시 마찬가지. 그래서 또 이 제품은 자율주행을 위한 비전기술이 점점 세분화되고 있다는 점. 보행자도 어떤 보행자, 어떻게 움직이는 보행자, 도로 또 미세한 각도에서 고저변이까지 측정하면서 정확도를 더 높이고 운전 중 발생할 수 있는 모든 위험에 대해 스스로 제거한다는 자신감을 보인 것으로 보인다. 이 또한 인공지능 신경망을 주제별로 압축하는 소프트웨어적인 방법으로 해결하여 소프트웨어의 중요성은 계속 커질 것이며, 이러한 다양한 결과를 원활하게 통합하여 정확한 의사결정을 지원하는 기술 또한 중요해진다는 의견


    댓글

Designed by Tistory.