< Previous백서하·김종호·이경수 자동차안전학회지:제14권,제2호,2022 Fig. 3 Results of traffic light recognition 최종적으로 정한 기준값은 65로 하였다. 따라서 기준값보 다 높은 값을 가지는 픽셀 데이터에 대해선 직진 가능한 값인 1을 출력하게 하였고, 기준값보다 낮은 값을 가지는 픽셀 데이터에 대해선 직진 불가능의 의미를 가진 0값을 출력하게 하였다. 이 과정을 통해, 주어진 상황에서 전방 교차로 신호기 의 색이 직진 가능한지 아닌지에 대해 프로세싱하는 알고 리즘을 개발한다. 해당 알고리즘은 실제 차량에 적용 가능한 부분이어야 하기 때문에 연산가능한 여부에 대한 확인을 위해 해당 알고리즘의 최적화가 수반되었다. 3.3. V2X 기반 전방 교차로 신호 값 수신 전방 교차로 신호 값에 대한 정확한 측정은 바로 신호 등과 차량이 직접 통신하는 V2X롤 통해 이뤄진다. 각 신 호등은 부착된 V2X 단말기를 통해 차량에 있는 OBU와 통신한다. 통신 데이터 규약은 Table 3과 같다. Table 3 V2X data 신호 색직진좌회전 적33 녹55 노77 이러한 통신은 교차로 4개의 신호등에서 모두 나오는 값을 수신하게 되므로, 받은 데이터 중 목표하는 전방 교 차로의 신호가 어떤 것인지에 분류하는 과정이 필요하다. 이를 위해 V2X 단말기와 통신하는 데이터에서 시험환 경의region ID에 해당하는 데이터만을 추출한다. 이후, 전 방 교차로 신호에 해당하는 부분을 분류한 후, 그 부분에 서 신호등 색에 해당하는 데이터만을 최종적으로 추출한 다. 그 데이터가 직진에 해당하는 3인 경우 직진 불가능의 의미를 가진 0으로 출력하였고, 그 데이터가 직진에 해당 하는 5인 경우 직진 가능의 의미를 가진 1로 출력하였다. V2X데이터를 가공한 이 값은 신호 색 인식 알고리즘 결과 값의 ground truth 값으로써 적용된다. 4. 신호기 색 인식 시뮬레이션 결과 본 연구에서 제안한 학습된 데이터를 이용한 교차로 신 호등 색 인식 알고리즘을 위해 서울대학교 미래 모빌리티 딥러닝 데이터 활용한 신호등 색 인식 알고리즘 개발 자동차안전학회지:제14권,제2호,2022 Fig. 4 Calculation time of the algorithm 기술 센터(FMTC)에 위치해 있는 트랙에서 자율주행 실 차 주행을 진행하여 카메라와 V2X 데이터를 취득하였다. 이후 취득 데이터 기반 오프라인 시뮬레이션을 진행하였 다. 전방 교차로 신호기의 색 인식이 정확이 진행되는지를 확인하기 위해 V2X 데이터 와 비교하여 검증하였고, 3.2 에서 언급했듯이 실차 수준 성능 확보를 위해 알고리즘의 연산 시간을 확인함으로써 실시간 연산 가능 여부를 검증 하였다. 4.1. 전방 교차로 신호기 색 인식 결과 카메라를 통해 자차량의 교통방향에 해당하는 신호등 색 인식 결과는 Fig. 3에 나타내었다. 전방 신호기가 녹색 불로 바뀐 것은 V2X 데이터를 통해 확인되며, 신호 색이 바뀐 후 2cycle 정도 후에 전방 신호기의 녹색불을 인식하 는 것이 확인된다. 또한 해당 알고리즘이 전방의 녹색 신 호를 지속적으로 인식하는 결과가 나타남을 알 수 있다. 4가지의 경우 모두 초반과 마지막에 인식 결과가 진동하 는 것을 볼 수 있는데, 이는 초반의 경우, 전방의 교통신호 기가 자차량에 비해 멀리 있어서 각 픽셀값의 G값이 작게 측정되어서 3.2에서 설정한 기준값을 넘기지 못하기 때문 으로 추정된다. 그리고 후반의 경우는 시간이 지나 처음의 녹색불이 적색불로 바뀌었을때, 차량이 신호기에 근접해 있으므로 적색불에서 나오는 G 값 또한 큰 값을 가지게 되어, 그 결과 기준값을 넘김으로써 청색불로 오인식하게 되기 때문으로 추정된다. 이렇게 초반과 마지막의 경우의 결과값이 진동하는 것 이외의 경우에는, 전체적으로 전방 신호기의 색 인식율이 높음을 확인할 수 있다. 4.2. 신호 인식 알고리즘 연산 시간 결과 시뮬레이션 결과에서 측정된 연산시간은 Fig. 4에 나타 내었다. 각 시뮬레이션에서의 연산시간을 평균한 결과는 1.37ms 정도로 구해진다. 기존의 자율주행 차량의 인식 알고리즘은 40ms정도로 계산되므로, 제안된 교통신호기 인식 알고리즘의 연산 시간은 전체 인지 알고리즘의 시간 증가량을 최소화하는 크기임을 알 수 있다. 따라서, 해당 알고리즘은 실제 자율주행 차량에서 가동하기 충분한 시 스템으로 여겨진다. 5. 결 론 본 연구에서는 전방 교차로 신호기 색 인식 알고리즘을 다루었다. 비전을 통해 현재 교통 흐름을 알려주는 신호 등 정보를 전달받아 주어진 신호기의 색을 인식하였으며, 인식한 정보를 검증하기 위해 V2X 데이터를 신호기 색 참값으로 설정하여 시뮬레이션을 진행하였다. 실험 결과 주어진 교통 신호기 색 인식에 대한 높은 정 확도를 확인하였으며, 자율주행 실차로의 적용 가능성 또 한 확인하였다. 이러한 전방 목표 신호기 추출 방법에서 나아가, 자차 량 양 옆의 차선정보를 이용한 목표 신호기 추출 방법 및 신호 값 분류 기준 상세화를 통해 해당 알고리즘의 고도화 를 추후 진행할 계획이다. 백서하·김종호·이경수 자동차안전학회지:제14권,제2호,2022 후 기 본 연구는 국토교통부 도심도로 자율협력주행 안전·인프 라 연구사업의 연구비지원(과제번호 19PQOW-B152473- 01)에 의해 수행되었습니다. 참고문헌 (1)Banks, Victoria A., Katherine L. Plant, and Neville A. Stanton, “Driver error or designer error: Using the Perceptual Cycle Model to explore the cir- cumstances surrounding the fatal Tesla crash on 7th May 2016”, Safety science 108 (2018): 278~ 285. (2)Lee, Hojoon, et al., “Moving Object Detection and Tracking Based on Interaction of Static Obstacle Map and Geometric Model-Free Approach for Urban Autonomous Driving”, IEEE Transactions on Intelligent Transportation Systems (2020). (3)Song, Huansheng, et al., “Vision-based vehicle detection and counting system using deep learning in highway scenes”, European Transport Research Review 11.1 (2019): 1~16. (4)Deng, Ruoqi, Boya Di, and Lingyang Song, “Coopera- tive collision avoidance for overtaking maneuvers in cellular V2X-based autonomous driving”, IEEE Transactions on Vehicular Technology 68.5 (2019): 4434~4446. (5)Sun, Liting, et al., “Behavior planning of autonomous cars with social perception”, 2019 IEEE Intelligent Vehicles Symposium (IV) , IEEE, 2019. (6)Hobert, Laurens, et al., “Enhancements of V2X communication in support of cooperative autonomous driving”, IEEE communications magazine 53.12 (2015): 64~70. (7)Redmon, Joseph, et al., “You only look once: Unified, real-time object detection”, Proceedings of the IEEE conference on computer vision and pattern recognition , 2016. ◎ 논 문 http://dx.doi.org/10.22680/kasa2022.14.2.051 자율주행을 위한 라이다 기반의 실시간 그라운드 세그멘테이션 알고리즘 이아영 * ·이경수 **,† LiDAR based Real-time Ground Segmentation Algorithm for Autonomous Driving † 자율주행라이다 처리점군집 데이터 랜덤 표본 합의실시간 처리로봇 운영 체제땅 분류 ABSTRACT This paper presents an Ground Segmentation algorithm to eliminate unnecessary Lidar Point Cloud Data (PCD) in an autonomous driving system. We consider Random Sample Consensus (Ransac) Algorithm to process lidar ground data. Ransac designates inlier and outlier to erase ground point cloud and classified PCD into two parts. Test results show removal of PCD from ground area by distinguishing inlier and outlier. The paper validates ground rejection algorithm in real time calculating the number of objects recognized by ground data compared to lidar raw data and ground segmented data based on the z-axis. Ground Segmentation is simulated by Robot Operating System (ROS) and an analysis of autonomous driving data is constructed by Matlab. The proposed algorithm can enhance performance of autonomous driving as misrecognizing circumstances are reduced. * 서울대학교 기계공학부, 학생 ** 서울대학교 기계공학부, 교수 † 교신저자: kyi@snu.ac.kr E-mail: ayoung1002@snu.ac.kr 1. 서 론 자율 주행 자동차에 대한 연구는 최근 몇 년 동안 크게 주목받아 왔고, 이에 따라 완전 자율 주행과 자율 주행 차 량의 상용화를 목표로 하여 연구되어지고 있다. 일반적으 로 자율 주행 시스템은 인지, 판단, 제어 단으로 이루어져 있다. 차량에 탑재된 센서로 주행 환경을 인지하고, 자율 주행 차량이 현재 상황에 맞추어 어떤 거동을 취해야 하는 지를 판단하게 된다. 판단된 결과에 따라 차량이 취해야 하는 조향각과 가속도 등의 정보들이 출력되어 제어단의 입력으로 전달되면서 차량 움직임이 조절된다. 자율 주행 시스템에서 인지단은 가장 먼저 선행되어야 하며 판단, 제어 단의 출력에 큰 영향을 미치게 된다. 인지 된 정보에 따라서 차량의 거동이 행해지기 때문에, 실제 자율 주행 자동차의 상용화 과정을 위해서는 실시간성이 보장된 주변 환경에 대한 정확한 인지 결과가 필수적으로 요구된다. 미인지와 오인지 등 인지 결과에서의 오류는 적 합하지 않은 거동 계획으로 이어질 수 있고 큰 사고의 위 험이 있다. (1) 일반적으로 자율 주행 자동차에 사용되는 인지 센서는 라이다, 레이더, 카메라가 있으며, 각 센서로부터 주변 환 경 인지를 위한 기술들과 여러 센서 퓨전을 이용한 인지 자동차안전학회지: 제14권, 제2호, pp. 51∼56, 2022 논문접수일: 2021.5.25, 논문수정일: 2021.11.10, 게재확정일: 2022.3.18이아영·이경수 자동차안전학회지:제14권,제2호,2022 기술들에 대한 연구가 이루어지고 있다. (2) 라이다는 사용 하는 센서 사양에 따라 일반적으로 80~200m의 탐지거리 를 지니며 빛의 속도를 이용하여 주변 환경을 탐지해내는 센서이다. 외부 환경에 대한 정확한 위치정보를 제공하며 제공된 점군집 데이터들을 이용하여 주변 물체들의 형상을 시각화할 수 있다. (3) 레이더의 경우 라이다보다 긴 거리에 대해 물체인식이 가능하고 특히 물체의 속도 측정, 분해각 측면에서 높은 정확도를 지니지만, 주변 환경에 대한 탐지 율은 라이다의 비해 낮다. 카메라의 경우 이미지를 이용해 주변 환경 인지가 가능하지만, 2차원 이미지 형태로 이루어 져 이미지 내 물체 깊이 추정이 이루어져야 한다. 이러한 레이더, 카메라의 3차원 위치 정보 부정확성에 의하여, 자 차량의 이동 경로 판단과 종방향 및 횡방향 속도 제어를 위 해 상대 차량들의 정확한 위치가 요구되는 자율 주행 환경 에서는 라이다 센서를 기반으로 많은 연구들이 진행되고 있다. (4) 따라서 해당 연구에서는 라이다 센서만을 이용하여 환 경 인지를 수행하고 땅 인지구역을 제거하는 알고리즘을 제안하였다. 라이다는 360도 회전하며 빛을 쏘는 형태로 작동하므로 라이다 주변에 위치한 여러 개체들의 형상과 땅을 포함하는 3차원 점군집 데이터 형태를 이룬다. 따라 서 자율 주행 자동차에서 라이다 센서를 이용한 환경 인지 를 위해서는 지면점과 비지면점을 추출해내는 과정이 필 수적이다. 일정 높이 기준으로 라이다 센서의 점들을 제거 할 경우에는 지면의 높이가 변화할 때 땅을 하나의 물체로 인지하게 되므로, 본 연구에서는 도로의 경사도가 존재하 거나 자율 주행 차량에서 차량의 흔들림이 발생할 경우에 생성되는 지면 데이터를 제거하는 알고리즘을 기술한다. 2. 자율 주행 실험 차량 환경 구성 2.1. 자율 주행 실험 차량 센서 구성 본 연구에서 활용된 자율 주행 실험 차량은 Hyundai사 의 IONIQ 전기차이며, 차량 전방과 각 면에 여러 인지 센 서를 부착하여 실험 데이터를 확보하였다. 차량 전면에 부 착된 Ibeo사의 LUX 4L제품과 차량 각 4면에 부착된 Velodyne사의 VLP-16제품을 포함한 라이더 센서와 레 이더 센서, 카메라 센서가 부착되어 있다. 차량에 부착된 전체 인지 센서 구성도는 Fig. 1에 나타내었다. 실제 실험 에서 사용한 데이터는 앞서 언급한 Ibeo, Velodyne사의 라이다 센서로, 세부적인 센서 사양 정보는 Table 1에 나 타내었다. 전면과 각 4면의 라이다를 통하여 음영 구역을 제거함으로써 자율 주행 실험 차량 주변의 효율적인 환경 인지를 가능하게 하였다. Table 1 Sensor specifications for the test vehicle Sensor ModelSpecifications LiDAR Velodyne PUCK - 16 channels - Measurement range: 100m - Range accuracy: +/-3cm - Field of view Vertical: - 15° to +15° Horizontal: 360° - Rotation rate: 5Hz – 20Hz Ibeo LUX LiDAR - 4 scanning layers - Horizontal field of view: 2 layers: 110° (50° to -60°) 4 layers: 85° (35° to –50°) - Vertical field of view: 3.2° - Data rate: 12.5~50.0 Hz - Accuracy: 10cm Fig. 1 Sensor configuration for the test vehicle (FOV) 2.2. 자율 주행 실험 데이터 취득 환경 본 연구에서 제시하는 알고리즘에 대한 검증을 위하여 서울대학교 내 주행 데이터를 확보하였다. 서울대학교는 관악산을 끼고 있어 경사도가 크거나 낮은 구간이 많다. 서울대학교에서 해발고도가 가장 낮은 구간은 56.5m, 가 장 높은 구간은 189.3m로 캠퍼스 내에서 132.8m의 해발 고도 차이가 존재한다. 또한 오르막길과 과속방지턱이 다 수 존재하여 해당 알고리즘 실험 및 검증하기에 적합한 지형을 지닌다. 지면과 비지면의 점군집 데이터 세그멘테 이션을 목표로 하여, 잦은 경사구간을 지닌 서울대학교 캠 퍼스를 실험 지역으로 선정하였다. 3. 지면 분리 알고리즘 주행 환경을 살펴보기 위하여 자율 주행 차량 주변 개 체들에 대한 분류가 필요하고, 이를 위한 지면 데이터 제자율주행을 위한 라이다 기반의 실시간 그라운드 세그멘테이션 알고리즘 자동차안전학회지:제14권,제2호,2022 거는 필수적이다. 지면 데이터 제거로 주변 개체 구분이 쉬워지고, 불필요한 영역을 제거하여 계산량을 감소시킬 수 있다. Region Of Interest(ROI)의 개념을 이용한 방법 으로 z축의 값을 이용하여 지면점과 비지면접을 구분해내 는 방법이 있다. 지표면에서부터 떨어진 거리를 z축 방향 기준으로 측정하고 제거하는 방법인데, 이 방법으로는 평 면상에서는 가능하지만, 실제로 일반 주행을 할 때에는 도 로의 경사도, 도로 포장 상태, 과 속방지턱 등 여러 시나리 오들이 존재하여 지면 데이터 제거가 온전하게 수행되지 않는다. 따라서 Random Sample Consensus(Ransac) 알 고리즘을 이용하여 작은 경사를 지닌 도로에 대해서도 강 건하고, 실시간성도 보장될 수 있도록 하였다. 3.1. Ransac의 평면모델을 이용한 점군 추출 Ransac 알고리즘은 점군집 데이터 내에 특정 모델이 존재한다는 가정으로 해당 모델의 파라미터를 추정하여 최적의 피팅 모델을 추출해내는 알고리즘이다. 점군집 데 이터 안에서 무작위로 샘플 데이터를 뽑아 모델을 포함하 는 모델 파라미터를 구하는 과정을 반복적으로 수행한다. 해당 데이터 내에서 모델의 모형에 맞추어 수행한 결과에 대해 가장 적합하다고 판단되는 점들을 반환한다. 반환된 점들의 개수가 많을 경우 모델에 대해 올바른 추정이 이루 어진 것으로 분류된다. 반환된 데이터에 대한 정확도는 초 기 설정한 기본 모델에 대한 오차를 바탕으로 추정된다. (5) 본 연구에서는 평면 모델을 이용하여 각 시간에 따른 점군집 데이터가 평면모델에 속하는지 아닌지를 구별해 내어 그라운드 세그멘테이션을 진행하였다. 점군집 데이 터는 주어진 모델의 분포에 적합한 인라이어와 모델 데이 터의 분포에서 벗어난 관측값인 아웃라이어로 나뉘어지 고, 해당 연구에서는 평면 모델에 해당하는 데이터들을 인 라이어로 삼아 제거하였다. 제안된 알고리즘은 모델 파라 미터에 대해 강건하여 아웃라이어가 많이 포함되어 있어 도 정확도가 높은 장점이 있다. 3.2. 점군 간 거리 기반 클러스터링 KD Tree는 k차원 공간 점들을 구조화하는 공간 분할 자료구조이다. 다차원 공간에 대하여 점들을 탐색, 분할 작업을 수행할 때 용이하다. 본 연구에서도 지면와 비지면을 분리하는 세그멘테이 션 알고리즘을 적용시킨 결과에 대하여 KD Tree를 생성 하고 유클리디안 거리를 이용하여 클러스터링 작업을 수 행하였다. 점군집 데이터에서 각 물체에 대한 점군집 데이 터는 해당 객체에 대하여 모여있기 때문에 거리차이가 크 지 않음을 활용하여 데이터 간의 거리를 계산하여 특정 거리 이하일 경우 동일 군집으로 간주한다. 인접 데이터 간 거리 차이를 구하기 위한 식은 (1)과 같다. (1) 4. 알고리즘 구현 및 성능 평가 2.2장에서 기술한 형태의 실도로환경에서 Rosbag형식 으로 이루어진 주행 데이터를 취득하였다. 취득한 데이터 는 오프라인 시뮬레이션을 통해 본 연구의 알고리즘 성능 분석에 사용되었다. Ransac알고리즘에 기반한 그라운드 세그멘테이션 알고 리즘과 KD Tree를 이용한 클러스터링 알고리즘은 Linux 의 ROS환경에서 구현되었고, C++를 사용해서 작성하였 다. 알고리즘에 대한 성능 평가를 위해서는 Matlab을 이용 하였으며, 그래프 작성 및 데이터 분석을도출하였다. Fig. 2 Actual autonomous driving test environment Fig. 2는 경사도의 변화를 잘 나타낼 수 있는 상황을 보이기 위해 서울대학교 캠퍼스 내의 과속방지턱을 넘은 직후 주행 상황을 나타낸 것이다. 해당 과속방지턱은 약 3.5m의 폭과 5cm의 높이를 지닌다. Fig. 2의 주행 상황에 서 나타나는 라이다 점군집 데이터에 대해 z축 기준으로 지면 데이터를 분리하는 방법과 본 논문에 제시된 방법을 적용하여 Fig. 3에서 라이다 점군집 데이터 시각화를 통해 비교하였다. Fig. 3(a)의 라이다 데이터에서 z축 기준으로 지면분리를 수행한 방법에서는 Fig. 3(b)와 같이 전방의 경사도에 의해 부분적으로 지면이 추출되는 것을 볼 수 있었고, 평면 모델을 적용하였을 때는 Fig. 3(c)와 같이 이아영·이경수 자동차안전학회지:제14권,제2호,2022 (a) LiDAR raw data(b) Ground Segmentation with z-axis(c) Ground Segmentation with plane model Fig. 3 Ground Segmentation Results for LiDAR PCD (a) Experimental Result in BEV (2D)(b) Experimental Result in 3D Fig. 4 Real time comparison for Ground Segmentation of LiDAR PCD Table 2 Statistical characteristics of algorithm execution time MeanStandard Deviation Plane Model1.91470.6683 Fig. 5 Algorithm execution time 지면의 라이다 점군집 데이터가 온전히 제거되고 주변 상 황에 대한 물체들만을 출력해내는 것을 확인할 수 있었다. Fig. 4~5은 라이다 데이터에서 실시간으로 지면 세그 멘테이션을 수행함을 보여주는 결과이다. Fig. 4에서의 붉 은색 점들은 라이다 센서에서 들어온 결과를 나타내 고, 흰 점들은 알고리즘을 적용한 결과를 나타낸다. Fig. 4(a) 는 두 데이터를 버드아이뷰(Bird Eye View, B EV)에서 2D형태로 나타낸 것이고, Fig. 4(b)는 두 데이터를 3D 형 태로 나타낸 것이다. Fig. 4(b)에서 z=0의 값 부근의 지면 부분을 살펴보면 센서에서 전달받은 데이터로만 이루어 져 있음을 확인할 수 있다. Fig. 4를 통하여 두 결과를 하 나의 화면에서 시각화시킴으로써 실시간성을 육안으로 확인할 수 있고, Fig. 6에서 실시간성 확보를 위하여 제안 된 알고리즘의 소요 시간을 나타내었다. Table 2에서 볼 수 있듯이 0.6643의 표준편차를 가지며 평균 1.9147초의 수행 시간이 소요되었다. 본 논문에서 제안된 알고리즘의 성능 분석을 위하여 제자율주행을 위한 라이다 기반의 실시간 그라운드 세그멘테이션 알고리즘 자동차안전학회지:제14권,제2호,2022 Fig. 6 Number of segmented LiDAR PCD Fig. 7 Number of clusters with segmented LiDAR PCD in front area Table 3 Reduced number of valid LiDAR PCD MeanStandard Deviation Original7288.011521.20 Plane Model4326.541175.93 Table 4 Reduced number of valid LiDAR clusters MeanStandard Deviation Original4.73144.3783 Plane Model1.70972.4837 거되는 지면 점군집 데이터의 개수를 분석하고, 지면 데이 터가 주행에 미치는 영향을 조사하기 위하여 지면 데이터 가 클러스터링되어 하나의 개체로 잡히는 경우를분석하 였다. 실험 데이터는 총 7840번의 스텝으로 이루어져 있 으며 총 200초간의 자율 주행 데이터를 누적킨 결과이다. Fig. 6은 전체 라이다 점군집 데이터의 개수에 대한 그 래프이다. 지면 세그멘테이션 알고리즘 적용 전후에 대한 데이터 비교 결과 Table 3에서 볼 수 있듯 약 2961.47개 의 점군집 데이터들이 감소하였다. 라이다 데이터 전처리 를 통하여 이후 데이터 연산량이 감소되어 실시간 처리에 도움이 됨을 알 수 있다. Fig. 7은 차량 전방에 ROI를 설정하여 지면의 점군집 데이터에 대한 클러스터링을 진행한 결과이다. 실험 결과 는 Table 4와 같다. 일반적으로 차량 전방의 지면 데이터 가 약 4.7314개의 클러스터들로 판단되었는데, 알고리즘 적용 결과 1.7097개로 감소하면서 차량 주행에 있어서 지 면 데이터의 영향이 줄어드는 것을 볼 수 있었다. Fig. 3(a) 와 (b)의 경우에서도 지면 데이터가 차량 전방에 존재함 으로써 하나의 물체로 클러스터링될 수 있다. Fig. 7과 Table 4을 통하여 라이다 센서에서 받은 데이터와 z축 기 준 지면 세그멘테이션을 진행했을 때와 비교하여 다수의 클러스터링 개체들을 감소시키는 것을 확인할 수 있다. 클 러스터 개선 결과가 음수가 나오는 경우는 점 간 거리 기 반으로 데이터 클러스터링을 할 때에 대한 오차라고 보여 진다. 5. 결 론 본 연구에서는 차량 전방에서 지면과 센서의 각도 차이 가 생길 때 나타나는 라이다 지면 점군집 데이터를 제거하 여 인지 성능을 높일 수 있는 알고리즘을 제시하였다. 라 이다 데이터에 스캐닝 모형으로 평면 모델을 설정하여 평 면으로 예측되는 점군집 데이터들을 제거하였고, 실제 지 면 데이터가 제거되면서 제안한 알고리즘이 우수한 필터 링 성능을 지님을 확인하였다. 이에 대하여 경사 구간이 많은 서울대학교 캠퍼스 내에서 자율 주행 실험을 진행하 여 실시간성을 확보하고 클러스터링을 통해 성능을 분석 하였다. 그라운드 세그멘테이션 수행 결과를 라이다에서 지면 추출을 수행하지 않은 원본 데이터를 대조군으로 하여 감 소된 점군집 데이터의 개수와 차량 전방에 ROI를 설정해 지면으로 예측되는 점군들로부터 생성된 클러스터의 갯 수를 분석하였을 때 실제로 데이터들이 제거되어 기존의 지면 데이터가 하나의 물체로 오인지되는 오르막길, 내리 막길 상황에서 지면 데이터가 확인되지 않았고, 지면 데이 터를 물체로 인지하지 않아 자율 주행 차량이 급감속하는 문제가 해결됨으로써 차량 인지 성능이 개선되었다. 또한 제안된 알고리즘이 수행되는데 걸리는 시간은 약 이아영·이경수 자동차안전학회지:제14권,제2호,2022 1.91ms으로, 전체 자율 주행 차량 알고리즘의 소요시간 (150ms)과 인지 알고리즘 소요시간(60ms)에 비추어 보 았을 때 굉장히 짧은 시간에 해당한다. 알고리즘 소요 시 간과 시각화시킨 결과를 통하여 실시간성을 확보하였고, 해당 알고리즘을 적용하고 자율 주행 시뮬레이션을 수행 했을 때 미인지, 오인지에 대한 문제를 현저히 감소시키며 기존보다 우수한 성능을 보임을 확인하였다. 본 알고리즘 에서 지면 데이터 분리 시 전체 데이터 에 댄일 모델만 적 용이 가능하므로, 자율 주행 차량의 인지 범위 내 경사가 반복적으로 존재하거나 심해지는 영역에 대한 알고리즘 은 향후 추가 개발되어야 할 것으로 판단된다. 후 기 본 연구는 국토교통부 및 국토교통과학기술 진흥원의 2018년 교통물류연구사업(18TLRP-B146733-01, 자율 주행기반 대중교통시스템 실증 연구)의 지원을 받아 연구 되었음을 밝히며, 이에 감사드립니다. 참고문헌 (1)Banks, Victoria A., Katherine L. Plant, and Neville A. Stanton, “Driver error or designer error: Using the Perceptual Cycle Model to explore the cir- cumstances surrounding the fatal Tesla crash on 7th May 2016”, Safety science 108 (2018): 278~ 285. (2)AutoNet2030, 2014, Co-operative Systems in Support of Networked Automated Driving by 2030. (3)Wolcott, Ryan W., and Ryan M. Eustice, “Visual localization within lidar maps for automated urban driving”, 2014 IEEE/RSJ International Conference on Intelligent Robots and Systems, IEEE, 2014. (4)Li, You, and Javier Ibanez-Guzman, “Lidar for autonomous driving: The principles, challenges, and trends for automotive lidar and perception systems”, IEEE Signal Processing Magazine 37.4 (2020): 50~61. (5)Martin A. Fischler and Robert C. Bolles, 1981, Random Sample Consensus: A Paradigm for Model Fitting with Application to Image Analysis and Automated Cartography. ◎ 논 문 http://dx.doi.org/10.22680/kasa2022.14.2.057 듀얼카메라를 활용한 ACC 안전성 평가 방법에 관한 연구 김봉주 * ·이선봉 **,† A Study on the ACC Safety Evaluation Method Using Dual Cameras † 적응순항제어시험시험시나리오 실차시험듀얼카메라 ABSTRACT Recently, as interest in self-driving cars has increased worldwide, research and development on the Advanced Driver Assist System is actively underway. Among them, the purpose of Adaptive Cruise Control (ACC) is to minimize the driver’s driving fatigue through the control of the vehicle’s longitudinal speed and relative distance. In this study, for the research of the ACC test in the real environment, the real-road test was conducted based on domestic-road test scenario proposed in preceding study, considering ISO 15622 test method. In this case, the distance measurement method using the dual camera was verified by comparing and analyzing the result of using the dual camera and the result of using the measurement equipment. As a result of the comparison, two results could be derived. First, the relative distance after stabilizing the ACC was compared. As a result of the comparison, it was found that the minimum error rate was 0.251% in the first test of scenario 8 and the maximum error rate was 4.202% in the third test of scenario 9. Second, the result of the same time was compared. As a result of the comparison, it was found that the minimum error rate was 0.000% in the second test of scenario 10 and the maximum error rate was 9.945% in the second test of scenario 1. However, the average error rate for all scenarios was within 3%. It was determined that the representative cause of the maximum error occurred in the dual camera installed in the test vehicle. There were problems such as shaking caused by road surface vibration and air resistance during driving, changes in ambient brightness, and the process of focusing the video. Accordingly, it was determined that the result of calculating the distance to the preceding vehicle in the image where the problem occurred was incorrect. In the development stage of ADAS such as ACC, it is judged that only dual cameras can reduce the cost burden according to the above derivation of test results. * 계명대학교 기계공학과, 박사과정 ** 계명대학교 자동차시스템공학과, 교수 † 교신저자: seonbong@kmu.ac.kr E-mail: 1952kbj@naver.com 1. 서 론 최근 세계적으로 자율주행자동차에 대한 관심이 높아 지면서, 자율주행의 핵심 기능으로 종방향 제어 시스템과 횡방향 제어 시스템에 대한 연구가 진행 중이다. 상용차에 적용되어 있는 자율주행 기능은 ADAS(Advanced Driver Assist System)로 불리며, 이에 대한 연구도 활발히 진행되 고 있다. 종방향 제어 시스템의 예는 ACC(Adaptive Cruise Control), AEB(Autonomous Emergency Braking control) 등이 있으며, 횡방향 제어 시스템의 예는 LKAS(Lane 자동차안전학회지: 제14권, 제2호, pp. 57∼69, 2022 논문접수일: 2021.10.26, 논문수정일: 2022.3.21, 게재확정일: 2022.4.5Next >