< Previous이희성·이경수 자동차안전학회지:제14권,제3호,2022 Table 2 Hyper-parameters for model training Hidden dimension32 Number of hidden layers2 Batch size64 Initial learning rate0.01 Loss criterionCross-entropy OptimizerAdam 경향이 나타날수록 좋은 성능을 기대할 수 있다. 따라서, 별도의 dropout 등의 정규화 과정은 포함시키지 않았다. 4.2. 모델 학습 결과 Fig. 5는 epoch을 1,300회로 두고 모델을 학습시킨 결 과이다. 학습에 사용된 차선 변경 데이터의 수는 양보 사례 5,464개, 비양보 사례 4,422개이다. 모델 성능의 척도로 train loss와 validation accuracy를 활용하였으며, 각각 0.00067, 99.820%의 최고 값을 갖는다. Test accuracy 는 98.952%이며, 몇몇 대표적인 case에 대한 분석이 5절 에 설명되어 있다. Fig. 5 Training procedure plot 5. 도심 실도로 환경에서의 알고리즘 평가 5.1. 평가 환경 및 방법 개요 Fig. 1의 차량으로 도심 실도로 환경에서 제안한 알고 리즘의 성능을 평가했다. 남부순환로 신림역~낙성대역 구간에서 진행되었으며, 제어는 적용하지 않는다. Manual 로 운전하고, 본 연구에서 제안한 알고리즘을 실시간으로 실행시키면서 차선 변경을 시도한다. 알고리즘의 판단 결과는 0(실패)에서 1(성공) 사이의 확률 값으로 나오며, 주행 과정에서 안전 보장이 가능한 threshold 값을 선정했다. 현재 네크워크는 0.5의 threshold 값을 가지고 training을 진행했지만, softmax 함수의 특성 상 확률 차이를 극대화하기 때문에 애매한 상황에 대한 위험성이 더 커지게 된다. 알고리즘이 적용되었을 때 차선 변경이 가능하다고 판단된 상황이 실제 운전자였다면 조 금 더 시간을 두고 지켜볼 상황이었을 수 있다는 의미이 다. 이는 차선 변경 시 위험한 상황으로 이어지며, 안전을 보장하기 위해 보수적으로 해당 값을 0.7로 설정한 뒤 성 능을 평가해 보았다. 아래는 성공적으로 판단된 상황 중 몇몇 대표적인 사례들에 대한 설명이다. 5.2. 도심 실도로 환경에서의 평가 결과 및 분석 5.2.1. Case1: 일반적인 상황 Fig. 6(a)는 차선 변경을 시도했으나, 측후방 차량과의 거리가 가까워지면서 실패한 사례이다. 그래프의 배경은 각 time step별 가중치를 의미하며, 붉은색일수록 차선 변 경 전 과정에서 가장 높은 가중치를, 투명할수록 가장 낮 은 가중치를 나타낸다. 해당 그래프는 차선 변경 초기에서 후기로 갈수록 점차 높은 가중치를 가지는데, 이는 실제 사람의 판단 과정과 매우 유사하다. 일반적인 경우, 사람 은 방향지시등을 점등하고 차선 변경 의도를 알리기 시작 할 때보다 실제로 차선 변경을 시도하게 되는 시점에 더 많은 주의를 기울이게 된다. 이는 전체 과정의 시간이 길 어지는 경우에 대해 더 효과적으로 작용되는데, 현재 상황 과 관련성이 낮은 초기 상황에 대해 낮은 가중치를 부여함 으로써 새롭게 발생되는 상황에 대한 판단 변화를 빠르게 할 수 있게 된다. 5.2.2. Case2: 판단 결과가 변화하는 상황 Fig. 6(b)는 차선 변경을 성공한 사례이다. 그러나, case 1과 달리 초기 가중치가 높게 설정된 것을 확인할 수 있다. 그 이유는 측전방 및 측후방 차량의 초기 거동, 그리고 그 이후 양상의 변화 때문이라고 고려된다. 초기에 측전방 차 량은 감속을, 측후방 차량은 가속하고 있기 때문에 알고리 즘은 차선 변경이 불가능하다고 판단을 내린다. 이후 측전 방 차량이 가속하면서 차선 변경이 가능할 정도의 공간이 나오지만, 초기의 위험도가 컸기 때문에 알고리즘은 여전 히 불가능하다는 판단 결과를 유지하고 싶어하고, 이에 따 라 scene의 중반부 가중치를 낮춘다. 하지만 이 상황이 지도심 자율주행을 위한 어텐션-장단기 기억 신경망 기반 차선 변경 가능성 판단 알고리즘 개발 자동차안전학회지:제14권,제3호,2022 (a) Case 1 (b) Case 2 (c) Case 3 Fig. 6 Lane change possibility decision result in urban environment (Red line: Ego vehicle / Blue line: Side-rear vehicle / Green line: Side-front vehicle / Background transparency: Weight at each time step; White is minimum and red is maximum)이희성·이경수 자동차안전학회지:제14권,제3호,2022 속되고, 차선 변경 직전의 상황에 가중치를 높게 두면서 차선 변경이 가능하다고 판단 결과를 바꾸게 된다. 5.2.3. Case3: 오인지 및 노이즈가 존재하는 상황 Fig. 6(c)는 차선 변경이 성공한 사례로, 자차량이 우측 으로 차선 변경을 함과 동시에 측후방 차량도 우측으로 차선 변경을 한 상황이다. 20kph 이하의 속력을 갖는 도 심 정체상황으로, 1.6~1.9초 사이에 센서의 오인지로 인 한 이상치가 발생되었는데, 알고리즘이 해당 구간의 가중 치를 낮게 설정했음을 확인할 수 있다. 즉, 이전 맥락과 일치하지 않는 데이터에 대해 모델 스스로 이상치라고 판 단함으로써 해당 데이터로 인해 발생되는 잘못된 판단을 방지한다. 그 결과, 알고리즘의 강건함이 크게 증가되어 노이즈 및 오인지가 섞인 데이터에 대해서도 높은 정확도 를 달성할 수 있다. 6. 결 론 본 연구에서는 기존 RNN 기반 차선 변경 가능성 판단 알고리즘에 디코더 개념을 도입하여 인코더-디코더 간 Attention layer를 추가한 새로운 알고리즘을 제안하였 다. 선행 연구들의 validation accuracy는 약 96%로, 제안 한 모델은 약 3% 이상 향상된 성능을 보여주며, 100번의 차선 변경 과정 중 1번의 실수는 곧 사고로 이어지기 때문 에 매우 의미 있는 결과이다. 핵심 단어는 time-step별 가중치로, 일반적으로 오래 된 정보에 대해 낮은 가중치를 부여하고 차선 변경이 이루 어지는 시기에 높은 가중치를 부여함으로써 긴 시계열 데 이터에 대해서도 높은 성능을 보여준다. 또한, 위험한 상 황에 대해 주의를 더 기울이고, 판단 결과를 바꾸는 것에 대해 신중한 모습을 보인다. 마지막으로, 인지 과정에서 노이즈 또는 오인지를 스스로 필터링함으로써 알고리즘 을 강건하게 만든다. 이를 통해 차선 변경 상황에서 시계 열 데이터의 맥락을 더욱 사람과 유사하게 이해하고 판단 함으로써 도심 정체 상황에 대해서도 성공적으로 차선 변 경 가능성을 판단함을 확인할 수 있었다. 후속 연구에서는 각 state별 가중치도 추가함으로써 주 어진 상황에 대해 time-step마다 어떤 state를 중요하게 볼 것인지 판단하는 과정이 필요할 것으로 생각된다. 후 기 본 논문은 산업통상자원부 자율주행기술개발혁신사업 (20018101, TCar 기반 자율주행 인지예측지능제어 차량 부품시스템 통합평가 기술개발)의 지원을 받아 수행하였 습니다. 참고문헌 (1)한덕웅, 이경성. 2002, “도로교통사고를 유발한 원 인의 설명,” 한국심리학회지: 문화 및 사회문제, Vol. 8, No. 1, pp. 41~59. (2)L. Wan, P.Raksincharoensak, M. Nagai, 2007, “Study on automatic driving system for highway lane change maneuver using driving simulator,” Journal of Mechanical Systems for Transportation and Logistics, Vol.8, No. 1, pp. 84~94. (3)K. Li, X. Wang, Y. Xu, J. Wang, 2016, “Lane changing intention recognition based on speech recognition models,” Transportation Research Part C: Emerging Technologies, Vol. 69, pp. 497~514. (4)Y. Liu, X. Wang, L. Li, S. Cheng, Z. Chen, 2019, “A Novel Lane Change Decision-Making Model of Autonomous Vehicle Based on Support Vector Machine,” IEEE Access, Vol. 7, pp. 26543~26550. (5)D. Seo, H. Chae, K. Yi, 2021, “Human Driving Data based Yield Intention Inference Algorithm for Lane Change of Autonomous Vehicles in Congested Urban Traffic,” Future Active Safety Technology toward Zero Accidents (FAST-zero’21), pp. 1~5. (6)L. Li, W. Zhao, C. Xu, C. Wang, Q. Chen, S. Dai, 2019, “Lane-Change Intention Inference Based on RNN for Autonomous Driving on Highways,” IEEE Transactions on Vehicular Technology, Vol. 70, No. 6, pp. 5499~5510. (7)J. Kim, H. Lee and K. Yi, 2021, “Online Static Probability Map and Odometry Estimation using Automotive LiDAR for Urban Autonomous Driving,” 2021 IEEE International Intelligent Transportation Systems Conference (ITSC), pp. 2674~2681.◎ 논 문 http://dx.doi.org/10.22680/kasa2022.14.3.071 차량 안전 제어를 위한 파티클 필터 기반의 강건한 다중 인체 3차원 자세 추정 박준상 * ·박형욱 ** Particle Filter Based Robust Multi-Human 3D Pose Estimation for Vehicle Safety Control 인체 자세 추정센서 융합합성 곱 신경망운전자 모니터링 시스템 ABSTRACT In autonomous driving cars, 3D pose estimation can be one of the effective methods to enhance safety control for OOP (Out of Position) passengers. There have been many studies on human pose estimation using a camera. Previous methods, however, have limitations in automotive applications. Due to unexplainable failures, CNN methods are unreliable, and other methods perform poorly. This paper proposes robust real-time multi-human 3D pose estimation architecture in vehicle using monocular RGB camera. Using particle filter, our approach integrates CNN 2D/3D pose measurements with available information in vehicle. Computer simulations were performed to confirm the accuracy and robustness of the proposed algorithm. * 현대자동차, 연구원 ** 현대자동차, 책임연구원 E-mail: rune2002@hyundai.com 1. 서 론 지금까지 차량 안전 제어는 주로 법규에서 규제하는 특 정 자세를 기준으로 승객이 차량에서 정면을 향한 자세로 똑바로 앉는 것을 가정하여 연구되었다. 그러나 자율주행 환경에서 승객은 다양한 자세로 승차할 수 있게 되었으며 이러한 OOP(Out Of Position) 승객의 안전을 위해 2D 카 메라, ToF 카메라, 실내 RADAR 등을 이용한 3D 자세 추 정을 활용할 수 있다. 이 중 가장 저렴한 방법은 2D 카메라 를 사용하는 것이지만, 인체 감지, 인체 2D 자세 추정, 인 체 3D 자세 추정과 같은 복잡한 이미지 처리 알고리즘을 사용해야 한다. (1) 전통적인 컴퓨터 비전 기반 인체 감지 방법이 많이 연 구되어 왔지만 최근 가장 일반적으로 사용되는 방법은 합 성곱 신경망(CNN: Convolutional Neural Network)이다. CNN은 인체를 감지할 수 있을 뿐만 아니라 인체의 자세 추정을 가능하게 하는 해부학적 키포인트를 추출할 수 있 다. 각 사람에 대해 1인 자세 추정을 수행하는 하향식 방 법 (2,3) 혹은 단일 탐지에 의해 신체 부위가 추출되고 개별 사람과 연결되는 상향식 방법 (4,5) 으로 구현된다. 또한 많은 연구자들이 사람의 3D 자세 추정 문제를 해 결하려고 시도했다. 그래프 신경망(GNN: Graph Neural Network)과 인체 3D 자세 데이터 증강기법 등이 연구되어 왔으며 괄목할 만한 성취를 거두고 있다. 예시로 Human3.6m 데이터 세트에서 단일 이미지 활용 1인 3D 자세 추정을 수 행하여 약 50~60mm 수준의 평균 관절 위치 오차(MPJPE: Mean Per Joint Position Error)를 달성했다. (6,7) 또한, MuPoTS-3D 데이터 세트에서 다중 인체 3D 자세 추정 을 수행하여 약 70~80% 수준의 3DPCK를 달성했다. (8,9) 자동차안전학회지: 제14권, 제3호, pp. 71∼76, 2022 논문접수일: 2022.5.27, 논문수정일: 2022.7.28, 게재확정일: 2022.8.25박준상·박형욱 자동차안전학회지:제14권,제3호,2022 Fig. 1 Configuration of keypoints (left) and an example of detected keypoints and a generated bounding box including head, shoulders, and neck (right) 차량 안전 제어 활용에 충분해 보일 수 있으나 딥러닝 기반 접근 방식은 설명할 수 없는 실패로 인해 잠재적인 위 험이 따른다. 이러한 고질적인 한계를 극복하기 위해 자율 주행 환경 내 설명 가능한 AI(XAI: Explainable AI)가 연구 되어 왔다. (10,11) 다만, 이러한 접근 방식들은 AI 모델의 설 명가능성(Explainability) 혹은 해석가능성(Interpretability) 을 개선하거나 특정 출력이 어떤 패턴에 의해 활성화되 어 나타났는지에 대한 연구가 대부분으로 기존 룰 베이 스 알고리즘과 다르게 사람은 AI 모델을 완전히 이해하 기 힘들다. 이러한 맥락에서 우리는 AI 모델이 실패하는 상황을 고 려한 차량 내 실시간 다중 인체 3D 자세 추정 알고리즘을 제안한다. 본 연구는 파티클 필터를 사용하여 최대 사후 확 률 추정을 통해 차량에서 사용 가능한 정보와 CNN 2D/3D 인체 자세 측정을 통합한다. 먼저 파티클 필터 알고리즘 수행을 위해 승객 추적 알고리즘을 사용하여 CNN으로 감 지된 승객과 기존 승객을 매칭한다. 그 후, 파티클은 IMU 센서와 같은 동역학 센서 및 인체 동역학 모델을 통해 전 파되며 파티클의 가중치는 사전 정보(예: 불가능한 자세 및 차량 내 제약)와 CNN 측정값을 사용하여 업데이트된 다. 최종적으로 전파된 파티클과 업데이트된 가중치를 통 해 승객의 3D 자세를 추정한다. 논문의 나머지 부분은 다음과 같이 구성된다. 2장에서 는 CNN을 사용한 키포인트 추출 및 승객 추적 알고리즘 을 제시한다. 3장에서는 파티클 필터를 통한 상태 추정 방 법을 제시하고 4장에서는 실험 결과를 제시한다. 5장에서 는 논문을 마무리하고 향후 연구 방향을 제시한다. 2. 키포인트 추출 및 승객 매칭 2.1. 키포인트 추출 본 연구에서는 CNN을 활용하여 승객의 2D 및 3D 키포 인트를 추출한다. 추출된 키포인트는 Fig. 1 왼쪽과 같이 트리 구조이며 개의 간선을 갖는다. 여러 SOTA 모델 중 에서 경량화된 OpenPose (12) 를 기반으로 Occlusion-Robust Pose-Maps (8) 를 구현한 모델 (13) 을 선정했다. 선정 모 델은 MobileNet을 백본으로 경량화되어 실시간 자세 추 정에 용이하며 가림 현상에도 강건하다. 또한, 해당 모델 은 상향식 방법으로 구현되어 Cao et al.이 주장하는 바 와 같이 다수의 승객 검출에도 비슷한 계산시간이 소요 된다. (4) 2.2. 승객 추적 알고리즘 파티클 필터와 같은 순차 상태 추정을 적용하기 위해 CNN이 새로 감지한 승객을 기존 승객에 매칭할 필요가 있다. 우리는 헝가리안 알고리즘을 활용하여 Fig. 2와 같 이 새로 감지한 승객의 경계박스와 기존 승객의 경계박스 간의 IoU(Intersection Over Union) 합을 최대화하는 방 식으로 구현했다. 기존 방식 (14) 과 달리 승객의 경계박스는 Fig. 1 오른쪽과 같이 승객의 관심 키포인트들을 모두 포 함하는 가장 작은 직사각형으로 생성된다. 기존 승객은 예 측된 3D 좌표를 이미지 평면에 정사영한 키포인트를 사용 한다. 새로 감지된 승객이 매칭되지 않으면 새로운 승객으 로 인식하며 기존 승객이 일정 횟수 이상 매칭되지 않으면 사라진 것으로 판단하여 삭제한다. Fig. 2 An example of the passenger tracking algorithm, bounding boxes of detected passengers by CNN (left), those of existing passengers (middle), and a matching solution (right) 3. 파티클 필터 활용 상태 추정 3.1. 시스템 상태 및 파티클 정의 각 파티클은 추정하고자 하는 인체 모델의 매개변수 차량 안전 제어를 위한 파티클 필터 기반의 강건한 다중 인체 3차원 자세 추정 자동차안전학회지:제14권,제3호,2022 와 가중치 로 구성된다. 인체 모델의 매개변수 는 식 (1)과 같이 구성된다. (1) 여기서, 는 루트 키포인트의 카메라 좌표계에 대한 3차원 위치 벡터, 는 신체 길이, , 는 관절 각도이다. 이 때 루트 키포인트는 가장 적게 가려지는 키포인트(목 또는 골반)를 권장하며 본 논 문에서는 목 키포인트를 사용했다. 신체 길이는 각 키포인 트 사이의 거리를 의미한다. 번째 키포인트 3D 좌표 는 식 (2)와 같이 구할 수 있다. ∈ sin cos sin sin cos (2) 여기서, 는 루트 키포인트에서 번째 키포인트까지 의 경로에 포함되는 간선의 집합이다. 반대로 3D 좌표로 부터 , , , 을 구할 수 있다. 3.2. 파티클 초기화 2.2절의 승객 추적 알고리즘에 의해 승객이 새로 감지 되면 하나의 파티클 필터가 생성된다. 초기 CNN 3D 측정 값으로부터 계산된 매개변수와 초기화 노이즈 벡터 의 합으로 개의 파티클이 초기화된다. 이 때 는 평 균이 0인 정규 분포로 모델링되며 매개변수 계산 시 미분 성분들은 모두 0으로 가정한다. 3.3. 파티클 전파 파티클은 식 (3)과 같이 IMU 센서와 같은 차량 동역학 센서를 사용하여 동역학 모델에 의해 전파된다. (3) 여기서, 은 스텝 사전 추정, 은 스 텝 사후 추정, , 는 각각 동역학 센서의 가속도계 및 각 가속도계 측정값, 는 미소 시간, 는 동역학 모델, 는 평균이 0인 정규 분포로 모델링된 스텝 전파 노이즈 벡 터이다. 동역학 모델은 높은 가속도 또는 각가속도의 동적 인 운전 상황에서 승객의 급격한 움직임으로 인해 파티클 필터가 승객을 놓치는 것을 방지한다. 본 논문에서는 식 (4)와 같이 루트 키포인트가 만큼 가속되는 간단한 모델 을 사용했다. ⊗ ⊗ (4) 여기서, ⊗ 는 크로네커 곱, 은 × 단위행렬, 공백 은 영행렬이다. 3.4. 가중치 업데이트 3.4.1. 사전 정보를 통한 가중치 업데이트 파티클의 가중치는 여러 사전 정보를 사용하여 업데이 트될 수 있다. 승객이 신체적으로 불가능한 자세를 취하고 있거나 카메라의 화각 밖 또는 차량 외부에 있는 경우 파 티클의 가중치를 낮출 수 있다. 차량의 시트 착좌 센서를 통해 승객이 시트에 착좌하고 있음을 알 수 있는 경우, 예 상되는 키포인트의 3D 좌표와 비교해 가중치를 업데이트 할 수 있다. 3.4.2. CNN 측정값을 통한 가중치 업데이트 새로 감지된 승객이 2.2 절의 승객 추적 알고리즘에 의 해 기존 승객에 매칭되는 경우 해당 CNN 측정값을 통해 가중치 업데이트가 수행된다. 3.1절에서 언급했듯이 키포 인트의 3D 좌표는 파티클 매개변수 로부터 계산할 수 있 다. 파티클로부터 계산된 3D 좌표와 CNN 3D 측정값을 비교한다. 또한 키포인트를 픽셀 이미지 평면에 대해 투영 한 좌표와 CNN 2D 측정값을 비교한다. CNN 2D 및 3D 측정은 서로 독립인 다변수 정규 분포로 모델링되며 번 째 파티클의 가중치는 식 (5)에 의해 업데이트된다. (5) 여기서, 는 스텝 번째 파티클의 가중치이고 , 는 각각 CNN 2D, 3D 측정값이다.박준상·박형욱 자동차안전학회지:제14권,제3호,2022 Fig. 3 Configuration of RealSense D455 3.5. 최대 사후 확률 추정 현재 상태 벡터가 최대 사후 확률(MAP: Most A Posteriori) 추정이기도 한 칼만 필터와 달리 파티클 필터에는 가중치 가 있는 개의 서로 다른 후보가 있다. MAP 추정은 모든 파티클의 가중 평균을 계산하여 얻는다. 이는 단순히 가장 높은 가중치를 가진 파티클을 선택하는 것보다 더 강건하 기 때문이다. 가중 평균을 계산하기 전에 식 (6)과 같이 모든 가중치의 합이 1이 되도록 정규화해야 한다. (6) 3.6. 파티클 리샘플링 파티클 필터의 퇴화(Degeneracy) 문제를 방지하기 위 해 유효 파티클 수의 추정치 가 작거나 (15) 사전 정보 를 통해 유효하지 않다고 판단된 파티클이 임계값 이상 존재할 때 파티클을 리샘플링한다. 이 때 는 식 (7)에 의해 계산된다. (7) 여기서, 는 식 (6)에 의해 정규화된 가중치이다. 4. 실 험 4.1. 실험 환경 실험은 Fig. 3과 같이 차량 앞유리에 고정된 Intel RealSense D455 깊이 카메라가 장착된 PC에서 수행되었고 깊이 카메 라에 Bosch BMI055 IMU 센서가 내장되어 있다. 제안된 알고리즘은 카메라의 RGB 이미지와 IMU 센서를 활용한 다. CNN과 같은 영상 처리가 필요한 구성 요소들은 100ms 주기로 실행되고 다른 구성 요소들은 20ms 주기로 실행 된다. 4.2. 시나리오 4.2.1. 시나리오 1: FCA 급제동 차량이 전방 충돌 방지 보조(FCA: Forward Collision- avoidance Assist) 시스템에 의해 급제동하는 상황(Fig. 4 참조)을 모사했으며 종방향으로 급속한 승객 거동을 보 인다. Fig. 4 Test Protocol of Scenario 1 4.2.2. 시나리오 2: 더블 레인 체인지 차량이 높은 속도에서 연속으로 차선을 두 번 바꾸는 상황(Fig. 5 참조)을 모사했으며 횡방향으로 급속한 승객 거동을 보인다. Fig. 5 Test Protocol of Scenario 2 4.3. 실험 결과 상해 주요 포인트(머리, 목, 오른쪽 어깨, 왼쪽 어깨)의 카메라 좌표계에 대한 3D 좌표 추정값과 Intel RealSense D455 깊이 카메라 측정값(Ground Truth로 가정)을 비교 하였고 그 결과 중 가장 큰 움직임을 보이는 시나리오 1에 서 동승석 머리 Z 좌표와 시나리오 2에서 동승석 머리 X 좌표 결과를 Fig. 6에 정리하였다. 승객의 급격한 움직임 으로 인해 CNN이 실패한 상황에서도 강건하게 승객의 3D 자세를 추정함을 확인할 수 있다. 정량적인 성능 비교를 위해 깊이 카메라 측정값에 대한 차량 안전 제어를 위한 파티클 필터 기반의 강건한 다중 인체 3차원 자세 추정 자동차안전학회지:제14권,제3호,2022 Fig. 6 Simulation results of 3D pose estimations Table 1 Results on each scenario (A-MPJPE in mm) Test CaseCNNOurs Scenario 1 1274218 2287208 Scenario 2 1233212 2265209 오차를 비교했다. 이 때 우리는 루트 키포인트가 원점인 상대 좌표를 비교하는 MPJPE가 아닌 카메라 좌표계에 대 한 3D 좌표 오차를 활용한 A-MPJPE(Absolute Mean per Joint Position Error) (16) 를 계산했다. Table 1은 각 시 나리오에 대한 제안 알고리즘과 알고리즘을 적용하지 않은 CNN의 결과를 보여준다. 제안 알고리즘은 A-MPJPE가 낮아 가혹한 운전 환경에서 3D 자세 추정 성능을 향상시 킴을 알 수 있다. 5. 결 론 이 연구에서 차량 안전 제어에 활용할 수 있도록 파티 클 필터를 사용하여 차량 내 강건한 실시간 다중 인체 3D 자세 추정 알고리즘을 제안했다. 본 알고리즘은 CNN과 차량 센서를 성공적으로 통합했으며 실험을 통해 CNN이 실패하는 동적인 운전 상황에서도 정확성과 강건함을 보 여줌을 확인했다. 이 논문은 OOP 승객을 위한 자세 감지 및 차량 안전 제어 연구를 위한 좋은 출발점을 제공한다. 참고문헌 (1)X. Ji, Q. Fang, J. Dong, Q. Shuai, W. Jiang and X. Zhou, 2020, “A survey on monocular 3D human pose estimation,” Virtual Reality & Intelligent Hardware, Vol. 2, No. 6, pp. 471~500. (2)K. Sun, B. Xiao, D. Liu and J. Wang, 2019, “Deep High-Resolution Representation Learning for Human Pose Estimation,” IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 5686~ 5696. (3)H. Fang, S. Xie, Y. Tai and C. Lu, 2017, “RMPE: Regional Multi-Person Pose Estimation,” IEEE International Conference on Computer Vision (ICCV), pp. 2334~2343. (4)Z. Cao, T. Simon, S. Wei and Y. Sheikh, 2017, “Realtime Multi-person 2D Pose Estimation Using Part Affinity Fields,” IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 1302~ 1310. (5)M. Kocabas, S. Karagoz, and E. Akbas, 2018, “Multiposenet: Fast multi-person pose estimation using pose residual network,” European Conference on Computer Vision (ECCV), pp. 437~453. (6)L. Zhao, X. Peng, Y. Tian, M. Kapadia and D. N. Metaxas, 2019, “Semantic Graph Convolutional Networks for 3D Human Pose Regression,” IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 3420~3430. (7)K. Gong, J. Zhang and J. Feng, 2021, “PoseAug: A Differentiable Pose Augmentation Framework for 3D Human Pose Estimation,” IEEE Conference on Computer Vision and Pattern Recognition 박준상·박형욱 자동차안전학회지:제14권,제3호,2022 (CVPR), pp. 8571~8580. (8)D. Mehta et al., 2018, “Single-Shot Multi-person 3D Pose Estimation from Monocular RGB,” Inter- national Conference on 3D Vision (3DV), pp. 120~130. (9)J. Lin, G. H. Lee, 2020, “HDNet: Human Depth Estimation for Multi-person Camera-Space Loca- lization,” European Conference on Computer Vision (ECCV), pp. 633~648. (10)J. Kim, S. Moon, A. Rohrbach, T. Darrell and J. Canny, 2020, “Advisable Learning for Self-Driving Vehicles by Internalizing Observation-to-Action Rules,” IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 9661~9670. (11)Y. Xu, X. Yang, L. Gong, H. Lin, T. Wu, Y. Li and N. Vasconcelos, 2020, “Explainable Object-Induced Action Decision for Autonomous Vehicles,” IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 9523~9532. (12)D. Osokin, 2018, “Real-time 2D Multi-Person Pose Estimation on CPU: Lightweight OpenPose,” arXiv:1811.12004. (13)D. Osokin, 2020, Real-time 3D Multi-person Pose Estimation Demo [Source code]. https://github. com/Daniil-Osokin/lightweight-human-pose-e stimation-3d-demo.pytorch. (14)A. Bewley, Z. Ge, L. Ott, F. Ramos and B. Upcroft, 2016, “Simple online and realtime tracking,” IEEE International Conference on Image Processing (ICIP), pp. 3464~3468. (15)M. S. Arulampalam, S. Maskell, N. Gordon and T. Clapp, 2002, “A tutorial on particle filters for online nonlinear/non-Gaussian Bayesian tracking,” IEEE Transactions on Signal Processing, Vol. 50, No. 2, pp. 174~188. (16)M. Veges and A. Lorincz, 2019, “Absolute Human Pose Estimation with Depth Prediction Network,” International Joint Conference on Neural Networks (IJCNN), pp. 1~7.◎ 논 문 http://dx.doi.org/10.22680/kasa2022.14.3.077 자동차 안전기준 시행세칙 체계 정비방안 연구 김규현 * A Study on Improvement Scheme for Korea’s Motor Vehicle Safety Standards Implementation Rules System 안전기준시행령안전기 준 시행세칙구조장치자동차부품 ABSTRACT The Korea’s automobile safety standards consist of standards for automobiles, automated vehicles, two- wheeled vehicles and auto parts, and there are 157 articles. In connection with the safety standards, the implementation rules stipulated for detailed test methods and procedures are composed of the main body, asterisks and annexes, and have a rather complicated structure. In addition, the test items in the asterisk are specified with the same or similar name as the test items in other asterisks. In this study, the structure of these implementation rules is simplified and the same test items are integrated. This is expected to increase the user’s understanding of laws and regulations and efficiency. * 홍익대학교 기계시스템디자인공학과, 교수 E-mail: kncap@hongik.ac.kr 1. 서 론 현재 국내 안전기준은 「자동차관리법」제29조와 「자 동차관리법 시행령」 제8조 제1항(자동차의 구조) 및 제2 항(자동차의 장치)에 근거를 두고 있으며, (1,2) 자동차, 자 율주행자동차 및 이륜자동차에 대한 구조, 장치 및 성능분 야와 자동차부품에 대한 부품안전기준으로 구분하여 약 157개 조문으로 구성되어 있다. (3) 국내의 안전기준의 체계는 기본적으로 일본의 “도로운 송차량의 보안기준” (4) 의 틀 속에서 출발함에 따라 제작자 동차의 안전기준에 운행자동차의 안전기준 즉, 운행자동 차의 안전성을 확보하기 위한 검사기준의 요소가 포함된 기준으로 시행되고 있어 미국의 FMVSS(Federal Motor Vehicle Safety Standards) (5) 와 유럽의 UN/ECE 규정 (Regulation) (6) 과 같이 신규로 제작되는 자동차에 적용되 는 안전기준으로 정비하는 것이 필요하다. 자동차 안전 법규 이해도 제고 및 효율적 안전기준 관 리를 위하여 「자동차 및 자동차부품의 성능과 기준에 관 한 규칙」 (3) 에서 제2장(운행차 기준)과 제3장(제작차 기 준)의 항목이 동일 또는 유사한 항목은 통합하고 자동차 구조 및 장치별로 안전기준 및 관련 별표의 번호 부여를 체계화하여 149개 조문으로 정비한 자동차 안전기준 체 계 정비방안 (7) 이 제시되었다. 「자동차 및 자동차부품의 성능과 기준에 관한 규칙」 제 116조에 따라 위임된 사항과 그 시행에 관하여 안전기준 에서 정하는 기준의 시행에 필요한 세부기준 및 시험방법 등을 정함을 목적으로 하는 「자동차 및 자동차부품의 성 능과 기준 시행세칙」 (8) 이 1993년 안전기준과 함께 제정 되었다. 시행세칙의 적용범위로서 「자동차 또는 자동차부품의 안전기준 확인에 필요한 세부기준 및 시험방법 등」(이하 “시행세칙”이라 한다)은 “「자동차관리법」, 같은 법 시행 자동차안전학회지: 제14권, 제3호, pp. 77∼82, 2022 논문접수일: 2022.7.26, 논문수정일: 2022.8.30, 게재확정일: 2022.9.7Next >