분류 전체보기

Dataset/K-Radar

K-Radar RTNH code run

배치 사이즈 2 기준 {'meta': [ { 'header': '/home/song/Desktop/workshop/K-Radar_data', 'seq': '1', 'label_v1_0': '/home/song/Desktop/workshop/K-Radar_data/1/info_label/00340_00308.txt', 'label_v1_1': './tools/revise_label/kradar_revised_label_v1_1/1_info_label_revised/00340_00308.txt', 'label_v2_0': './tools/revise_label/kradar_revised_label_v2_0/KRadar_refined_label_by_UWIPL/1/00340_00308.txt', 'label_..

Dataset/Dual-Radar

Dual-Radar visualize(C-R-L)

https://github.com/adept-thu/dual-radar GitHub - adept-thu/Dual-Radar Contribute to adept-thu/Dual-Radar development by creating an account on GitHub. github.com 4D Radar dataset으로 메일로 요청하여 데이터를 받을 수 있다. import numpy as np import open3d as o3d import os.path as osp FRAME_NUM = 57 str_frame_num = f'{FRAME_NUM}'.zfill(6) header = './training' calib_file = osp.join(header, 'training_calib', 'calib'..

Paradigm

센서 융합 기술의 현 주소

기술 비교 기업 출처 활용 센서 특징 mobileye 공식 홈페이지 camera, Radar, LiDAR [1]True redundancy로 인식 시스템을 둘로 나누어 서로 보완하게 설계(late fusion) camera / Radar+LiDAR [1]적은 양의 validation set으로 학습 가능 waymo 논문 camera, Radar [2]인공지능 네트워크(cross-attention)를 사용하여 camera와 Radar 융합 [2]camera에 부족한 깊이 정보, Radar에 부족한 고도 정보를 상호 보완 *attention is all you need baidu 공식 홈페이지 Radar, LiDAR [3]인공지능 네트워크(FC-DNN)를 사용하여 LiDAR 기반 장애물 인식을 수행하고, 알..

Paper/Perception

RTNH+: Enhanced 4D Radar Object Detection Network using CombinedCFAR-based Two-level Preprocessing and Vertical Encoding

https://arxiv.org/pdf/2310.17659v1.pdf 이번에 리뷰할 논문은 기존 RTNH의 성능을 높인 RTNH+이다. 4D Radar dataset인 K-Radar를 대상으로 3D object detection에 대한 모델이다. 배경 4D Radar는 3D object detection을 수행하는데 주변 날씨에 강건하다는 장점을 가진다. 하지만, Radar 측정값은 noise, interference, and clutter와 같은 요소들에 의해 corrupt되기 때문에 preprocessing 과정이 필요하다. 본 논문에서는 두 가지 알고리즘을 소개한다. Combined Constant false alarm rate (CFAR)-based Two-level Preprocessing (C..

Shy_un
'분류 전체보기' 카테고리의 글 목록 (4 Page)