분류 전체보기

Dataset/K-Radar

K-Radar RTNH code run

배치 사이즈 2 기준 {'meta': [ { 'header': '/home/song/Desktop/workshop/K-Radar_data', 'seq': '1', 'label_v1_0': '/home/song/Desktop/workshop/K-Radar_data/1/info_label/00340_00308.txt', 'label_v1_1': './tools/revise_label/kradar_revised_label_v1_1/1_info_label_revised/00340_00308.txt', 'label_v2_0': './tools/revise_label/kradar_revised_label_v2_0/KRadar_refined_label_by_UWIPL/1/00340_00308.txt', 'label_..

Dataset/Dual-Radar

Dual-Radar visualize(C-R-L)

https://github.com/adept-thu/dual-radar GitHub - adept-thu/Dual-Radar Contribute to adept-thu/Dual-Radar development by creating an account on GitHub. github.com 4D Radar dataset으로 메일로 요청하여 데이터를 받을 수 있다. import numpy as np import open3d as o3d import os.path as osp FRAME_NUM = 57 str_frame_num = f'{FRAME_NUM}'.zfill(6) header = './training' calib_file = osp.join(header, 'training_calib', 'calib'..

Paradigm

센서 융합 기술의 현 주소

기술 비교 기업 출처 활용 센서 특징 mobileye 공식 홈페이지 camera, Radar, LiDAR [1]True redundancy로 인식 시스템을 둘로 나누어 서로 보완하게 설계(late fusion) camera / Radar+LiDAR [1]적은 양의 validation set으로 학습 가능 waymo 논문 camera, Radar [2]인공지능 네트워크(cross-attention)를 사용하여 camera와 Radar 융합 [2]camera에 부족한 깊이 정보, Radar에 부족한 고도 정보를 상호 보완 *attention is all you need baidu 공식 홈페이지 Radar, LiDAR [3]인공지능 네트워크(FC-DNN)를 사용하여 LiDAR 기반 장애물 인식을 수행하고, 알..

Paper/Prediction and Tracking

Exploring Simple 3D Multi-Object Tracking for Autonomous Driving

https://arxiv.org/abs/2108.10312 Exploring Simple 3D Multi-Object Tracking for Autonomous Driving 3D multi-object tracking in LiDAR point clouds is a key ingredient for self-driving vehicles. Existing methods are predominantly based on the tracking-by-detection pipeline and inevitably require a heuristic matching step for the detection association. In arxiv.org 이번에 review할 논문은 3D MOT 논문 중 Joint ..

Shy_un
'분류 전체보기' 카테고리의 글 목록 (4 Page)