kradar 데이터에서 nuscenes data format 형식으로 json 파일 생성. sample.json 마지막 줄의 comma를 지워줘야 함. 1. sample.json #sample.json import os import json from collections import OrderedDict file_data = OrderedDict() with open('sample.json', 'a+', encoding="utf-8") as make_file: make_file.write('[') make_file.write('\n') for j in range(1, 59): seq = os.path.join('seq_' + str(j)) path_dir = os.path.join('./'+str(j))..
nuscenes data format으로 만들기 위해 kradar 기존 데이터 파일에 token정보를 추가하였음. import os for j in range(1, 59): seq = os.path.join('seq_' + str(j)) path_dir = os.path.join('./'+str(j)) file_list = os.listdir(path_dir) #create token list for prev, next tkn_list = [''] for i in file_list: tkn = os.path.join(seq + '_'+i[:-4]) tkn_list.append(tkn) tkn_list.append('') #read kradar format, append token information f..
# Initialize NuScenes object. # We do not store it in self to let garbage collection take care of it and save memory. nusc = NuScenes(version=nusc_version, verbose=verbose, dataroot=nusc_dataroot) nusc가 필요한 부분을 정리 1. load.gt() gt_boxes = load_gt(nusc, self.eval_set, TrackingBox, verbose=verbose) sample.json['token'] # Read out all sample_tokens in DB. sample_tokens_all = [s['token'] for s in nus..
정리하기에 앞서 본 내용은 sample_token = fd8420396768425eabec9bdddf7e64b6 를 기준으로 작성함. 이 때 sample_token은 한 frame이라 생각하면 될 듯. 전체 구조도 sample_token : 한 frame에 해당하는 token 값 scene_token : scene은 여러 개의 frame으로 구성되어 있음. 이에 대한 token 값 ego_pose_token : 해당 frame에서 자차의 odometry정보에 대한 token값 == sample_data의 token값 sample_annotation의 token : 특정 frame(동일 sample_token)에서의 특정 객체에 해당하는 token값. 즉, 동일한 sample_token에 대응하는 samp..