渔夫的英文译语怎么说-切尔西克林顿
2023年4月4日发(作者:eagleeye)
使⽤卷积神经⽹络进⾏激光雷达点云⽬标检测——S林清玄简介 ECOND
前⾔
该⼯作刚发表时,曾是第⼀名,不过刷榜的⼈太多,出现了更优秀的算法,所以排名下降了,但这是前⼏名中唯⼀开源的。
从作者简介中可以看出,作者是重庆⼤学的研究⽣,其导师(猜测)和主线科技的员⼯。这应该是⼀名研究⽣在公司实习时完成的⼯
作,好⽣敬佩与羡慕。
对于研究⽣来说,最好还是接触实际的项⽬,尽量早倍组词语 点出去实习,但可能每个⼈都有各⾃的苦衷吧。
简单翻译⼀下摘要:
基于LiDAR或基于RGB-D的⽬标检测应⽤于从⾃动驾驶到机器图穷匕见 ⼈视觉的各种应⽤。基于体素的3D卷积⽹络已经使⽤了⼀段中秋节的八个字名言 时间,以
在处理LiDAR点云数据时增强信息的保留。然⽽,问题仍然存在,包括推理速度慢和⽅位估计性能差。因此,我们研究了⼀种改进的
稀疏卷积⽅法⽤于这种⽹络,这显着地增加了对于训练和推理的速度。通过引⼊⾓度损失的⽅法来提⾼⽅向估计性能,以及⼀种新的
能增强收敛速度和性能的数据增强⽅法。所提出的⽹络在KITTI3D物体检测基准测试中产⽣最先进的结果,同时保持快速的推理速
度。
主要贡献:
WeapplysparseconvolutioninLiDAR-basedobjectdete残阳如血 ction,therebygreatlyincreasingthespeedsoftrainingandinference.
Weproposeanimprovedmethodofsparseconvolutionthatallowsittorunfaster.
Weproposeanovelanglelossregressionapproachthatdemonstr王维写重阳节的诗 atesbetterorientationregressionperformancethan-other
methodsdo.
WeintroduceanoveldataaugmentationmethodforLiDAR-onlylearningproblemsthatgreatlyincreasestheconvergence
speedandperformance.
⽹络架构:
检测结果:
注:这⾥的图像只是⽤来验证点云⽬标检测的结果。
安装
0.环境
Python3.6+
pytorch1.0.0+
Ubuntu16.04/18.04
1.下载代码
gitclone/traveller59/
cd./h/second
2.安装Python依赖包
建议使⽤Anaconda包管理器。
pipinstallshapelyfirepybind11tensorboardXprotobufscikit-imagenumbapillow
如果你没有Anaconda:
pipinstallnumba
按照中的说明安装spconv。
3.为numba设置cuda
你需要为添加以下环境变量,你可以将它们添加到~/.bashrc:
exportNUMBAPRO_CUDA_DRIVER=/usr/lib/x86_64-linux-gnu/
exportNUMBAPRO_NVVM=/usr/local/cuda/nvvm/lib64/
exportNUMBAPRO_LIBDEVICE=/usr/local/cuda/nvvm/libdevice
4.将h/添加到PYTHONPATH
准备数据集
数据集准备
1.下载KITTI数据集并⾸先创建⼀些⽬录:
└──KITTI_DATASET_ROOT
├──training<--7481traindata
|├──image_2<--forvisualization
|├──calib
|├──label_2
|├──velodyne
|└──velo千山暮雪小说免费阅读 dyne_reduced<--emptydirectory
└──testing<--7580testdata
├──image_2<--forvisualization
├──calib
├──velodyne
└──velodyne_reduced<--emptydirectory
2.创建KITTI的相关信息:
pythoncreate_te_kitti_info_file--data_path=KITTI_DATASET_ROOT
3.创建缩减点云(reducedpointcloud):
pythoncreate_te_reduced_point_cloud--data_path=KITTI_DATASET_ROOT
4.创建真值数据库(groundtruth-database)信息:
pythoncreate_te_groundtruth_datab是什么生肖? ase--data_path=KITTI_DATASET_ROOT
5.修改配置⽂件
在配置⽂件中需要配置⼀些路径:
train_input_reader:{
...
database_sampler{
database_info_path:\"/path/to/kitti_dbinfos_\"
...
}
kitti_info_path:\"/path/to/kitti_infos_\"
kitti_root_path:\"KITTI_DATASET_ROOT\"
}
...
eval_input_reader:{
...
kitti_info_path:\"/path/to/kitti_infos_\"
kitti_root_path:\"KITTI_DATASET_ROOT\"
}
⽤法
训练
python./pytorch/n--config_path=./configs/--model_dir=/path/to/model_dir
如果要训练新模型,请确保/path/to/model_dir不存在。如果model_dir不存在,将创建⼀个新⽬录,否则将读取其中的检查点
(checkpoints)。
训练过程使⽤batchsize=6作为1080Ti的默认值,如果GPU内存较少,则需要减少batchsize的⼤⼩。
⽬前仅⽀持单GPU训练,但在单个1080Ti中训练模型仅需要20⼩时(165个epoch),并且仅需要50个epoch以达到78.3
AP,withsuperconvergeincarmoderate3DinKittivalidationdateset。
评估
python./pytorch/uate--config_path=./configs/--model_dir=/path/to/model_dir--measure_time=Tr形容荷花的句子唯美短句 ue--batch_size=1
如果使⽤--pickle_result=False,检测结果将保存为model_dir/eval_results/step_xxx中的⽂件或保存为官⽅KITTI标签格式。
预训练模型
您可以在中下载预训练模型。car_fhd模型对应于。
请注意,此预训练模型是在修复稀疏卷积的错误之前训练的,因此评估结果可能稍差。
Docker(我没时间为SECOND-V1.5构建docker)
你可以使⽤预构建的docker进⾏测试:
dockerpullscrin/second-pytorch
然后运⾏:
nvidia-dockerrun-it--rm-v/media/yy/960evo/datasets/:/root/data-v$HOME/pretrained_models:/root/model--ipc=hostsecond-pytorch:latest
python./pytorch/uate--config_path=./configs/--model_dir=/root/model/car
试⽤KittiViewerWeb
主要步骤
1.在你的server/local运⾏python./kittiviewer/--port=xxxx。
2.运⾏cd./kittiviewer/frontend&&,以启动本地Web服务器。
3.打开浏览器并输⼊你的前端URL(例如,默认是http//127.0.0.18000)
5.输⼊root路径,info路径和det路径(可选)
6.单击load,loadDet(可选),在屏幕中央底部输⼊图像索引,然后按Enter键。
推理步骤
⾸先,必须单击load按钮并成功加载。
输⼊checkpointPath和configPath
单击buildNet
点击inference
试⽤KittiViewer(已弃⽤)
在训练前,你应该使⽤基于pyqt和pyqtgraph的kittiviewer检查数据。
运⾏python./kittiviewer/,查看下⾯的图⽚以使⽤kittiviewer:
概念
Kitti《忆江南》古诗朗诵 lidarbox
kittilidarbox由7个元素组成:[x,y,z,w,l,h,rz],见下图:
所有训练和推理代码均使⽤kittibox格式。所以我们需要在训练之前将其他格式转换为KITTI格式。
Kitticamerabox
kitticamerabox由7个元素组成:[x,y,z,l,h,w,ry]。
注:更详尽的理论还是看论⽂,⼯程实现看代码。
更多推荐
kitti是什么意思ti在线翻译读音例句
发布评论