yolo

阅读 / 问答 / 标签

YOLOv5训练:epoch从0变1时,GPU显存消耗突然翻倍

[ 问题描述 ]训练YOLOv5模型,Epoch从0变1时,GPU显存消耗突然翻倍,例如:从3.54G 突然增长到8.08G [ 解决方案 ] 这是因为训练完毕后,执行Validation导致的显存翻倍。在训练时,加入参数 --noval即可。训练命令如下: 参考链接: https://github.com/ultralytics/yolov5/issues/610

YOLO 检测多张图片并保存标签信息

YOLO 是一个基于深度学习的end-to-end、real-time目标检测方法,至今已经有YOLOv1、YOLOv2、YOLO9000、YOLOv3 4个版本。YOLO网络由作者用C和CUDA语言写的一个卷积神经网络框架 darknet 实现,目前github也有tensorflow,pytorch等开源框架的复现,本文主要基于darknet源码修改实现对一个目录下的图片进行检测并保存检测结果图片和标签信息。 源码修改版本已上传至github: https://github.com/bichenghu/YOLO YOLO测试图片有两种方式 其中不指定输出路径的命令在darknet/目录下生成predictions.jpg;指定输出路径的时候只需要输入前缀,结果规定了.jpg后缀。 事实上,单张图片的测试也可以用如下通用方式: 如果上述通用命令不指定输出路径,就能实现多张图片测试,作者写的多张图片测试是在加载一次模型后,再一次一次的输入图片路径测试,这样的方式似乎不太实用,一般情况下我们想在一个文件夹下对所有图片进行检测,保存其标签信息,这就需要通过修改源码来实现。需要修改到的文件主要有:include/darknet.h src/image.c examples/detector.c examples/darknet.c 整个检测的入口为:examples/darknet.c 其main函数用于判断参数,从而选择对应函数。对于detect参数,将直接跳转到detector.c中的test_detector函数。test_detector函数定义如下: 在darknet.c中ln437处,这里char *filename = (argc > 4) ? argv[4]: 0;说明当参数大于4个时,默认第5个参数为测试图片路径filename,显然这样我们就无法检测文件夹下的图片了,因此为filename加一个输入标识 -input,这样我们后面就可以添加输入路径idir和输出路径odir参数了(这里输出路径定义为存放images和labels路径)。 detector.c主要修改test_detector函数,其中draw_detections_person函数由draw_detections函数修改而来,draw_detections函数定义在src/image.c中,用于对每张图片进行画框处理。在这里我只需要行人信息,因此对于draw_detections_person函数,需要用到图片路径信息,输出文件夹路径。对于单张图片,图片路径信息就是前面的filename,对于多张图片,图片路径信息为输入文件夹加上在该文件夹内遍历的得到的图片名,所以修改后的test_detector函数需要添加idir,odir两个参数。 image.c主要修改draw_detections_person函数,用于对图片进行画框处理,并保存标签信息。 添加draw_detections_person函数定义: 对于单张图片,可以用如下命令: 对于文件夹内多张图片,可以用如下命令: 当然,在results目录下要提前建好images和labels文件夹。

美国人常说的YOLO是什么意思?

也许是you know,你知道的意思

yolomadtown音译歌词,求求各位大神

Yolo - ub9e4ub4dcud0c0uc6b4 音译 :OnoKana/OnoSakuragoYOLO uc808ub85c uc774ub9acub85c uc800ub9acub85c yolo jeollo ililo jeolilouc228uc26cuc5b4 uc228uc26cuc5b4 sumswieo sumswieouae38uac8c ub298uc5b4uc9c4 ud2f0uc154uce20ub97c uace8ub77c gilge neuleojin tisyeoceuleul gollauc9c0uad6cuac00 ud754ub4e4ub9b4 uc815ub3c4uc758 uc18cub9acub85c jiguga heundeullil jeongdoyi soliloShout Out ub531ud788 Rule ub530uc708 ubb34uc2dcub41c ddaghi rule ddawin musidoenuc774 uc815uae00 uc18duc5d0uc11c i jeonggeul sogeseoub0b4 ub4a4ud2c0ub9b0 ubbf8uc18cuac00 ub367ub098 nae dwiteullin misoga deosnauc774uc720 uc5c6uc774 uc545ub2f9ucc98ub7fc uad74uc5b4 ub9c9 iyu eobsi agdangceoleom guleo magub204uad70uac00 ubb3buaca0uc9c0 uc774ub7ecub294 uc774uc720uac00 nugunga mudgessji ileoneun iyugaubaa8ub4e0 ud589ub3d9uc5d0 ud544uc694ud574 uc774uc720uac00 modeun haengdonge pilyohae iyugauc6b0ub9b4 ub07cuc6cc ub123uc9c0ub9c8 ub108ubb34 uc9c0ub8e8ud558uc796uc544 ulil ggiweo neohjima neomu jiluhajanhaud5ddud074uc5b4uc9c4 uba38ub9ac uc090ub531ud55c ub2e4ub9ac heongkeuleojin meoli bbiddaghan daliI ain"t sorry baby ub300uccb4 ubb50uac00 uadf8ub9ac ubb38uc81cuc778 uac74uc9c0daece mweoga geuli munjein geonji uc774uac8c uc6b0ub9b0ub370 Yeah ige ulinde yeahYOLO uc808ub85c uc774ub9acub85c uc800ub9acub85c yolo jeollo ililo jeolilouc790 uc228uc26cuc5b4 uc228uc26cuc5b4 ja sumswieo sumswieoYOLO uc808ub85c uc774ub9acub85c uc800ub9acub85c yolo jeollo ililo jeolilouc790 uc228uc26cuc5b4 uc228uc26cuc5b4 ja sumswieo sumswieouc0acuc2e4 ub108ubb34ub098 uac04ub2e8ud574 sasil neomuna gandanhaeub208uce58ub294 ub123uc5b4ub46c ub4b7uc8fcuba38ub2c8uc5d0 nuncineun neoheodweo dwisjumeonieuadf8ub9acuace0 ub124uac00 uc815ub9d0 uc6d0ud558ub294 uac8c ubb54uc9c0 geuligo nega jeongmal weonhaneun ge mweonjiubd10ubd10 bwabwaBoy Where"s your color at ub300uccb4 uc5b4uca4cub77cuace0 uc815ub2f5uc740 uc5c6uc5b4 daece eojjeolago jeongdabeun eobseouc549uc544ub9cc uc788uae30uc5d4 uc6b0ub9b0 ub108ubb34 uc80auc5b4 What anjaman issgien ulin neomu jeolmeo whatYou know I know Who knows uac15ubb3cuc774 uc11euc774ub4ef uc77cub2e8 ud719ud719 uc800uc5b4 gangmuli seoggideus ildan hwighwig jeoeoubaa8ub450 uc11cub450ub97c ub54c ub09c uc5ecuc720uc788uac8c modu seoduleul ddae nan yeoyuissgeuc5b4uae68uc5d0 uba3cuc9c0ub97c ud138uc5b4ub0b4 eoggaee meonjileul teoleonaeub204uac00 ub0b4 uc0b6uc744 uacb0uc815ud574 nuga nae salmeul gyeoljeonghaeud574ub2f5uc9c0 ub530uc704 uce58uc6ccub46c haedabji ddawi ciweodweoI"ll show you right now YOLO uc808ub85c uc774ub9acub85c uc800ub9acub85c yolo jeollo ililo jeolilouc790 uc228uc26cuc5b4 uc228uc26cuc5b4 ja sumswieo sumswieoYOLO uc808ub85c uc774ub9acub85c uc800ub9acub85c yolo jeollo ililo jeolilouc790 uc228uc26cuc5b4 uc228uc26cuc5b4 ja sumswieo sumswieoLet me breathe out uc6b0ub9acuac00 uc0acub294 ubc29uc2dd uc808ub300 uc5c6uc5b4 uac00uc2dd uliga saneun bangsig jeoldae eobseo gasiguc54cub9ccud55c uc0acub78cuc740 uc54cuc9c0 almanhan salameun aljiuc6b0ub9acuac00 uc0acub294 ubc29uc2dd uc5b4ub5a4 uad6cuc18d uc5c6uc774uliga saneun bangsig eoddeon gusog eobsi uadf8uc800 uc990uae30uba74 ub3fc Ya feel me geujeo jeulgimyeon dwae ya feel meuc6b0ub9acuac00 uc0acub294 ubc29uc2dd uc808ub300 uc5c6uc5b4 uac00uc2dd uliga saneun bangsig jeoldae eobseo gasiguc54cub9ccud55c uc0acub78cuc740 uc54cuc9c0 almanhan salameun aljiuc6b0ub9acuac00 uc0acub294 ubc29uc2dd uac10ucd9c ud544uc694 uc5c6uc774 uliga saneun bangsig gamcul pilyo eobsiubcf4uc5ecuc904uac8c uc804ubd80 uadf8ub300ub85c boyeojulge jeonbu geudaeloYOLO uc808ub85c uc774ub9acub85c uc800ub9acub85cyolo jeollo ililo jeolilo uc790 uc228uc26cuc5b4 uc228uc26cuc5b4 ja sumswieo sumswieoYOLO uc808ub85c uc774ub9acub85c uc800ub9acub85c yolo jeollo ililo jeolilo uc790 uc228uc26cuc5b4 uc228uc26cuc5b4 ja sumswieo sumswieoMake the crowd move YOLO uc808ub85c uc774ub9acub85c uc800ub9acub85c yolo jeollo ililo jeolilouc790 uc228uc26cuc5b4 uc228uc26cuc5b4 ja sumswieo sumswieoYou Only Live Once YOLO uc808ub85c uc774ub9acub85c uc800ub9acub85c yolo jeollo ililo jeolilouc790 uc228uc26cuc5b4 uc228uc26cuc5b4 ja sumswieo sumswieoYou Only Live Once

yolo中文歌词mad town

Yolo - 매드타운 音译 :OnoKana/OnoSakuragoYOLO 절로 이리로 저리로 yolo jeollo ililo jeolilo숨쉬어 숨쉬어 sumswieo sumswieo길게 늘어진 티셔츠를 골라 gilge neuleojin tisyeoceuleul golla지구가 흔들릴 정도의 소리로 jiguga heundeullil jeongdoyi soliloShout Out 딱히 Rule 따윈 무시된 ddaghi rule ddawin musidoen이 정글 속에서 i jeonggeul sogeseo내 뒤틀린 미소가 덧나 nae dwiteullin misoga deosna이유 없이 악당처럼 굴어 막 iyu eobsi agdangceoleom guleo mag누군가 묻겠지 이러는 이유가 nugunga mudgessji ileoneun iyuga모든 행동에 필요해 이유가 modeun haengdonge pilyohae iyuga우릴 끼워 넣지마 너무 지루하잖아 ulil ggiweo neohjima neomu jiluhajanha헝클어진 머리 삐딱한 다리 heongkeuleojin meoli bbiddaghan daliI ain"t sorry baby 대체 뭐가 그리 문제인 건지daece mweoga geuli munjein geonji 이게 우린데 Yeah ige ulinde yeahYOLO 절로 이리로 저리로 yolo jeollo ililo jeolilo자 숨쉬어 숨쉬어 ja sumswieo sumswieoYOLO 절로 이리로 저리로 yolo jeollo ililo jeolilo자 숨쉬어 숨쉬어 ja sumswieo sumswieo사실 너무나 간단해 sasil neomuna gandanhae눈치는 넣어둬 뒷주머니에 nuncineun neoheodweo dwisjumeonie그리고 네가 정말 원하는 게 뭔지 geuligo nega jeongmal weonhaneun ge mweonji봐봐 bwabwaBoy Where"s your color at 대체 어쩌라고 정답은 없어 daece eojjeolago jeongdabeun eobseo앉아만 있기엔 우린 너무 젊어 What anjaman issgien ulin neomu jeolmeo whatYou know I know Who knows 강물이 섞이듯 일단 휙휙 저어 gangmuli seoggideus ildan hwighwig jeoeo모두 서두를 때 난 여유있게 modu seoduleul ddae nan yeoyuissge어깨에 먼지를 털어내 eoggaee meonjileul teoleonae누가 내 삶을 결정해 nuga nae salmeul gyeoljeonghae해답지 따위 치워둬 haedabji ddawi ciweodweoI"ll show you right now YOLO 절로 이리로 저리로 yolo jeollo ililo jeolilo자 숨쉬어 숨쉬어 ja sumswieo sumswieoYOLO 절로 이리로 저리로 yolo jeollo ililo jeolilo자 숨쉬어 숨쉬어 ja sumswieo sumswieoLet me breathe out 우리가 사는 방식 절대 없어 가식 uliga saneun bangsig jeoldae eobseo gasig알만한 사람은 알지 almanhan salameun alji우리가 사는 방식 어떤 구속 없이uliga saneun bangsig eoddeon gusog eobsi 그저 즐기면 돼 Ya feel me geujeo jeulgimyeon dwae ya feel me우리가 사는 방식 절대 없어 가식 uliga saneun bangsig jeoldae eobseo gasig알만한 사람은 알지 almanhan salameun alji우리가 사는 방식 감출 필요 없이 uliga saneun bangsig gamcul pilyo eobsi보여줄게 전부 그대로 boyeojulge jeonbu geudaeloYOLO 절로 이리로 저리로yolo jeollo ililo jeolilo 자 숨쉬어 숨쉬어 ja sumswieo sumswieoYOLO 절로 이리로 저리로 yolo jeollo ililo jeolilo 자 숨쉬어 숨쉬어 ja sumswieo sumswieoMake the crowd move YOLO 절로 이리로 저리로 yolo jeollo ililo jeolilo자 숨쉬어 숨쉬어 ja sumswieo sumswieoYou Only Live Once YOLO 절로 이리로 저리로 yolo jeollo ililo jeolilo자 숨쉬어 숨쉬어 ja sumswieo sumswieoYou Only Live Once

yolo音译歌词求求各位大神

Yolo - ub9e4ub4dcud0c0uc6b4 音译 :OnoKana/OnoSakuragoYOLO uc808ub85c uc774ub9acub85c uc800ub9acub85c yolo jeollo ililo jeolilouc228uc26cuc5b4 uc228uc26cuc5b4 sumswieo sumswieouae38uac8c ub298uc5b4uc9c4 ud2f0uc154uce20ub97c uace8ub77c gilge neuleojin tisyeoceuleul gollauc9c0uad6cuac00 ud754ub4e4ub9b4 uc815ub3c4uc758 uc18cub9acub85c jiguga heundeullil jeongdoyi soliloShout Out ub531ud788 Rule ub530uc708 ubb34uc2dcub41c ddaghi rule ddawin musidoenuc774 uc815uae00 uc18duc5d0uc11c i jeonggeul sogeseoub0b4 ub4a4ud2c0ub9b0 ubbf8uc18cuac00 ub367ub098 nae dwiteullin misoga deosnauc774uc720 uc5c6uc774 uc545ub2f9ucc98ub7fc uad74uc5b4 ub9c9 iyu eobsi agdangceoleom guleo magub204uad70uac00 ubb3buaca0uc9c0 uc774ub7ecub294 uc774uc720uac00 nugunga mudgessji ileoneun iyugaubaa8ub4e0 ud589ub3d9uc5d0 ud544uc694ud574 uc774uc720uac00 modeun haengdonge pilyohae iyugauc6b0ub9b4 ub07cuc6cc ub123uc9c0ub9c8 ub108ubb34 uc9c0ub8e8ud558uc796uc544 ulil ggiweo neohjima neomu jiluhajanhaud5ddud074uc5b4uc9c4 uba38ub9ac uc090ub531ud55c ub2e4ub9ac heongkeuleojin meoli bbiddaghan daliI ain"t sorry baby ub300uccb4 ubb50uac00 uadf8ub9ac ubb38uc81cuc778 uac74uc9c0daece mweoga geuli munjein geonji uc774uac8c uc6b0ub9b0ub370 Yeah ige ulinde yeahYOLO uc808ub85c uc774ub9acub85c uc800ub9acub85c yolo jeollo ililo jeolilouc790 uc228uc26cuc5b4 uc228uc26cuc5b4 ja sumswieo sumswieoYOLO uc808ub85c uc774ub9acub85c uc800ub9acub85c yolo jeollo ililo jeolilouc790 uc228uc26cuc5b4 uc228uc26cuc5b4 ja sumswieo sumswieouc0acuc2e4 ub108ubb34ub098 uac04ub2e8ud574 sasil neomuna gandanhaeub208uce58ub294 ub123uc5b4ub46c ub4b7uc8fcuba38ub2c8uc5d0 nuncineun neoheodweo dwisjumeonieuadf8ub9acuace0 ub124uac00 uc815ub9d0 uc6d0ud558ub294 uac8c ubb54uc9c0 geuligo nega jeongmal weonhaneun ge mweonjiubd10ubd10 bwabwaBoy Where"s your color at ub300uccb4 uc5b4uca4cub77cuace0 uc815ub2f5uc740 uc5c6uc5b4 daece eojjeolago jeongdabeun eobseouc549uc544ub9cc uc788uae30uc5d4 uc6b0ub9b0 ub108ubb34 uc80auc5b4 What anjaman issgien ulin neomu jeolmeo whatYou know I know Who knows uac15ubb3cuc774 uc11euc774ub4ef uc77cub2e8 ud719ud719 uc800uc5b4 gangmuli seoggideus ildan hwighwig jeoeoubaa8ub450 uc11cub450ub97c ub54c ub09c uc5ecuc720uc788uac8c modu seoduleul ddae nan yeoyuissgeuc5b4uae68uc5d0 uba3cuc9c0ub97c ud138uc5b4ub0b4 eoggaee meonjileul teoleonaeub204uac00 ub0b4 uc0b6uc744 uacb0uc815ud574 nuga nae salmeul gyeoljeonghaeud574ub2f5uc9c0 ub530uc704 uce58uc6ccub46c haedabji ddawi ciweodweoI"ll show you right now YOLO uc808ub85c uc774ub9acub85c uc800ub9acub85c yolo jeollo ililo jeolilouc790 uc228uc26cuc5b4 uc228uc26cuc5b4 ja sumswieo sumswieoYOLO uc808ub85c uc774ub9acub85c uc800ub9acub85c yolo jeollo ililo jeolilouc790 uc228uc26cuc5b4 uc228uc26cuc5b4 ja sumswieo sumswieoLet me breathe out uc6b0ub9acuac00 uc0acub294 ubc29uc2dd uc808ub300 uc5c6uc5b4 uac00uc2dd uliga saneun bangsig jeoldae eobseo gasiguc54cub9ccud55c uc0acub78cuc740 uc54cuc9c0 almanhan salameun aljiuc6b0ub9acuac00 uc0acub294 ubc29uc2dd uc5b4ub5a4 uad6cuc18d uc5c6uc774uliga saneun bangsig eoddeon gusog eobsi uadf8uc800 uc990uae30uba74 ub3fc Ya feel me geujeo jeulgimyeon dwae ya feel meuc6b0ub9acuac00 uc0acub294 ubc29uc2dd uc808ub300 uc5c6uc5b4 uac00uc2dd uliga saneun bangsig jeoldae eobseo gasiguc54cub9ccud55c uc0acub78cuc740 uc54cuc9c0 almanhan salameun aljiuc6b0ub9acuac00 uc0acub294 ubc29uc2dd uac10ucd9c ud544uc694 uc5c6uc774 uliga saneun bangsig gamcul pilyo eobsiubcf4uc5ecuc904uac8c uc804ubd80 uadf8ub300ub85c boyeojulge jeonbu geudaeloYOLO uc808ub85c uc774ub9acub85c uc800ub9acub85cyolo jeollo ililo jeolilo uc790 uc228uc26cuc5b4 uc228uc26cuc5b4 ja sumswieo sumswieoYOLO uc808ub85c uc774ub9acub85c uc800ub9acub85c yolo jeollo ililo jeolilo uc790 uc228uc26cuc5b4 uc228uc26cuc5b4 ja sumswieo sumswieoMake the crowd move YOLO uc808ub85c uc774ub9acub85c uc800ub9acub85c yolo jeollo ililo jeolilouc790 uc228uc26cuc5b4 uc228uc26cuc5b4 ja sumswieo sumswieoYou Only Live Once YOLO uc808ub85c uc774ub9acub85c uc800ub9acub85c yolo jeollo ililo jeolilouc790 uc228uc26cuc5b4 uc228uc26cuc5b4 ja sumswieo sumswieoYou Only Live Once

YOLO v1深入理解

YOLO(You Only Look Once)是一种基于深度神经网络的对象识别和定位算法,其最大的特点是运行速度很快,可以用于实时系统。 现在YOLO已经发展到v3版本,不过新版本也是在原有版本基础上不断改进演化的,所以本文先分析YOLO v1版本。 关于 YOLOv2/YOLO9000 的分析理解请移步 YOLO v2 / YOLO 9000 。 输入一张图片,要求输出其中所包含的对象,以及每个对象的位置(包含该对象的矩形框)。 对象识别和定位,可以看成两个任务:找到图片中某个存在对象的区域,然后识别出该区域中具体是哪个对象。 对象识别这件事(一张图片仅包含一个对象,且基本占据图片的整个范围),最近几年基于CNN卷积神经网络的各种方法已经能达到不错的效果了。所以主要需要解决的问题是,对象在哪里。 最简单的想法,就是遍历图片中所有可能的位置,地毯式搜索不同大小,不同宽高比,不同位置的每个区域,逐一检测其中是否存在某个对象,挑选其中概率最大的结果作为输出。显然这种方法效率太低。 RCNN开创性的提出了候选区(Region Proposals)的方法,先从图片中搜索出一些可能存在对象的候选区(Selective Search),大概2000个左右,然后对每个候选区进行对象识别。大幅提升了对象识别和定位的效率。 不过RCNN的速度依然很慢,其处理一张图片大概需要49秒。因此又有了后续的Fast RCNN 和 Faster RCNN,针对 RCNN的神经网络结构和候选区的算法不断改进,Faster RCNN已经可以达到一张图片约0.2秒的处理速度。下图来自 R-CNN, Fast R-CNN, Faster R-CNN, YOLOu200a—u200aObject Detection Algorithms 但总体来说,RCNN系列依然是两阶段处理模式:先提出候选区,再识别候选区中的对象。 YOLO意思是You Only Look Once,创造性的将候选区和对象识别这两个阶段合二为一,看一眼图片(不用看两眼哦)就能知道有哪些对象以及它们的位置。 实际上,YOLO并没有真正去掉候选区,而是采用了预定义的候选区(准确点说应该是预测区,因为并不是Faster RCNN所采用的Anchor)。也就是将图片划分为 7*7=49 个网格(grid),每个网格允许预测出2个边框(bounding box,包含某个对象的矩形框),总共 49*2=98 个bounding box。可以理解为98个候选区,它们很粗略的覆盖了图片的整个区域。 RCNN虽然会找到一些候选区,但毕竟只是候选,等真正识别出其中的对象以后,还要对候选区进行微调,使之更接近真实的bounding box。这个过程就是 边框回归 :将候选区bounding box调整到更接近真实的bounding box。 既然反正最后都是要调整的,干嘛还要先费劲去寻找候选区呢,大致有个区域范围就行了,所以YOLO就这么干了。 不过话说回来,边框回归为啥能起作用,我觉得本质上是因为 分类信息 中已经包含了 位置信息。就像你看到主子的脸和身体,就能推测出耳朵和屁股的位置。 下面具体看下YOLO的实现方案。 1)结构 去掉候选区这个步骤以后,YOLO的结构非常简单,就是单纯的卷积、池化最后加了两层全连接。单看网络结构的话,和普通的CNN对象分类网络几乎没有本质的区别,最大的差异是最后输出层用线性函数做激活函数,因为需要预测bounding box的位置(数值型),而不仅仅是对象的概率。所以粗略来说,YOLO的整个结构就是输入图片经过神经网络的变换得到一个输出的张量,如下图所示。 因为只是一些常规的神经网络结构,所以,理解YOLO的设计的时候,重要的是理解输入和输出的映射关系. 2)输入和输出的映射关系 3)输入 参考图5,输入就是原始图像,唯一的要求是缩放到448*448的大小。主要是因为YOLO的网络中,卷积层最后接了两个全连接层,全连接层是要求固定大小的向量作为输入,所以倒推回去也就要求原始图像有固定的尺寸。那么YOLO设计的尺寸就是448*448。 4)输出 输出是一个 7*7*30 的张量(tensor)。 4.1)7*7网格 根据YOLO的设计,输入图像被划分为 7*7 的网格(grid),输出张量中的 7*7 就对应着输入图像的 7*7 网格。或者我们把 7*7*30 的张量看作 7*7=49个30维的向量,也就是输入图像中的每个网格对应输出一个30维的向量。参考上面图5,比如输入图像左上角的网格对应到输出张量中左上角的向量。 要注意的是,并不是说仅仅网格内的信息被映射到一个30维向量。经过神经网络对输入图像信息的提取和变换,网格周边的信息也会被识别和整理,最后编码到那个30维向量中。 4.2)30维向量 具体来看每个网格对应的30维向量中包含了哪些信息。 ① 20个对象分类的概率 因为YOLO支持识别20种不同的对象(人、鸟、猫、汽车、椅子等),所以这里有20个值表示该网格位置存在任一种对象的概率。可以记为 ,之所以写成条件概率,意思是如果该网格存在一个对象Object,那么它是 的概率是 。(记不清条件概率的同学可以参考一下 理解贝叶斯定理 ) ② 2个bounding box的位置 每个bounding box需要4个数值来表示其位置,(Center_x,Center_y,width,height),即(bounding box的中心点的x坐标,y坐标,bounding box的宽度,高度),2个bounding box共需要8个数值来表示其位置。 ③ 2个bounding box的置信度 bounding box的置信度 = 该bounding box内存在对象的概率 * 该bounding box与该对象实际bounding box的IOU 用公式来表示就是 是bounding box内存在对象的概率,区别于上面第①点的 。Pr(Object)并不管是哪个对象,它体现的是 有或没有 对象的概率。第①点中的 意思是假设已经有一个对象在网格中了,这个对象具体是哪一个。 是 bounding box 与 对象真实bounding box 的IOU(Intersection over Union,交并比)。要注意的是,现在讨论的30维向量中的bounding box是YOLO网络的输出,也就是预测的bounding box。所以 体现了预测的bounding box与真实bounding box的接近程度。 还要说明的是,虽然有时说"预测"的bounding box,但这个IOU是在训练阶段计算的。等到了测试阶段(Inference),这时并不知道真实对象在哪里,只能完全依赖于网络的输出,这时已经不需要(也无法)计算IOU了。 综合来说,一个bounding box的置信度Confidence意味着它 是否包含对象且位置准确的程度。置信度高表示这里存在一个对象且位置比较准确,置信度低表示可能没有对象 或者 即便有对象也存在较大的位置偏差。 简单解释一下IOU。下图来自Andrew Ng的深度学习课程,IOU=交集部分面积/并集部分面积,2个box完全重合时IOU=1,不相交时IOU=0。 总的来说,30维向量 = 20个对象的概率 + 2个bounding box * 4个坐标 + 2个bounding box的置信度 4.3)讨论 ① 一张图片最多可以检测出49个对象 每个30维向量中只有一组(20个)对象分类的概率,也就只能预测出一个对象。所以输出的 7*7=49个 30维向量,最多表示出49个对象。 ② 总共有 49*2=98 个候选区(bounding box) 每个30维向量中有2组bounding box,所以总共是98个候选区。 ③ YOLO的bounding box并不是Faster RCNN的Anchor Faster RCNN等一些算法采用每个grid中手工设置n个Anchor(先验框,预先设置好位置的bounding box)的设计,每个Anchor有不同的大小和宽高比。YOLO的bounding box看起来很像一个grid中2个Anchor,但它们不是。YOLO并没有预先设置2个bounding box的大小和形状,也没有对每个bounding box分别输出一个对象的预测。它的意思仅仅是对一个对象预测出2个bounding box,选择预测得相对比较准的那个。 这里采用2个bounding box,有点不完全算监督算法,而是像进化算法。如果是监督算法,我们需要 事先 根据样本就能给出一个正确的bounding box作为回归的目标。但YOLO的2个bounding box事先并不知道会在什么位置,只有经过前向计算,网络会输出2个bounding box,这两个bounding box与样本中对象实际的bounding box计算IOU。这时才能确定,IOU值大的那个bounding box,作为负责预测该对象的bounding box。 训练开始阶段,网络预测的bounding box可能都是乱来的,但总是选择IOU相对好一些的那个,随着训练的进行,每个bounding box会逐渐擅长对某些情况的预测(可能是对象大小、宽高比、不同类型的对象等)。所以,这是一种进化或者非监督学习的思想。 另外论文中经常提到 responsible 。比如:Our system divides the input image into an S*S grid. If the center of an object falls into a grid cell, that grid cell is responsible for detecting that object. 这个 responsible 有点让人疑惑,对预测"负责"是啥意思。其实没啥特别意思,就是一个Object只由一个grid来进行预测,不要多个grid都抢着预测同一个Object。更具体一点说,就是在设置训练样本的时候,样本中的每个Object归属到且仅归属到一个grid,即便有时Object跨越了几个grid,也仅指定其中一个。具体就是计算出该Object的bounding box的中心位置,这个中心位置落在哪个grid,该grid对应的输出向量中该对象的类别概率是1(该gird负责预测该对象),所有其它grid对该Object的预测概率设为0(不负责预测该对象)。 还有:YOLO predicts multiple bounding boxes per grid cell. At training time we only want one bounding box predictor to be responsible for each object. 同样,虽然一个grid中会产生2个bounding box,但我们会选择其中一个作为预测结果,另一个会被忽略。下面构造训练样本的部分会看的更清楚。 ④ 可以调整网格数量、bounding box数量 7*7网格,每个网格2个bounding box,对448*448输入图像来说覆盖粒度有点粗。我们也可以设置更多的网格以及更多的bounding box。设网格数量为 S*S,每个网格产生B个边框,网络支持识别C个不同的对象。这时,输出的向量长度为: 整个输出的tensor就是: YOLO选择的参数是 7*7网格,2个bounding box,20种对象,因此 输出向量长度 = 20 + 2 * (4+1) = 30。整个输出的tensor就是 7*7*30。 因为网格和bounding box设置的比较稀疏,所以这个版本的YOLO训练出来后预测的准确率和召回率都不是很理想,后续的v2、v3版本还会改进。当然,因为其速度能够满足实时处理的要求,所以对工业界还是挺有吸引力的。 5)训练样本构造 作为监督学习,我们需要先构造好训练样本,才能让模型从中学习。 对于一张输入图片,其对应输出的7*7*30张量(也就是通常监督学习所说的标签y或者label)应该填写什么数据呢。 首先,输出的 7*7维度 对应于输入的 7*7 网格。 然后具体看下30维向量的填写(请对照上面图6)。 ① 20个对象分类的概率 对于输入图像中的每个对象,先找到其中心点。比如图8中的自行车,其中心点在黄色圆点位置,中心点落在黄色网格内,所以这个黄色网格对应的30维向量中,自行车的概率是1,其它对象的概率是0。所有其它48个网格的30维向量中,该自行车的概率都是0。这就是所谓的"中心点所在的网格对预测该对象负责"。狗和汽车的分类概率也是同样的方法填写。 ② 2个bounding box的位置 训练样本的bounding box位置应该填写对象实际的bounding box,但一个对象对应了2个bounding box,该填哪一个呢?上面讨论过,需要根据网络输出的bounding box与对象实际bounding box的IOU来选择,所以要在训练过程中动态决定到底填哪一个bounding box。参考下面第③点。 ③ 2个bounding box的置信度 上面讨论过置信度公式 可以直接计算出来,就是用网络输出的2个bounding box与对象真实bounding box一起计算出IOU。 然后看2个bounding box的IOU,哪个比较大(更接近对象实际的bounding box),就由哪个bounding box来负责预测该对象是否存在,即该bounding box的 ,同时对象真实bounding box的位置也就填入该bounding box。另一个不负责预测的bounding box的 。 总的来说就是,与对象实际bounding box最接近的那个bounding box,其 ,该网格的其它bounding box的 。 举个例子,比如上图中自行车的中心点位于4行3列网格中,所以输出tensor中4行3列位置的30维向量如下图所示。 翻译成人话就是:4行3列网格位置有一辆自行车,它的中心点在这个网格内,它的位置边框是bounding box1所填写的自行车实际边框。 注意,图中将自行车的位置放在bounding box1,但实际上是在训练过程中等网络输出以后,比较两个bounding box与自行车实际位置的IOU,自行车的位置(实际bounding box)放置在IOU比较大的那个bounding box(图中假设是bounding box1),且该bounding box的置信度设为1。 6)损失函数 损失就是网络实际输出值与样本标签值之间的偏差。 YOLO给出的损失函数如下 公式中 意思是网格i中存在对象。 意思是网格i的第j个bounding box中存在对象。 意思是网格i的第j个bounding box中不存在对象。 总的来说,就是用网络输出与样本标签的各项内容的误差平方和作为一个样本的整体误差。 损失函数中的几个项是与输出的30维向量中的内容相对应的。 ① 对象分类的误差 公式第5行,注意 意味着存在对象的网格才计入误差。 ② bounding box的位置误差 公式第1行和第2行。 a)都带有 意味着只有"负责"(IOU比较大)预测的那个bounding box的数据才会计入误差。 b)第2行宽度和高度先取了平方根,因为如果直接取差值的话,大的对象对差值的敏感度较低,小的对象对差值的敏感度较高,所以取平方根可以降低这种敏感度的差异,使得较大的对象和较小的对象在尺寸误差上有相似的权重。 c)乘以 调节bounding box位置误差的权重(相对分类误差和置信度误差)。YOLO设置 ,即调高位置误差的权重。 ③ bounding box的置信度误差 公式第3行和第4行。 a)第3行是存在对象的bounding box的置信度误差。带有 意味着只有"负责"(IOU比较大)预测的那个bounding box的置信度才会计入误差。 b)第4行是不存在对象的bounding box的置信度误差。因为不存在对象的bounding box应该老老实实的说"我这里没有对象",也就是输出尽量低的置信度。如果它不恰当的输出较高的置信度,会与真正"负责"该对象预测的那个bounding box产生混淆。其实就像对象分类一样,正确的对象概率最好是1,所有其它对象的概率最好是0。 c)第4行会乘以 调节不存在对象的bounding box的置信度的权重(相对其它误差)。YOLO设置 ,即调低不存在对象的bounding box的置信度误差的权重。 7)训练 YOLO先使用ImageNet数据集对前20层卷积网络进行预训练,然后使用完整的网络,在PASCAL VOC数据集上进行对象识别和定位的训练和预测。YOLO的网络结构如下图所示: YOLO的最后一层采用线性激活函数,其它层都是Leaky ReLU。训练中采用了drop out和数据增强(data augmentation)来防止过拟合。更多细节请参考原论文。 8)预测(inference) 训练好的YOLO网络,输入一张图片,将输出一个 7*7*30 的张量(tensor)来表示图片中所有网格包含的对象(概率)以及该对象可能的2个位置(bounding box)和可信程度(置信度)。 为了从中提取出最有可能的那些对象和位置,YOLO采用NMS(Non-maximal suppression,非极大值抑制)算法。 9)NMS(非极大值抑制) NMS方法并不复杂,其核心思想是:选择得分最高的作为输出,与该输出重叠的去掉,不断重复这一过程直到所有备选处理完。 YOLO的NMS计算方法如下。 网络输出的7*7*30的张量,在每一个网格中,对象 位于第j个bounding box的得分: 它代表着某个对象 存在于第j个bounding box的可能性。 每个网格有:20个对象的概率*2个bounding box的置信度,共40个得分(候选对象)。49个网格共1960个得分。Andrew Ng建议每种对象分别进行NMS,那么每种对象有 1960/20=98 个得分。 NMS步骤如下: 1)设置一个Score的阈值,低于该阈值的候选对象排除掉(将该Score设为0) 2)遍历每一个对象类别 u20032.1)遍历该对象的98个得分 u2003u20032.1.1)找到Score最大的那个对象及其bounding box,添加到输出列表 u2003u20032.1.2)对每个Score不为0的候选对象,计算其与上面2.1.1输出对象的bounding box的IOU u2003u20032.1.3)根据预先设置的IOU阈值,所有高于该阈值(重叠度较高)的候选对象排除掉(将Score设为0) u2003u20032.1.4)如果所有bounding box要么在输出列表中,要么Score=0,则该对象类别的NMS完成,返回步骤2处理下一种对象 3)输出列表即为预测的对象 10)小结 YOLO以速度见长,处理速度可以达到45fps,其快速版本(网络较小)甚至可以达到155fps。这得益于其识别和定位合二为一的网络设计,而且这种统一的设计也使得训练和预测可以端到端的进行,非常简便。 不足之处是小对象检测效果不太好(尤其是一些聚集在一起的小对象),对边框的预测准确度不是很高,总体预测精度略低于Fast RCNN。主要是因为网格设置比较稀疏,而且每个网格只预测两个边框,另外Pooling层会丢失一些细节信息,对定位存在影响。 更多细节请参考原论文。 最后,如果你竟然坚持看到这里,觉得还有所帮助的话,请点个赞:)u0e51u06e9u06deu06e9u0e51 You Only Look Once: Unified, Real-Time Object Detection Andrew Ng的深度学习工程师 - 04卷积神经网络 图解YOLO 你真的读懂yolo了吗? 目标检测|YOLO原理与实现

详细解读TPH-YOLOv5 | 让目标检测任务中的小目标无处遁形

1 简介 针对无人机捕获场景的目标检测是最近比较流行的一项任务。由于无人机在不同高度飞行,目标尺度变化较大,这样给模型的优化也带来了很大的负担。此外,在无人机进行高速低空飞行时,也会带来密集目标的运动模糊问题。 图1 小目标与密集问题 为了解决上述2个问题,本文提出了 TPH-YOLOv5 。 TPH-YOLOv5 在YOLOv5的基础上增加了一个prediction heads 来检测不同尺度的目标。然后通过探索Self-Attention的预测潜力使用了Transformer Prediction Heads(TPH)代替原来的prediction heads。同时作者还集成了卷积块Attention模型(CBAM)来寻找密集场景下的注意力区域。 为了进一步改进 TPH-YOLOv5 ,作者还提供了大量有用的策略,如数据增强、多尺度测试、多模型集成和使用额外的分类器。 在VisDrone2021数据集上的大量实验表明,TPH-YOLOv5在无人机捕获场景上具有良好的性能和可解释性。在DET-test-challenge数据集上,TPH-YOLOv5的AP结果为39.18%,比之前的SOTA方法(DPNetV3)提高了1.81%。在VisDrone Challenge 2021中,TPH-YOLOv5与YOLOv5相比提高了约7%。 本文的贡献如下: 2 前人工作总结 2.1 Data Augmentation 数据增强的意义主要是扩展数据集,使模型对不同环境下获得的图像具有较高的鲁棒性。 Photometric和geometric被研究人员广泛使用。对于Photometric主要是对图像的色相、饱和度和值进行了调整。在处理geometric时主要是添加随机缩放、裁剪、平移、剪切和旋转。 除了上述的全局像素增强方法外,还有一些比较独特的数据增强方法。一些研究者提出了将多幅图像结合在一起进行数据增强的方法,如MixUp、CutMix和Mosaic。 MixUp从训练图像中随机选取2个样本进行随机加权求和,样本的标签也对应于加权求和。不同于通常使用零像素mask遮挡图像的遮挡工作,CutMix使用另一个图像的区域覆盖被遮挡的区域。Mosaic是CutMix的改进版。拼接4幅图像,极大地丰富了被检测物体的背景。此外,batch normalization计算每层上4张不同图像的激活统计量。 在TPH-YOLOv5的工作中主要是结合了MixUp、Mosaic以及传统方法进行的数据增强。 2.2 Multi-Model Ensemble Method 我们都知道深度学习模型是一种非线性方法。它们提供了更大的灵活性,并可以根据训练数据量的比例进行扩展。这种灵活性的一个缺点是,它们通过随机训练算法进行学习,这意味着它们对训练数据的细节非常敏感,每次训练时可能会得到一组不同的权重,从而导致不同的预测。 这给模型带来了一个高方差 。 减少模型方差的一个成功方法是训练多个模型而不是单一模型,并结合这些模型的预测。 针对不同的目标检测模型,有3种不同的ensemble boxes方法:非最大抑制(NMS)、Soft-NMS、Weighted Boxes Fusion(WBF)。 在NMS方法中,如果boxes的overlap, Intersection Over Union(IoU)大于某个阈值,则认为它们属于同一个对象。对于每个目标NMS只留下一个置信度最高的box删除其他box。因此,box过滤过程依赖于这个单一IoU阈值的选择,这对模型性能有很大的影响。 Soft-NMS是对NMS进行轻微的修改,使得Soft-NMS在标准基准数据集(如PASCAL VOC和MS COCO)上比传统NMS有了明显的改进。它根据IoU值对相邻边界box的置信度设置衰减函数,而不是完全将其置信度评分设为0并将其删除。 WBF的工作原理与NMS不同。NMS和Soft-NMS都排除了一些框,而WBF将所有框合并形成最终结果。因此,它可以解决模型中所有不准确的预测。本文使用WBF对最终模型进行集成,其性能明显优于NMS。 2.3 Object Detection 基于CNN的物体检测器可分为多种类型: 一些检测器是专门为无人机捕获的图像设计的,如RRNet、PENet、CenterNet等。但从组件的角度来看,它们通常由2部分组成,一是基于CNN的主干,用于图像特征提取,另一部分是检测头,用于预测目标的类和Box。 此外,近年来发展起来的目标检测器往往在backbone和head之间插入一些层,人们通常称这部分为检测器的Neck。接下来分别对这3种结构进行详细介绍: Backbone 常用的Backbone包括VGG、ResNet、DenseNet、MobileNet、EfficientNet、CSPDarknet53、Swin-Transformer等,均不是自己设计的网络。因为这些网络已经证明它们在分类和其他问题上有很强的特征提取能力。但研究人员也将微调Backbone,使其更适合特定的垂直任务。 Neck Neck的设计是为了更好地利用Backbone提取的特征。对Backbone提取的特征图进行不同阶段的再处理和合理使用。通常,一个Neck由几个自底向上的路径和几个自顶向下的路径组成。Neck是目标检测框架中的关键环节。最早的Neck是使用上下取样块。该方法的特点是没有特征层聚合操作,如SSD,直接跟随头部后的多层次特征图。 常用的Neck聚合块有:FPN、PANet、NAS-FPN、BiFPN、ASFF、SAM。这些方法的共性是反复使用各种上下采样、拼接、点和或点积来设计聚合策略。Neck也有一些额外的块,如SPP, ASPP, RFB, CBAM。 Head 作为一个分类网络,Backbone无法完成定位任务,Head负责通过Backbone提取的特征图检测目标的位置和类别。 Head一般分为2种:One-Stage检测器和Two-Stage检测器。 两级检测器一直是目标检测领域的主导方法,其中最具代表性的是RCNN系列。与Two-Stage检测器相比One-Stage检测器同时预测box和目标的类别。One-Stage检测器的速度优势明显,但精度较低。对于One-Stage检测器,最具代表性的型号是YOLO系列、SSD和RetaNet。 3TPH-YOLOv53.1 Overview of YOLOv5 YOLOv5有4种不同的配置,包括YOLOv5s,YOLOv5m, YOLOv5l和YOLOv5x。一般情况下,YOLOv5分别使用CSPDarknet53+SPP为Backbone,PANet为Neck, YOLO检测Head。为了进一步优化整个架构。由于它是最显著和最方便的One-Stage检测器,作者选择它作为Baseline。 图2 THP-YOLOv5整体架构 当使用VisDrone2021数据集训练模型时,使用数据增强策略(Mosaic和MixUp)发现YOLOv5x的结果远远好于YOLOv5s、YOLOv5m和YOLOv5l, AP值的差距大于1.5%。虽然YOLOv5x模型的训练计算成本比其他3种模型都要高,但仍然选择使用YOLOv5x来追求最好的检测性能。此外,根据无人机捕获图像的特点,对常用的photometric和geometric参数进行了调整。 3.2 TPH-YOLOv5 TPH-YOLOv5的框架如图3所示。修改了原来的YOLOv5,使其专一于VisDrone2021数据集: 图3 TPH-YOLOv5模型结构 微小物体的预测头 作者统计了VisDrone2021数据集,发现它包含了很多非常小的目标,所以增加了一个用于微小物体检测的预测头。结合其他3个预测头,4头结构可以缓解剧烈的目标尺度变化带来的负面影响。如图3所示,添加的预测头(Head 1)是由low-level、高分辨率的feature map生成的,对微小物体更加敏感。增加检测头后,虽然增加了计算和存储成本,但对微小物体的检测性能得到了很大的提高。 Transformer encoder block 图4 Transformer Block 用Transformer encoder块替换了YOLOv5原版中的一些卷积块和CSP bottleneck blocks。其结构如图4所示。与CSPDarknet53中原有的bottleneck blocks相比,作者认为Transformer encoder block可以捕获全局信息和丰富的上下文信息。 每个Transformer encoder block包含2个子层。第1子层为multi-head attention layer,第2子层(MLP)为全连接层。每个子层之间使用残差连接。Transformer encoder block增加了捕获不同局部信息的能力。它还可以利用自注意力机制来挖掘特征表征潜能。在VisDrone2021数据集中,Transformer encoder block在高密度闭塞对象上有更好的性能。 基于YOLOv5,作者只在头部部分应用Transformer encoder block形成transformer Prediction head(TPH)和backbone端。因为网络末端的特征图分辨率较低。将TPH应用于低分辨率特征图可以降低计算和存储成本。此外,当放大输入图像的分辨率时可选择去除早期层的一些TPH块,以使训练过程可用。 Convolutional block attention module (CBAM) CBAM是一个简单但有效的注意力模块。它是一个轻量级模块,可以即插即用到CNN架构中,并且可以以端到端方式进行训练。给定一个特征映射,CBAM将沿着通道和空间两个独立维度依次推断出注意力映射,然后将注意力映射与输入特征映射相乘,以执行自适应特征细化。 图5 CBAM注意力机制 CBAM模块的结构如图5所示。通过本文的实验,在不同的分类和检测数据集上将CBAM集成到不同的模型中,模型的性能得到了很大的提高,证明了该模块的有效性。 在无人机捕获的图像中,大覆盖区域总是包含令人困惑的地理元素。使用CBAM可以提取注意区域,以帮助TPH-YOLOv5抵制令人困惑的信息,并关注有用的目标对象。 Self-trained classifier 用TPH-YOLOv5对VisDrone2021数据集进行训练后,对test-dev数据集进行测试,然后通过可视化失败案例分析结果,得出TPH-YOLOv5定位能力较好,分类能力较差的结论。作者进一步探索如图6所示的混淆矩阵,观察到一些硬类别,如三轮车和遮阳三轮车的精度非常低。 图6 检测混淆矩阵 因此,作者提出了一个Self-trained classifier。首先,通过裁剪ground-truth边界框并将每个图像patch的大小调整为64 64来构建训练集。然后选择ResNet18作为分类器网络。实验结果表明,在这个Self-trained classifier的帮助下,所提方法对AP值提高了约0.8%~1.0%。 4实验与结论 最终在test-set-challenge上取得了39.18的好成绩,远远高于VisDrone2020的最高成绩37.37。 图9 检测结果图

2021长沙江小白yolo音乐节举办时间-地点及门票

今年五一即将举办的音乐节活动非常的多,可以说都是非常受大家关注的。长沙作为近几年来非常受关注的城市,在五一期间将会举办多场演唱会。要说规模最大的应该就是长沙江小白yolo音乐节,活动具体详情如下。2021长沙江小白yolo音乐节 演出时间:5月2日12:00-21:30演出地点:湖南省长沙市长沙国际会展中心门票:480元/人购票入口:淘宝关注官方店铺“YOLO有路”YOLO礼包内容购头门票随票附赠礼包(二选一)礼包1:长河、百搭T(颜色、款式随机尺码自选)礼包2:YOLO毛巾、YOLO头带、YOLO手环、YOLO护腕 购票需知1、下单成功后需在15分钟内完成支付未支付成功的订单,将在下单15分钟后系统自动取消,顺丰请联系客服补邮费差价。2、由于套餐的特殊性,所有套餐产品“一经售出概不退换,敬请谅解。每个淘宝账户、支付宝账户、手机号限购4张。3、演出时间为5月2日12:00-21:30,预计活动开始前60分钟开始检票,入场活动结束前90分钟停止检票入场,实际以现场情况为准,建议合理安排出行时间。4、1.2米以下儿童谢绝入场,1.2米以上在成人陪同下凭全票入场。5、实体门票是观众入场的必要凭证,请妥善保管,入场时务必携带。嘉宾名单GAI周延、C-BLOCK_OFFICIAL(大傻、刘聪、功夫胖)、T_T、布瑞吉_bridge、乃万、艾热、PACT派克特、咖啡壶、龙胆紫、王齐铭、于意、福克斯、Ranzer、Rose_Doggy、UglyZ 交通攻略地铁乘坐地铁2号线、4号线抵达光达站,从1号出口出站步行到达长沙国际会展中心。公交长沙国际会展中心6号门最近的站点为“黄兴大桥东”和“长沙国际会展中心东门”站,总共有4条公交线路。乘坐263路、917路、星沙105路、x112路均可来到现场。

YOLOv5 detect 推理测试(没有检测框)

Nvidia RTX 3060 Ubuntu 16.04 CUDA 11.1 cuDNN 8.2.0 torch 1.10.1+cu111 torchvision 0.11.2+cu111 YOLOv5搭建及训练自己的数据集,请参考另一篇文章: https://www.jianshu.com/p/b3fa74f6c27b 训练完毕会得到 best.pt 和 last.pt 的权重文件,权重文件在 /run/train/exp/weights 下以YOLOv5 v6.0版本为例,先使用原始权重文件及项目提供的原始图片进行detect推理一下,可以修改detect.py文件 可以先使用命令查看一下正确指令 然后,使用命令 运行结果将被保存在 /run/detect文件夹下 detect结果如下: detect结果除了有标注的图片外,还有一个文件夹记录检测框的信息: 可以根据上述自行修改,对自己的项目进行detect。 我在detect的时候,一直没有检测框,找了一天bug,原来是命令写错了,两行心酸泪== 一定按照 python detect.py -h 写,不然对图片不做任何修改
 首页 上一页  1 2