当前位置: 首页 > news >正文

免费团购网站模板wordpress cms theme

免费团购网站模板,wordpress cms theme,wordpress锚文字,阿里云淘宝客网站建设教程Torchvision更新到0.3.0后支持了更多的功能#xff0c;其中新增模块detection中实现了整个faster-rcnn的功能。本博客主要讲述如何通过torchvision和pytorch使用faster-rcnn#xff0c;并提供一个demo和对应代码及解析注释。 目录 如果你不想深入了解原理和训练#xff0c…Torchvision更新到0.3.0后支持了更多的功能其中新增模块detection中实现了整个faster-rcnn的功能。本博客主要讲述如何通过torchvision和pytorch使用faster-rcnn并提供一个demo和对应代码及解析注释。 目录 如果你不想深入了解原理和训练只想用Faster-rcnn做目标检测请看这里 torchvision中Faster-rcnn接口 一个demo 使用方法 如果你想深入了解原理并训练自己的模型 环境搭建 准备训练数据 模型训练 单张图片检测 效果 如果你不想深入了解原理和训练只想用Faster-rcnn做目标检测请看这里 torchvision中Faster-rcnn接口 torchvision内部集成了Faster-rcnn的模型其接口和调用方式野非常简洁目前官方提供resnet50rpn在coco上训练的模型调用该模型只需要几行代码 import torch import torchvision   // 创建模型pretrainedTrue将下载官方提供的coco2017模型 model torchvision.models.detection.fasterrcnn_resnet50_fpn(pretrainedTrue) model.eval() x [torch.rand(3, 300, 400), torch.rand(3, 500, 400)] predictions model(x)       注意网络的输入x是一个Tensor构成的list而输出prediction则是一个由dict构成list。prediction的长度和网络输入的list中Tensor个数相同。prediction中的每个dict包含输出的结果 其中boxes是检测框坐标labels是类别scores则是置信度。 predictions[0]   {boxes: tensor([], size(0, 4), grad_fnStackBackward), labels: tensor([], dtypetorch.int64), scores: tensor([], grad_fnIndexBackward)} 一个demo 如果你不想自己写读取图片/预处理/后处理我这里有个写好的demo.py可以跑在任何安装了pytorch1.1和torchvision0.3的环境下不需要其他依赖可以用来完成目标检测的任务。 为了能够显示类别标签我们将coco的所有类别写入coco_names.py names {0: background, 1: person, 2: bicycle, 3: car, 4: motorcycle, 5: airplane, 6: bus, 7: train, 8: truck, 9: boat, 10: traffic light, 11: fire hydrant, 13: stop sign, 14: parking meter, 15: bench, 16: bird, 17: cat, 18: dog, 19: horse, 20: sheep, 21: cow, 22: elephant, 23: bear, 24: zebra, 25: giraffe, 27: backpack, 28: umbrella, 31: handbag, 32: tie, 33: suitcase, 34: frisbee, 35: skis, 36: snowboard, 37: sports ball, 38: kite, 39: baseball bat, 40: baseball glove, 41: skateboard, 42: surfboard, 43: tennis racket, 44: bottle, 46: wine glass, 47: cup, 48: fork, 49: knife, 50: spoon, 51: bowl, 52: banana, 53: apple, 54: sandwich, 55: orange, 56: broccoli, 57: carrot, 58: hot dog, 59: pizza, 60: donut, 61: cake, 62: chair, 63: couch, 64: potted plant, 65: bed, 67: dining table, 70: toilet, 72: tv, 73: laptop, 74: mouse, 75: remote, 76: keyboard, 77: cell phone, 78: microwave, 79: oven, 80: toaster, 81: sink, 82: refrigerator, 84: book, 85: clock, 86: vase, 87: scissors, 88: teddybear, 89: hair drier, 90: toothbrush} 然后构建一个可以读取图片并检测的demo.py import torch import torchvision import argparse import cv2 import numpy as np import sys sys.path.append(./) import coco_names import random   def get_args():     parser argparse.ArgumentParser(descriptionPytorch Faster-rcnn Detection)       parser.add_argument(image_path, typestr, helpimage path)     parser.add_argument(--model, defaultfasterrcnn_resnet50_fpn, helpmodel)     parser.add_argument(--dataset, defaultcoco, helpmodel)     parser.add_argument(--score, typefloat, default0.8, helpobjectness score threshold)     args parser.parse_args()       return args   def random_color():     b random.randint(0,255)     g random.randint(0,255)     r random.randint(0,255)       return (b,g,r)   def main():     args get_args()     input []     num_classes 91     names coco_names.names              # Model creating     print(Creating model)     model torchvision.models.detection.__dict__[args.model](num_classesnum_classes, pretrainedTrue)       model model.cuda()       model.eval()       src_img cv2.imread(args.image_path)     img cv2.cvtColor(src_img, cv2.COLOR_BGR2RGB)     img_tensor torch.from_numpy(img/255.).permute(2,0,1).float().cuda()     input.append(img_tensor)     out model(input)     boxes out[0][boxes]     labels out[0][labels]     scores out[0][scores]       for idx in range(boxes.shape[0]):         if scores[idx] args.score:             x1, y1, x2, y2 boxes[idx][0], boxes[idx][1], boxes[idx][2], boxes[idx][3]             name names.get(str(labels[idx].item()))             cv2.rectangle(src_img,(x1,y1),(x2,y2),random_color(),thickness2)             cv2.putText(src_img, textname, org(x1, y110), fontFacecv2.FONT_HERSHEY_SIMPLEX,                  fontScale0.5, thickness1, lineTypecv2.LINE_AA, color(0, 0, 255))       cv2.imshow(result,src_img)     cv2.waitKey()     cv2.destroyAllWindows()          if __name__ __main__:     main() 运行命令 $ python demo.py [image path] 就能完成检测并且不需要任何其他依赖只需要Pytorch1.1和torchvision0.3。看下效果 使用方法 我发现好像很多人对上面这个demo怎么用不太清楚照着下面的流程做就好了 下载代码https://github.com/supernotman/Faster-RCNN-with-torchvision 下载模型Baidu Cloud 运行命令 $ python detect.py --model_path [模型路径] --image_path [图片路径] 其实非常简单。 如果你想深入了解原理并训练自己的模型 这里提供一份我重构过的代码把torchvision中的faster-rcnn部分提取出来可以训练自己的模型目前只支持coco并有对应博客讲解。 代码地址https://github.com/supernotman/Faster-RCNN-with-torchvision 代码解析博客: Pytorch torchvision构建Faster-rcnn一----coco数据读取 Pytorch torchvision构建Faster-rcnn二----基础网络 Pytorch torchvision构建Faster-rcnn三----RPN Pytorch torchvision构建Faster-rcnn四----ROIHead 训练模型Baidu Cloud 环境搭建 下载代码 $ git clone https://github.com/supernotman/Faster-RCNN-with-torchvision.git 安装依赖 $ pip install -r requirements.txt 注意 代码要求Pytorch版本大于1.1.0torchvision版本大于0.3.0。 如果某个依赖项通过pip安装过慢推荐替换清华源 $ pip install -i https://pypi.tuna.tsinghua.edu.cn/simple some-package 如果pytorch安装过慢可参考conda安装Pytorch下载过慢解决办法(7月23日更新ubuntu下pytorch1.1安装方法) 准备训练数据 下载coco2017数据集下载地址 http://images.cocodataset.org/zips/train2017.zip http://images.cocodataset.org/annotations/annotations_trainval2017.zip http://images.cocodataset.org/zips/val2017.zip http://images.cocodataset.org/annotations/stuff_annotations_trainval2017.zip http://images.cocodataset.org/zips/test2017.zip http://images.cocodataset.org/annotations/image_info_test2017.zip  如果下载速度过慢可参考博客COCO2017数据集国内下载地址 数据下载后按照如下结构放置 coco/     2017/       annotations/       test2017/       train2017/       val2017/ 模型训练 $ python -m torch.distributed.launch --nproc_per_node$gpus --use_env train.py --world-size $gpus --b 4 训练采用了Pytorch的distributedparallel方式支持多gpu。 注意其中$gpus为指定使用的gpu数量b为每个gpu上的batch_size因此实际batch_size大小为$gpus × b。 实测当b41080ti下大概每张卡会占用11G显存请根据情况自行设定。 训练过程中每个epoch会给出一次评估结果形式如下 Average Precision  (AP) [ IoU0.50:0.95 | area   all | maxDets100 ] 0.352  Average Precision  (AP) [ IoU0.50      | area   all | maxDets100 ] 0.573  Average Precision  (AP) [ IoU0.75      | area   all | maxDets100 ] 0.375  Average Precision  (AP) [ IoU0.50:0.95 | area small | maxDets100 ] 0.207  Average Precision  (AP) [ IoU0.50:0.95 | areamedium | maxDets100 ] 0.387  Average Precision  (AP) [ IoU0.50:0.95 | area large | maxDets100 ] 0.448  Average Recall     (AR) [ IoU0.50:0.95 | area   all | maxDets  1 ] 0.296  Average Recall     (AR) [ IoU0.50:0.95 | area   all | maxDets 10 ] 0.474  Average Recall     (AR) [ IoU0.50:0.95 | area   all | maxDets100 ] 0.498  Average Recall     (AR) [ IoU0.50:0.95 | area small | maxDets100 ] 0.312  Average Recall     (AR) [ IoU0.50:0.95 | areamedium | maxDets100 ] 0.538  Average Recall     (AR) [ IoU0.50:0.95 | area large | maxDets100 ] 0.631 其中AP为准确率AR为召回率第一行为训练结果的mAP第四、五、六行分别为小/中/大物体对应的mAP 单张图片检测 $ python detect.py --model_path result/model_13.pth --image_path imgs/1.jpg model_path为模型路径image_path为测试图片路径。 代码文件夹中assets给出了从coco2017测试集中挑选的11张图片测试结果。 效果 任何程序错误以及技术疑问或需要解答的请添加
http://www.sadfv.cn/news/404275/

相关文章:

  • 服装网站 欣赏软件开发文档编制规范
  • 王晴儿 网站建设wordpress eaccelerator
  • 大理州城乡建设局网站免费的wordpress账号
  • 什么叫建网站程序开发外包
  • 如何做介绍监控公司的网站建设通官方网站
  • 中山做公司网站小程序制作服务器
  • 不限流量网站空间iis6添加网站
  • 佛山网站设计多少钱企业邮箱域名怎么填写
  • 西部数码网站模板知识产权代理
  • 小程序公众号网站建设房地产开发公司的简介
  • 商城网站开发哪家好海淀企业型网站建设
  • 网站开发资费做网站用注册公司吗
  • 华强方特网站开发关键字参数
  • 微信小程序制作网站在线制作ppt免费
  • 中山网站建设托管建设银行东四十条支行支行网站
  • 网站 搭建 亚洲服务器深圳燃气公司排名
  • 清远建设网站wordpress 容易被收录吗
  • 珠海微网站建设英文搜索网站
  • 阿里云的云服务器做网站用哪种用wordpress怎么赚钱
  • 国内室内设计网站大全分布式wordpress
  • 站长工具天美传媒上海做ui网站最好的公司
  • 怎么用php源代码做网站wordpress网站响应速度插件
  • 坪地网站建设我想开个公司怎么注册
  • 网站 建设 毕业设计 要求电商详情页素材
  • 潍坊建设网站多少钱wordpress 微信登录key
  • 怎么用动图做网站背景兴力网站建设
  • 做网店有哪些拿货网站成都网站建设sntuu
  • 泰兴企业网站建设今天特大军事新闻事件
  • 怎么自己制作一个好的网站怎么做球球业务网站
  • 影楼网站设计做手机网站要注意