当前位置: 首页 > news >正文

做百度推广网站排名建设造价信息网站

做百度推广网站排名,建设造价信息网站,wordpress文章导入,建立销售型网站目录 一、U-Net介绍 1.1 网络简单介绍 1.2 网络特点 二、FCNVMB介绍 2.1 文章简介 2.2 网络简单介绍 2.3 代码介绍 2.4 跳跃连接 2.5 训练过程 2.6 FCNVMB与InversionNet的比较 一、U-Net介绍 1.1 网络简单介绍 U-Net是基于全卷积网络下一个语义分割应用于生物医学的深…目录 一、U-Net介绍 1.1 网络简单介绍 1.2 网络特点 二、FCNVMB介绍 2.1 文章简介 2.2 网络简单介绍 2.3 代码介绍 2.4 跳跃连接 2.5 训练过程 2.6 FCNVMB与InversionNet的比较 一、U-Net介绍 1.1 网络简单介绍 U-Net是基于全卷积网络下一个语义分割应用于生物医学的深度学习网络主要应用与医学领域的图像分割因其网络整体结构呈现U字型因此被称为U-Net网络。该方法在2015年MICCAI会议上提出。 UNet是基于编码器-解码器的网络从左边到中间图像尺寸一步步减小通道数一步步增加右边是一个逆过程。 语义分割(Semantic Segmentation)是图像处理和机器视觉一个重要分支。与分类任务不同语义分割需要判断图像每个像素点的类别进行精确分割。语义分割目前在自动驾驶、自动抠图、医疗影像等领域有着比较广泛的应用。 U-Net采用全卷积神经网络——左侧为下采样右侧为上采样。 encoder左边为特征提取网络使用conv和pooling。 decoder右边为特征融合网络使用上采样产生的特征图与左侧特征图进行concatenate操作 。 pooling层会丢失图像信息和降低图像分辨率且是永久性的对于图像分割任务有一些影响对图像分类任务的影响不大。为什么要做上采样呢上采样可以让包含高级抽象特征低分辨率图片在保留高级抽象特征的同时变为高分辨率然后再与左边低级表层特征高分辨率图片进行concatenate操作。 1.2 网络特点 1跳跃连接Skip Connection中间四条灰色的平行线在上采样的过程中融合下采样过过程中的feature map遇到大小不相同时使用的是裁剪操作而非padding操作。在解码器阶段会采用原编码器的一些网络的特征map来融合进行学习产生关联。 2图像分割可以对每个像素点进行分割获得更高的分割准确率。 3拼接而非相加Concat利用之前编码器的结构的时候实际是将两个通道直接连在一起进行扩充128128256。 4架构上更充分地融合浅层特征编码器结构和深层特征解码器结构浅层特征图更倾向于表达例如点、线、边缘轮廓等基本特征单元蕴含的空间信息更多图像涵盖面积更广深层特征图更倾向于表达图像的语义信息蕴含的空间信息更少感受不到与原来图片的关联语义特征更多涵盖的计算机所理解的信息更多。 5支持少量的训练模型在医学方向所能够训练的数据相对较小、且同时需要进行检测的数据/目标较大所以在U-Net网络中使用到了数据增强的处理分割的准确度也不会差。 二、FCNVMB介绍 2.1 文章简介 论文名称Deep-Learning inversion: a next gneration seismic velocity-model building method(Fangshu Yang and Jianwei Ma)——2019年 面向数据集SEG盐数据及其模拟严格的端到端网络结构比inversionNet复杂一些是U-Net的网络结构 该算法属于FCN引导的VMBVelocity Model Build-速度模型构建的缩写在代码层这个算法更类似于UNet架构UNet隶属于FCN的一种改进后的变体。 FCN-全连接的卷积神经网络针对图像分割的一些任务通过特征图对应像素值的相加来融合特征的。 U-Net-处理图像分割的任务但是比传统FCN更高级一些处理的任务更好一点主要应用于医学领域。通过通道数的拼接形成更厚的特征会更加消耗显存。 2.2 网络简单介绍 图例介绍  1FCNVMB由基本的编码器左侧和解码器右侧共同构成分别采用蓝色和橙色表示。 2红色箭头一个红色箭头代表三个操作——conv卷积、BN归量化、ReLU激活函数图片的数量和通道数都没有发生变化相当于特征的重整合为接下来的尺寸变化做准备。 3紫色箭头下采样-最大池化会导致尺寸缩小一半 相当于特征进一步提取细化。 4黄色箭头反卷积导致尺寸扩大一倍主要用于解码器。 5蓝色箭头表示1*1的卷积保证图片尺寸不变进行特征映射。 6蓝色数字立方体的宽度代表通道数通道数的变化与卷积个数有关, 这个可以通过程序灵活定义, 但是可以发现通道的减少是服从一定规律的立方体侧面截面的面积代表一张图片的尺寸大小当前网络层的Feature map立方体中的黑色字体就代表这个Feature map截面的尺寸。 7每个通道数存在的时间基本上只有三次每次通道数的变化总是在两次红色卷积一次紫色卷积之后。 8跳跃连接skip connection编码器的结构会通过skip connection与解码器的部分通道进行补充该过程通过虚线表示skip connection直接进行通道的合并而非相加。 2.3 代码介绍 在代码中会将一些简单卷积相关操作整合自底向上来看分为三步 ①Pytorch库中独立的卷积操作低级操作 ②卷积组合 (两次红色箭头) 封装为 unetConv2(…)中级操作 ③表示编码和解码被封装为unetDown(…)和unetUp(…)高级操作这些操作的组合顺序在图中用不同的色区分割。这两个高级操作是由两次中级操作和一次最大池化或反卷积构成。 例如紫色、黄色和蓝色的线可以称为低级操作红色称为中级操作。 搭建网络的主要代码 # 四次下采样的过程—对应灰色、紫色、绿色、黄色子块 self.down1 unetDown(self.in_channels, filters[0], self.is_batchnorm) self.down2 unetDown(filters[0], filters[1], self.is_batchnorm) self.down3 unetDown(filters[1], filters[2], self.is_batchnorm) self.down4 unetDown(filters[2], filters[3], self.is_batchnorm)# unetConv2是指两次红色箭头的封装-中级操作 self.center unetConv2(filters[3], filters[4], self.is_batchnorm)# 四次上采样的过程-对应黄色、绿色、紫色、灰色子块 self.up4 unetUp(filters[4], filters[3], self.is_deconv) self.up3 unetUp(filters[3], filters[2], self.is_deconv) self.up2 unetUp(filters[2], filters[1], self.is_deconv) self.up1 unetUp(filters[1], filters[0], self.is_deconv)# 进行一次卷积操作完成输出 self.final nn.Conv2d(filters[0], self.n_classes, 1)2.4 跳跃连接 过程①获得上一次向上采样得到的特征图inputs2通过一次上采样得到outputs2②接收编码结构与之相对应的特征的输出图inputs1③inputs1与outputs2尺寸大小不一致通过F.pad补齐尺寸④通过torch.cat进行合并并通过一次卷积操作输出。 def forward(self, inputs1, inputs2)::param inputs1: Layer of the selected coding area via skip connection:param inputs2: Current network layer based on network flows:return:# 反卷积操作outputs2 self.up(inputs2)# 计算边缘差异大小对inputs1进行扩充offset1 (outputs2.size()[2] - inputs1.size()[2])offset2 (outputs2.size()[3] - inputs1.size()[3])padding [offset2 // 2, (offset2 1) // 2, offset1 // 2, (offset1 1) // 2]# Skip and concatenateoutputs1 F.pad(inputs1, padding)return self.conv(torch.cat([outputs1, outputs2], 1))①inputs1来自于与当前向上采样相对称的一次下采样操作的输出结果。 ②inputs2表示上一次unetUp(…)操作结束后的输出Feature map同时也作为本次unetUp(…)的最近端输入。inputs2在进入程序后立马进行了一次反卷积扩大了一倍尺寸顺势变成了outputs2。 ③从inputs2到outputs2尺寸扩大了一倍 通道数缩小了一半故outputs2尺寸为256*100*76。 注意需留意skip connection在代码中的实现过程 明确当前Feature map与编码阶段的哪个层进行通道整合。 inputs1与outputs2通道一致但尺寸并不匹配通过F.pad操作将inputs1进行了扩充得到了同尺寸的outputs1。 而后将outputs1和outputs2进行通道合并合并为一个512*100*76的Feature map。 最后将这个Feature map作为一个整体再度进行两次红色箭头的操作。 2.5 训练过程 网络参数介绍 FCNVMB采用了一种迁移学习的思想先训练模拟数据让网络大概认识到SEG盐数据的分布通过模拟盐数据的背景完成针对真实数据的学习。 ①基于速度模型通过正演生成地震数据 ②调用代码完成初始模型训练得到初始的预训练模型训练100轮可针对模拟盐数据进行预测达到一些效果 ③真实数据正演得到地震数据再进行训练可以只训练50轮得到再训练模型可针对真实数据进行预测也可针对模拟数据进行预测但是效果不太好 2.6 FCNVMB与InversionNet的比较 相同点: ①均是单一的端到端深度网络并没有利用更多的物理含义。 ②均采用了编码器-解码器的架构。 ③均利用叠前多炮数据的不同炮集直接投入训练并未处理。 不同点: ①InversionNet在编码的过程中最终将图像压缩为完全的一维向量抛弃了空间关联性而FCNVMB在压缩后仍保留了25 * 19的空间尺寸关联。 但是对应的代价是FCNVMB的模型内存占有量很大难以进行大batch体量的训练而InversionNet可以非常灵活进行训练。 ②FCNVMB面向SEG盐数据 InversionNet面向部分OpenFWI的数据。因为OpenFWI数据的特点InversionNet有非常明显的高度降维部分。 ③FCNVMB使用了迁移学习的训练手段后者InversionNet是单一的训练思想。   ④FCNVMB采用了包含skip connection的UNet的架构而InversionNet是单一的CNN架构。
http://www.yutouwan.com/news/443451/

相关文章:

  • 电子商务网站开发的wordpress 站内信
  • 南通网站推广公司哪家好工厂做网站
  • 网站对接app网络开发工具有哪些
  • discu论坛网站模板男女做那个的网站
  • 网站点击量与排名360度实景地图下载
  • 泰安网站建设招聘淘宝网站建设类目
  • 网站欣赏公司网站案例开源展示型网站
  • 网站正常打开速度知名企业logo
  • 苏州网络推广苏州网站建设主流网站类型
  • 教学网站开发wordpress网盘搜索源码
  • 网站速度搜索引擎营销的方法有哪些
  • 网站表格代码网站建设插导航条
  • 做前端网站用什么软件写代码吗网站需要多大数据库
  • 一键做网站技术支持 湖州网站建设
  • 泰安市网站建设c 做网站 知乎
  • 枣庄网站建设公司2020新闻大事件摘抄
  • 福永附近网站建设公司商品列表html模板
  • 大丰网站开发网站建设公司没有业务
  • 国内的优秀设计网站创意产品设计及介绍
  • 网站移动窗口代码优质手机网站建设企业
  • 网站开发首选语言wordpress版权
  • 建筑网格布生产厂家wordpress代码优化
  • 网站必备功能北京电商app开发
  • 南宁营销型网站建设哪家好做外贸站推广
  • 惠州网站建设html5自己的网站可以做淘客吗
  • 南京企业网站开发费用申请广告制作是做什么的
  • 滑板网页网站设计网站托管西安
  • 高端建设网站公司哪家好站长工具seo综合查询方法
  • 网站怎样做推广计划青海省住房和城乡建设厅 网站
  • 青岛网站建设运营本地wordpress怎么创建2个网址