当前位置: 首页 > news >正文

百度2018旧版下载淄博seo

百度2018旧版下载,淄博seo,网页制作基础教程教学设计,禹州做网站的公司来源#xff1a;小马智行第二场技术沙龙今天我主要想分享自动驾驶感知技术在探索的过程中#xff0c;采用的传统方法和深度学习方法。传统方法不代表多传统#xff0c;深度学习也不代表多深度。它们有各自的优点#xff0c;也都能解决各自的问题#xff0c;最终希望将其结… 来源小马智行第二场技术沙龙今天我主要想分享自动驾驶感知技术在探索的过程中采用的传统方法和深度学习方法。传统方法不代表多传统深度学习也不代表多深度。它们有各自的优点也都能解决各自的问题最终希望将其结合起来发挥所有方法的优点。感知系统简介首先介绍下感知系统。感知可以被看作是对周围世界建模的过程比如车辆在行驶过程中需要知道其他物体的地理位置、速度、运动方向、加速度等各种各样的信息自动驾驶系统接收这些信息之后再通过后续的规划和控制模块来对车的运动做真正的调节。感知可以类比为人类眼睛的功能即观察周围世界的能力◆ 采用的传感器激光雷达、照相机、毫米波雷达等。◆ 帧信号处理多传感器深度融合、物体分割、物体检测、物体分类。◆ 物体追踪当有多帧信息之后可以推算速度、加速度、方向等更有意义的信息甚至可以用多帧的信息调整物体分割的结果。◆ 道路特征分析对道路特征进行理解比如交通信号灯、交通指示牌等。感知可以认为是自动驾驶系统的基础部分假如感知不到这个世界就谈不上对这个世界做出反应更谈不上后续的路径规划和车辆控制的过程。2D物体检测我今天主要介绍关于物体检测部分因为必须先有了准确的物体检测和分割结果我们才能对物体做出准确的分类、追踪等。我首先介绍下2D物体检测。2D物体检测是指以2D信息作为输入input的检测过程而典型的2D输入信息来自于照相机。传统2D物体检测方法及缺点传统的 2D 信息检测方法是使用检测框遍历图片把对应的图片位置抠出来之后进行特征提取用 Harris计算子检测角点信息Canny计算子检测边缘信息等。物体特征被提取并聚集在一起后通过做分类器比如SVM我们可以判断提取的图中是否存在物体以及物体的类别是什么。但传统 2D 物体检测方法存在不足检测物体时需要预置检测框对不同物体需要设置不同的检测框。自动驾驶需要高级的组合特征而传统方法提取的特征维度比较低对后续的分类会造成比较大的影响。基于深度学习的2D物体检测卷积神经网络的出现解决了部分传统2D物体检测方法的不足。卷积神经网络首先是多层感知机加卷积操作的结合它的特征提取能力非常不错。因为卷积神经网络经常会有几十、上百个卷积使其具备高维特征提取能力。其次通过 ROI pooling和RPN整张图可以共享同样的特征物体检测时不用遍历整张图片还可以在单次操作中对图片中所有物体进行检测。这种检测方法使物体检测模型真正具备了应用于实际场景中的性能。目前基于卷积神经网络的2D物体检测有两类分支◆ Anchor Based Methods跟传统方法比较类似先预置检测框检测过程则是对预设框的拟合过程。RCNNfastfasterSSDDSSDYOLOv1v2v3RetinaNET◆ Anchor Free Methods直接对照特征金字塔的每个位置回归对应位置上判断物体是否存在、它的大小是多少等。这类方法是2018年底开始大量出现的也是未来的一个发展方向。CornerNetFSAFFCOS这是路测场景中的一个真实检测案例上图2D 物体检测已经应用于检测路面上一些小物体。同时远距离物体检测也是2D物体检测中关注的重点。受限于激光雷达和毫米波雷达的物理特征远距离物体缺乏良好的检测效果而照相机在这方面比较有优势可以和其他的检测方法进行互补。2D物体检测面临的问题物体相互遮挡但是采用照相机做 2D 物体检测不可避免要面临一些问题。因为照相机回馈的图像只有两个维度当两个物体堆叠时对一个神经网络而言图像的特征就比较聚集。一般做物体检测的过程会用一些非极大值抑制的方法对检测结果进行后处理当特征结果非常密集的时候这种方法往往会受到影响。成像质量波动照相机是可见光设备因此会受到光照强度的影响成像质量出现波动。但我们总是希望图中的特征不管是在哪个位置都能得到足够的表达。例如2D图像中远处的车灯和路灯很难区分开导致可能都被检测为车或者路灯。在这种情况下特征总会难以区分。测距另一个的问题就是测距问题。因为照相机是被动光源的设备它不具备主动测距的能力。如果希望借助照相机进行物体测距就需要做很多的假设或者求解一些病态的数学问题用以估算车与物体的距离。但这个结果通常不如主动测距设备的结果比如激光雷达和毫米波雷达。3D物体检测正是因为照相机存在上面提到的问题所以我们物体检测也使用了其他的传感器将它们的结果共同结合起来最终达到更可靠的检测效果。什么是3D物体检测3D物体检测顾名思义就是把3D的一些数据坐标聚集起来进行物体检测。比如激光雷达类似于我们拿一支激光笔不断扫描周围它会提供相对明显的信息。当把3D数据聚集起来之后我们可以用来推测周围物体的位置大小朝向等等。3D物体检测一个很大的好处就是我们在2D物体检测中很难区分的物体有了3D数据提供的距离信息之后将更容易从距离的维度上分开。这样感知系统在进行物体分割的时候能使用的信息更多达到一个更好的工作效果。传统3D分割方法及限制传统的 3D 分割方法包括Flood FillDB scanGraph Cut它主要是利用一些点的距离信息、密度信息或者点的一些天然属性比如它的强度把物体聚类分割。传统分割方法也存在不少限制首先是过度分割。比如上图中的异形车由于车尾和车头之间有缝隙在 3D 检测中它可能会被分割成多个物体因为点和点之间有间隙在激光雷达检测时呈现的是离散信息就会出现过度分割。传统分割方法的另一个问题是分割不足。我们将上图出现的情况称为“三人成车”就是当三个人离的很近的时候有可能被传统分割方法识别成一辆车。基于深度学习的3D分割方法当深度学习与卷积神经网络引入到 3D 物体检测中时我们发现传统3D分割方法遇到的问题得到较好解决。首先让点云信息进行特征工程即将点的位置、反射强度、高级特征聚合在一起组织成类似图片或者图的关系。随后进行卷积神经网络特征提取再进行多帧特征的聚合它的意义是对运动的物体有一个更好的反映最后输出物体的位置、聚类信息、物体速度。通过上述深度学习方法“三人成车”的情况得到避免。系统不仅可以提取人的距离关系还可以提取到更多的高级信息比如在点云变化中人类的点云形似长的柱体而自行车类似于小山一样的点云分布这样感知系统可以了解这些障碍物不属于同一物体而将其割离开。深度学习3D分割方法的限制另一方面我们也要认识到深度学习分割方法也可能面对的挑战。◆ 结果的不完全可控首先卷积神经网络经常有几百层的卷积层参数总量可能有百万级并且是自动学习的这可能会导致对网络的输出缺少把控。换句话说系统无法预期数据输入input后会得到怎样的数据输出于自动驾驶而言这是比较致命的。因为自动驾驶对场景的召回率和精度有非常高要求如果车辆在行驶中前面的一位行人miss丢失这是极其严重的隐患。◆ 无法保证100%的召回recall如上图所示垃圾桶和行人的特征其实非常相似那么深度学习可能会出现把人学成了垃圾桶最后导致行人在感知系统中出现丢失的情况。◆ 易导致过拟合由于卷积神经网络有非常好的特征提取能力固定的数据集训练可能导致神经网络过拟合。例如同样的数据集训练后在北京路测的表现很好但是当到达一个新的城市进行测试时因为路面特征和北京有所区别可能导致物体分割效果下降这对感知系统非常不友好。优点兼得传统方法和深度学习方法的结合为了解决分割方法的限制我们的想法是将传统方法和深度学习方法的结果进行结合◆ 使用深度学习的分割结果调整传统分割方法的结果。◆ 使用传统分割方法的结果补足深度学习结果的召回。◆ 基于多帧追踪的概率模型融合比如利用马尔可夫分布的特点、贝叶斯的方法对多帧数据进行一定的平滑以得到更好的效果。通过传统方法和深度学习方法的相互结合与补充我们最终可以实现优点兼具的物体检测策略。做自动驾驶真的是一个很崎岖的旅程不断的解决问题之后又出现新的问题不过正是因为过程的艰难才带来更多的快乐。延展阅读感知系统自动驾驶看懂周围世界的“魔法”李阳光 PonyAI小马智行本期划重点»  感知系统基本介绍»  传感器配置与多传感器深度融合»  车载感知系统架构»  感知技术的挑战感知系统基本介绍Perception感知系统是以多种传感器的数据与高精度地图的信息作为输入经过一系列的计算及处理对自动驾驶车的周围环境精确感知的系统。它能够为下游模块提供丰富的信息包括障碍物的位置、形状、类别及速度信息也包括对一些特殊场景的语义理解例如施工区域交通信号灯及交通路牌等。感知系统的构成与子系统◆ 传感器涉及到传感器的安装视场角探测距离数据吞吐标定精度时间同步等。因为自动驾驶使用的传感器比较多时间同步的解决方案至关重要。◆ 目标检测及分类为了保证自动驾驶的安全感知系统需要达到近似百分之百的召回率及非常高的准确率。目标检测及分类往往会涉及到深度学习方面的工作包括3D点云及2D Image图片上的物体检测及多传感器深度融合等。◆ 多目标追踪跟进多帧的信息计算并预测障碍物的运动轨迹。◆ 场景理解包括交通信号灯路牌施工区域以及特殊类别比如校车警车。◆ 机器学习分布式训练基础架构及相关评价系统◆ 数据大量的标注数据这里包括3D点云数据及2D的图片数据等。传感器详解目前自动驾驶应用的传感器主要分为三类激光雷达LiDAR相机Camera毫米波雷达Radar。开头提到感知系统的输入为多种传感器数据和高精地图而上图展示了感知系统物体检测的输出结果即能够检测车辆周围的障碍物如车辆、行人、自行车等同时结合高精度地图感知系统也会对周边的Background环境背景信息进行输出。如上图所示绿颜色的块状代表一辆乘用车橙色代表一辆摩托车黄色代表一位行人灰色则是检测到的环境信息如植被。感知系统结合多帧的信息上图还能对运动的行人和车辆的速度、方向、轨迹预测等进行精确的输出。传感器配置与多传感器深度融合了解了关于感知系统从输入到输出的大致介绍接下来我简要介绍一下小马智行第三代自动驾驶系统PonyAlpha的传感器安装方案以及多传感器深度融合的解决方案。传感器安装方案目前PonyAlpha传感器安装方案的感知距离能够覆盖车周360度、范围200米以内。具体来看这套方案用到了3个激光雷达在车的顶部和两侧。同时通过多个广角的摄像头来覆盖360度的视野。远处的视野方面前向的毫米波雷达以及长焦相机将感知距离扩到200米的范围使其可以探测到更远处的物体信息。这套传感器配置能保证我们的自动驾驶车辆在居民区、商业区、工业区这样的场景进行自动驾驶。多传感器深度融合解决方案多传感器深度融合的基础多传感器深度融合的方案首要解决的是将不同的传感器的数据标定到同一个坐标系里包括了相机的内参标定激光雷达到相机的外参标定毫米波雷达到GPS的外参标定等等。传感器融合重要前提是使标定精度达到到极高水平不论对于结果层面的传感器融合还是元数据层面的传感器融合这都是必要的基础。通过上图你会发现我们的感知系统将3D的激光点云精准地投射到影像上可见传感器标定的精度是足够高的。不同传感器的标定方案整个传感器标定的工作基本上已做到完全自动化的方式。首先是相机内参的标定上图这是为了修正由相机自身特性导致的图像扭曲等。相机内参的标定平台使每一个相机能够在两到三分钟之内完成传感器的标定。其次是激光雷达与GPS/IMU的外参标定上图激光雷达的原始数据是基于雷达坐标系因此我们需要将点由雷达坐标系转换为世界坐标系这就涉及到激光雷达与GPS/IMU相对位置关系的计算。我们的标定工具在室外通过优化的方案能够快速找到最优的位置关系。第三是相机到激光雷达的融合上图。激光雷达的感知环境是360度旋转的方式每旋转一周是100毫秒而相机是某一瞬时曝光为了保证相机的曝光与激光雷达的旋转保证同步需要对二者进行时间同步即通过Lidar来触发相机曝光。比如说可以通过激光雷达的位置信息来触发对应位置相机的曝光时间以达到相机与激光雷达的精确同步。3D激光雷达和2D相机彼此互补二者更好的融合可使得感知得到更精确的输出。最后是毫米波雷达Radar与GPS/IMU的标定上图同样是将Radar数据由Local本地坐标系将其转换到世界坐标系我们将通过真实的3D环境来计算Radar与GPS/IMU的相对位置关系。好的标定结果能够保证感知系统给出200米距离以内障碍车的车道信息如位于车道内或压车道线等等。下面这个demo视频简明生动地展示了多传感器深度融合的部分处理效果。车载感知系统架构那么车载感知系统架构是什么样的它的解决方案又是什么上图展示了整个车载感知系统的架构。首先激光雷达、相机、毫米波雷达三种传感器数据须进行时间同步将所有的时间误差控制在毫秒级。结合传感器数据感知系统以帧为基础frame-based进行检测detection、分割segmentation、分类classification等计算最后利用多帧信息进行多目标跟踪将相关结果输出。这个过程中将涉及到多传感器深度融合和深度学习相关的技术细节我这里不做过多的讨论。感知系统的解决方案应保证以下五点◆ 首先是安全保证近乎百分之百的检测Detection召回率Recall。◆ 精度Precision要求非常高如果低于某个阈值造成False Positive误报会导致车辆在自动驾驶状态下行驶得非常不舒适。◆ 尽量输出所有对行车有帮助的信息包括路牌交通信号灯及其它场景理解的信息。◆ 保证感知系统的高效运行能够近实时处理大量的传感器数据。◆ 可扩展性Scalability也很重要。深度学习Deep learning依赖大量数据其训练模型的泛化能力对于感知系统非常重要。未来我们希望模型model和新算法有能力适配更多的城市和国家的路况。感知技术的挑战感知精度与召回率相平衡的挑战上图展示了晚高峰时期十字路口的繁忙场景此时有大量行人、摩托车穿过十字路口。通过3D点云数据上图能够看到此时对应的感知原始数据。这里挑战是经过计算处理后感知系统需要在这样环境下输出所有障碍物的正确的分割segmentation结果和障碍物类别。除了繁忙的十字路口感知系统在处理一些特殊的或者恶劣的天气条件也面临不小挑战。突降暴雨或者长时间降雨往往会造成路面积水车辆经过自然会溅起水花。上方视频中白色点云展示了激光雷达检测到其他车辆经过溅起的水花并对其进行filter过滤的结果。如果感知系统不能对水花进行准确的识别和过滤这会对自动驾驶造成麻烦。结合激光雷达与摄像头LidarCamera的数据我们的感知系统对水花有很高的识别率。长尾场景挑战洒水车上图是我们在路测时曾遇到的两类洒水车上图。左边洒水车采用向上喷的雾炮而右边是向两侧喷洒的洒水车。人类司机遇到洒水车时可以很容易做出判断并超过洒水车但是对于感知系统来说则需要花一定时间去处理和识别这类场景和车辆我们的自动驾驶在遇到类似场景已获得更优的乘坐体验。小物体的检测小物体检测的意义在于面对意想不到的路测事件比如流浪的小猫、小狗突然出现马路上感知系统对这类小物体能够有准确的召回以保证小生命的安全。红绿灯随着越来越多地区和国家开展自动驾驶路测感知系统在处理交通信号灯总会遇到新的长尾场景。例如逆光的问题上图或者突然从桥洞中驶出后相机曝光的问题我们可以通过动态调整相机的曝光等方法来解决问题。还有红绿灯倒计时的场景上图感知系统可以识别出倒计时的数字这样能够让自动驾驶车辆在遇到黄灯时/前给出更优的规划决策应对优化乘车体验。雨天时摄像头照相机会水珠密布上图感知系统需要处理这类特殊气候条件下的场景准确识别红绿灯。一些地区使用的红绿灯带有进度条上图要求感知系统能够识别进度条的变动这样可以帮助下游的规划决策模块在绿灯将变黄时提前给出减速。未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能互联网和脑科学交叉研究机构。未来智能实验室的主要工作包括建立AI智能系统智商评测体系开展世界人工智能智商评测开展互联网城市云脑研究计划构建互联网城市云脑技术和企业图谱为提升企业行业与城市的智能水平服务。  如果您对实验室的研究感兴趣欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”
http://www.sadfv.cn/news/388783/

相关文章:

  • 用花生壳做映射的网站需要备案dplayer wordpress
  • 女装商城网站建设wordpress怎么设计
  • 创建网站做搞笑视频免费空间说说赞
  • 在门户网站上爆光怎么做摇钱树手机论坛网站
  • 企业网站的在线推广方法有哪些青岛网站建设在哪
  • 佛山市外贸网站建设保世基官方网站建设
  • 怎么做网站推广韩国化妆品网站金色flash片头
  • python和php哪个做网站网站左侧导航栏设计
  • 怎么做自己的设计网站产品软文范例100字
  • 无极在线最新招聘兼职广州网站运营专业乐云seo
  • 电子商务网站建设优势网页链接转二维码
  • 江苏省建设通官方网站wordpress 固定 拼音网址
  • 网站开发流程图微商城开店
  • 新网站建设怎么样个人网站设计与制作源代码
  • 企业网站用视频做首页网站开发页面适应高度
  • 商城app网站开发淮安汽车集团网站建设
  • wordpress网站访问慢做软件用什么编程语言
  • 百度为什么会k网站wordpress menu背景
  • 阿里云万网建网站装修网站论坛
  • 百度有没有做游戏下载网站施工企业资质证书有效期
  • 紫色网站模板会所网站模板
  • wap建站后只能访问首页wordpress提示不安全
  • 潍坊网站收录龙岩求职信息网
  • 网站设计销售个人备案网站放什么资料
  • 河北青山建设集团有限公司网站建程网工程信息网
  • 在农村做相亲网站怎么样网站开发小图片
  • 杭州seo网站家装报价单明细表电子版
  • 请公司做网站没有做好可以退钱吗网站开发代理招商
  • 刷q币网站建设网站建设系统多少钱
  • 做网站顶部图片长度是多少网站建设的关键点