网站开发教学网站,网站备案 自己的服务器,广告平面设计欣赏,云南人才网招聘网官网来源#xff1a; 科研圈 摘要#xff1a;AI 不仅仅能够精准辨认物体#xff0c;还能够理解图片内容、甚至能根据一张图片写一小段文章#xff0c;还能“看懂”视频...... 所以无论我们在讨论动物智能还是机器智能#xff0c;视觉是非常重要的基石。世界上所存在的这些系统… 来源 科研圈 摘要AI 不仅仅能够精准辨认物体还能够理解图片内容、甚至能根据一张图片写一小段文章还能“看懂”视频...... 所以无论我们在讨论动物智能还是机器智能视觉是非常重要的基石。世界上所存在的这些系统当中我们目前了解最深入的是人类的视觉系统。从 5 亿多年前寒武纪大爆发开始我们的视觉系统就不断地进化发展这一重要的过程得以让我们理解这个世界。而且视觉系统是我们大脑当中最为复杂的系统大脑中负责视觉加工的皮层占所有皮层的 50%这告诉我们人类的视觉系统非常了不起。 寒武纪物种大爆发 一位认知心理学家做过一个非常著名的实验这个实验能告诉大家人类的视觉体系有多么了不起。大家看一下这个视频你的任务是如果看到一个人的话就举手。每张图呈现的时间是非常短的也就是 1/10 秒。不仅这样如果让大家去寻找一个人你并不知道对方是什么样的人或者 TA 站在哪里用什么样的姿势穿什么样的衣服然而你仍然能快速准确地识别出这个人。 1996 年的时候法国著名的心理学家、神经科学家 Simon J. Thorpe 的论文证明出视觉认知能力是人类大脑当中最为了不起的能力因为它的速度非常快大概是 150 毫秒。在 150 毫秒之内我们的大脑能够把非常复杂的含动物和不含动物的图像区别出来。那个时候计算机与人类存在天壤之别这激励着计算机科学家他们希望解决的最为基本的问题就是图像识别问题。 在 ImageNet 之外在单纯的物体识别之外我们还能做些什么 过了 20 年到现在计算机领域内的专家们也针对物体识别发明了几代技术这个就是众所周知的 ImageNet。我们在图像识别领域内取得了非常大的进步8 年的时间里在 ImageNet 挑战赛中计算机对图像分类的错误率降低了 10 倍。同时这 8 年当中一项巨大的革命也出现了 2012 年卷积神经网络convolutionary neural network和 GPU图形处理器Graphic Processing Unit技术的出现对于计算机视觉和人工智能研究来说是个非常令人激动的进步。作为科学家我也在思考在 ImageNet 之外在单纯的物体识别之外我们还能做些什么 8年的时间里在ImageNet挑战赛中计算机对图像分类的错误率降低了10倍。 通过一个例子告诉大家两张图片都包含一个动物和一个人如果只是单纯的观察这两张图中出现的事物这两张图是非常相似的但是他们呈现出来的故事却是完全不同的。当然你肯定不想出现在右边这张图的场景当中。 这里体现出了一个非常重要的问题也就是人类能够做到的、最为重要、最为基础的图像识别功能——理解图像中物体之间的关系。为了模拟人类在计算机的图像识别任务中输入的是图像计算机所输出的信息包括图像中的物体、它们所处的位置以及物体之间的关系。目前我们有一些前期工作但是绝大多数由计算机所判断的物体之间的关系都是十分有限的。 最近我们开始了一项新的研究我们使用深度学习算法和视觉语言模型让计算机去了解图像中不同物体之间的关系。 计算机能够告诉我们不同物体之间的空间关系能在物体之间进行比较观察它们是否对称然后了解他们之间的动作以及他们之间的介词方位关系。所以这是一个更为丰富的方法去了解我们的视觉世界而不仅仅是简单识别一堆物体的名称。 Visual Relationship Detection with Language Priors. ECCV. 2016 更有趣的是我们甚至可以让计算机实现 Zero short0 样本学习对象关系识别。举个例子用一张某人坐在椅子上、消防栓在旁边的图片训练算法。然后再拿出另一张图片一个人坐在消防栓上。虽然算法没见过这张图片但能够表达出这是“一个人坐在消防栓上”。类似的算法能识别出“一匹马戴着帽子”虽然训练集里只有“人骑马”以及“人戴着帽子”的图片。 让 AI 读懂图像 在物体识别问题已经很大程度上解决以后我们的下一个目标是走出物体本身关注更为广泛的对象之间的关系、语言等等。 ImageNet 为我们带来了很多但是它从图像中识别出的信息是非常有限的。COCO 软件则能够识别一个场景中的多个物体并且能够生成一个描述场景的短句子。但是视觉信息数据远不止这些。经过三年的研究我们发现了一个可以有更为丰富的方法来描述这些内容通过不同的标签描述这些物体包括他们的性质、属性以及关系然后通过这样的一个图谱建立起他们之间的联系我们称之为 Visual Genome dataset视觉基因组数据集。这个数据集中包含 10 多万张图片100 多万种属性和关系标签还有几百万个描述和问答信息。在我们这样一个数据集中能够非常精确地让我们超越物体识别来进行更加精确的对于物体间关系识别的研究。 那么我们到底要怎么使用这个工具呢场景识别就是一个例子它单独来看是一项简单的任务比如在谷歌里搜索“穿西装的男人”或者“可爱的小狗”都能直接得到理想的结果。但是当你搜索“穿西装的男人抱着可爱的小狗”的时候它的表现就变得糟糕了这种物体间的关系是一件很难处理的事情。 绝大多数搜索引擎的这种算法在搜索图像的时候可能很多还是仅仅使用物体本身的信息算法只是简单地了解这个图有什么物体但是这是不够的。比如搜索一个坐在椅子上的男性的图片如果我们能把物体之外、场景之内的关系全都包含进来然后再想办法提取精确的关系这个结果就会更好一些。 2015 年的时候我们开始去探索这种新的呈现方法我们可以去输入非常长的描述性的段落放进 ImageNet 数据集中然后反过来把它和我们的场景图进行对比我们通过这种算法能够帮助我们进行很好的搜索这就远远地超过了我们在之前的这个图像搜索技术当中所看到的结果。 Google图片的准确率已经得到了显著提升 这看起来非常棒但是大家会有一个问题在哪里能够找到这些场景图像呢构建起一个场景图是一件非常复杂并且很困难的事情。目前 Visual Genome 数据集中的场景图都是人工定义的里面的实体、结构、实体间的关系和到图像的匹配都是我们人工完成的过程挺痛苦的我们也不希望以后还要对每一个场景都做这样的工作。 所以我们下一步的工作就是希望能够出现自动地产生场景图的一个技术。所以我们在今年夏天发表的一篇 CVPR 文章中做了这样一个自动生成场景图的方案对于一张输入图像我们首先得到物体识别的备选结果然后用图推理算法得到实体和实体之间的关系等等这个过程都是自动完成的。 Scene Graph Generation by Iterative Message Passing. CVPR. 2017 人工智能可以像人类一样看懂视频 Visual Genome 数据集能让计算机更好地了解场景信息但是还是不够的。而且实际上到现在为止我们仅仅探索了认知心理学家所讨论的一个概念——现场感知scene gist perception只需要轻轻一瞥就能把握主整个场景中的物体和它们之间的关系。那么在此之外呢 我想回过头去看看十年前我在加州理工学院读博士的时候做的一个心理学实验我用 10 美元/小时的费用招募人类被试通过显示器给他们快速呈现出一系列照片每张照片闪现之后用一个类似墙纸一样的图像盖住它目的是把他们视网膜暂留的信息清除掉。然后让他们尽可能多地写下自己看到的东西。有些照片只显示了 1/40 秒27毫秒有些照片则显示了 0.5 秒的时间我们的被试能够在这么短的时间里理解场景信息。如果我给的实验费用更高的话大家甚至能做的更好。进化给了我们这样的能力只看到一张图片就可以讲出一个很长的故事。 2015 年开始我们使用卷积神经网络和递归神经网络算法比如 LSTM 来建立图像和语言之间的关系。从此之后我们就可以让计算机给几乎任何东西配上一个句子。比如这两个例子“一位穿着橙色马甲的工人正在铺路”和“穿着黑色T恤的男人正在弹吉他”。 不过图像所包含的信息很丰富一个简短的句子不足以涵盖所有所以我们下一步的工作就是稠密捕获dense capture。让计算机将一张图片分为几个部分然后分别对各个部分进行描述而不是仅仅用一个句子描述整个场景。 Deep Visual-Semantic Alignments for Generating Image Descriptions. CVPR. 2015 除了此之外我们今年所做的工作迈上了一个新的台阶计算机面对图像不只是简单的说明句子还要生成文字段落把它们以具有空间意义的方式连接起来。这与认知心理学家所做的实验当中人类的描述结果是非常接近的。 COCO 软件能够根据图片写出几个句子粉色部分而新算法能够生成一个段落蓝色部分。A Hierarchical Approach for Generating Descriptive Image Paragraphs. CVPR. 2017 但是我们并没有停止在这里我们开始让计算机识别视频。这是一个崭新且丰富的计算机视觉研究领域。互联网上有很多视频有各种各样的数据形式了解这些视频是非常重要的。我们可以用跟上面相似的稠密捕获模型去描述更长的故事片段。把时间的元素加入进去计算机就能够识别一段视频并对它进行描述。 视觉认知和逻辑推理的结合 最后我想谈谈在简单认知以外我们如何让人工智能达到任务驱动的水平。从一开始人类就希望用语言给机器人下达指定然后机器人用视觉方法观察世界、理解并完成任务。 在 20 世纪七八十年代的时候人工智能的先驱们就已经在研究如何让计算机根据他们的指令完成任务了。比如下面这个例子人类说“蓝色的角锥体很好。我喜欢不是红色的立方体但是我也不喜欢任何一个垫着角锥体的东西。那我喜欢那个灰色的盒子吗” 那么机器或者人工智能就会回答“不因为它垫着一个角锥体”。它能够对这个复杂的世界做理解和推理。 最近我们和 Facebook 合作重新研究这类问题创造了带有各种几何体的场景我们命名为 Clever dataset。这个数据集包含成对的问题和答案这其中会涉及到属性的辨别、计数、对比、空间关系等等。我们会给人工智能提问看它会如何理解、推理、解决这些问题。 我们将人工智能和人类对这类推理问题的回答做了个比较人类能达到超过 90% 的正确率机器虽然能做到接近 70% 了但是仍然有巨大的差距。有这个差距就是因为人类能够组合推理机器则做不到。 因此我们开始寻找一种能够让人工智能表现得更好的方法我们把一个问题分解成带有功能的程序段然后在程序段基础上训练一个能回答问题的执行引擎。这个方案在尝试推理真实世界问题的时候就具有高得多的组合能力。这项工作我们刚刚发表于 ICCV。 比如我们提问“紫色的东西是什么形状的”它就会回答“是一个立方体”并且能够准确定位这个紫色立方体的位置。这表明了它的推理是正确的。它还可以数出东西的数目。这都体现出了算法可以对场景做推理。 总的来看我给大家分享的是一系列超越 ImageNet 的工作 首先计算机视觉能够做到除物体识别之外的关系识别、复杂语义表征和场景图景的构建 这之后我们使用视觉语言处理单句标注、段落生成、视频理解、联合推理 最后是任务驱动的视觉问题这里还是一个刚刚起步的领域我相信视觉和逻辑的组合会在这个领域真正携起手来。 人类视觉已经发展了很久计算机的视觉识别虽然在出现后的 60 年里有了长足的进步但也仍然只是一门新兴学科。 这是一张我女儿二十个月大时候的照片视觉能力是她的日常生活里重要的一部分她读书、画画、观察情感和这个世界建立各种联系等等而这些毫无疑问对于她的成长非常关键。视觉认知或者说视觉智能对于我们人类的理解、交流、协作、互动等等都是非常非常关键的而我们才刚刚起步去探索这个新的世界。