网站建设的优点和不足,创业做网站还是软件好,微网站营销是什么,专业网站开发哪家专业来源#xff1a;大数据文摘每当提起“无人驾驶”汽车技术如何强大#xff0c;又被大众赋予了怎样的期待#xff0c;都会让人想起HBO电视剧Silicon Valley《硅谷》中的一个情节#xff1a;硅谷大亨风险资本家Gregory的助手安排了一辆无人驾驶汽车送创业公司的小员工Jared回家… 来源大数据文摘每当提起“无人驾驶”汽车技术如何强大又被大众赋予了怎样的期待都会让人想起HBO电视剧Silicon Valley《硅谷》中的一个情节 硅谷大亨风险资本家Gregory的助手安排了一辆无人驾驶汽车送创业公司的小员工Jared回家本以为这个剧情只是为了诠释一种硅谷式傲慢刚上车时一切也都很顺利谁知路程走了一半这辆汽车突然开始执行日程中之前设置好的指令罔顾乘客Jared高呼着“Stop”和“Help”自顾自的奔向了另一个目的地:四千英里开外的一个荒无人烟的海中孤岛。 电视剧《硅谷》截图 Jared最终得救了就在大家以为剧情要改为《荒岛余生》后。对多数观众而言这只是剧中设置的一个黑色笑点而艺术本就源于现实在现实中若无人驾驶的汽车突然失控会导致怎样的后果才是真的难以想象。 2016年5月7日美国佛罗里达州一位驾驶特斯拉Model S的车主使用了自动驾驶Auto Pilot模式后发生车祸并身亡。这是第一起自动驾驶模式下的致死车祸这次事故也让所有为无人驾驶狂热的人们不得不直面这项技术带来的安全隐忧。 特斯拉曾发布消息 “无人车的正确率达到99%相对容易但要达到99.9999%却要困难的多而这才是我们最终的目标因为以70英里每秒行驶的车如果出现故障后果不堪设想。” 特斯拉并没有说100%。 在未来即便这些科技公司声称无人驾驶的技术已经发展到无比成熟或许依然有人很难放心的坐上一辆无人驾驶的汽车从心理角度来说这类汽车相对“自我操控”而言永远都“不够安全”。 无人驾驶技术的巨大发展离不开深度学习算法而在贝叶斯网络之父朱迪亚·珀尔Judea Pearl的眼里深度学习恰恰是人工“不”智能的体现因为其研究对象是相关关系而非因果关系处于因果关系之梯的最底层。珀尔曾在《量子杂志》采访中说到深度学习取得的所有巨大成就在某种程度上都不过是对数据的曲线拟合而已。从数学层次的角度来看不管你如何巧妙地操作数据以及你在操作数据时读取的内容它仍然是一个曲线拟合的训练过程尽管它看起来比较复杂。 人工智能的发展在很多方面都得益于珀尔早期的研究他却在最新著作《为什么关于因果关系的新科学》中推翻了自己珀尔认为当前的人工智能和机器学习其实处于因果关系之梯的最低层级只可被动地接受观测结果考虑的是“如果我看到……会怎样”这类问题。而强人工智能则需要实现第三层级的“反事实”推理。 例如如果无人驾驶汽车的程序设计者想让汽车在新情况下做出不同的反应那么他就必须明确地在程序中添加这些新反应的描述代码。机器无法自己弄明白手里拿着一瓶威士忌的行人可能对鸣笛做出不同反应,处于因果关系之梯最底层的任何运作系统都不可避免地缺乏这种灵活性和适应性。所以说无法进行因果推断的人工智能只是“人工智障”是永远不可能透过数据看到世界的因果本质的。 因果关系之梯的每一层级都有一种代表性生物(来源《为什么关于因果关系的新科学》马雅·哈雷尔绘图) 2016年3月AlphaGo 以4比1的成绩战胜了多年来被认为是最强的人类顶尖围棋高手李世石,震惊了世界在为人们带来危机感的同时也点燃了很多人对人工智能发展的畅想。 可惜这一人工智能壮举只能证明对让机器完成某些任务来说深度学习是有用的。人们最终意识到在可模拟的环境和状态下AlphaGo的算法适用于大规模概率空间的智能搜索而对于那些难以模拟的环境里的决策问题包括上文提到的自动驾驶这类算法也还是束手无策。深度学习采用的方法类似卷积神经网络并不以严谨或清晰的方式处理不确定性且网络的体系结构可以自行发展。完成一个新的训练后程序员也不知道它正在执行什么计算或者为何它们有效。 AlphaGo团队并没有在一开始就预测到这个程序会在一年或者五年内击败人类最好的棋手他们也无法解释为什么程序执行能产生这样好的结果。如果机器人都如同 AlphaGo一般缺乏清晰性那么人类也无法与他们进行有意义的交流使之“智能”的工作。 假定你的家中有一个机器人当你睡觉的时候机器人打开了吸尘器开始工作在这时你告诉它“你不该吵醒我。”你的意图是让它明白此时打开吸尘器是错误行为但你绝不希望它将你的抱怨理解为不能再在楼上使用吸尘器。 那么此时机器人就必须理解背后的因果关系吸尘器制造噪音噪音吵醒人而这会使你不高兴。 这句对我们人类而言无比简短的口令实际包含了丰富的内容。机器人需要明白你不睡觉的时候它可以吸尘家中无人的时候它也可以吸尘又或者吸尘器开启静音模式的时候它仍然可以吸尘。这样看来是否觉得我们日常沟通所含的信息量实在是太过庞大 一个聪明的机器人考虑他/她的行为的因果影响。(来源《为什么关于因果关系的新科学》马雅·哈雷尔绘图)所以说让机器人真正“智能”的关键在于理解“我应该采取不同的行为”这句话无论这句话是由人告诉它的还是由它自己分析所得出的结论。如果一个机器人知道自己当前的动机是要做 Xx0同时它能评估一下说如果换一个选择做 Xx1结果会不会更好那它就是强人工智能。 《人类简史》的作者尤瓦尔·赫拉利Yuval Noah Harari认为人类发展出描绘虚构事物的能力正是人类进化过程中的认知革命反事实推理是人类独有的能力也是真正的智能。人类的每一次进步与发展都离不开反事实推理想象力帮助人类生存、适应并最终掌控了整个世界。若想实现真正的强人工智能则应尝试将因果论提供的反事实推理工具真正加以应用。 针对能否开发出具备自由意志的机器人的问题珀尔的答案是绝对会。他认为人们必须理解如何编程机器人以及能从中得到什么。由于某种原因就进化方面而言这种自由意志在计算层面也将是需要的。机器人具备自由意志的第一个迹象将是反事实沟通如“你应该做得更好”。如果一组踢足球的机器人开始用这种语言沟通那么我们将知道它们具备了自由意志。“你应该传球给我我刚才一直在等但你没有把球传给我”这种“你应该”的句式意味着你本应该做什么但是没做。因此机器人产生自由意志的第一个征兆是沟通第二个是踢出更好的足球。 以前人们讨论强人工智能大多只限于哲学层面学术界也一直对“强人工智能”保持着谨慎的态度并不敢抱有太多奢望。但科学的进步从不因失败而停止不管是无人驾驶还是其他各项人工智能技术的发展最终都依赖于“人”人类会研究出能够理解因果对话的机器人吗能制造出像三岁孩童那样富有想象力的人工智能吗回答这些问题的关键依然离不开“人如果人类自身还无法理解因果之梯又要怎么样使“人工”变得“智能” 机器不必复制人类却可以比人类表现的更优秀这着实是一个可怕的事实。若是能用因果关系来取代关联推理沿着因果关系之梯走入反事实推理的世界那么机器的崛起便不可阻挡。珀尔在书中为如何实现这一目标给出了相当清晰通俗的讲解。 回想起来其实一个人的日常生活与“人工智能”这个词并没有产生多少紧密关联但很多人也曾在得知AlphaGo战胜李世石那个瞬间产生了一股莫名又强烈的敬畏感。科技的发展速度似乎总是超出我们的想象打开手机搜索“重大突破”这个关键词瞬间就会被满眼的科技快餐所淹没机器究竟会变成怎样它们又会怎么对待人类只有试着去理解因果关系才能在面对这些问题时少一些茫然多一些信念。未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能互联网和脑科学交叉研究机构。未来智能实验室的主要工作包括建立AI智能系统智商评测体系开展世界人工智能智商评测开展互联网城市云脑研究计划构建互联网城市云脑技术和企业图谱为提升企业行业与城市的智能水平服务。 如果您对实验室的研究感兴趣欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”