首页> 详情

智能的意义

2017-12-09 |浏览:10088次 | 编辑: 加载失败
分享到: 
 
 
  我们所说的「智能」是一个根本性的问题。在 Radar 2014 年的一篇文章中,Beau Cronin 出色地总结了许多人工智能的定义。我们对人工智能的期待严重依赖于我们希望用人工智能做什么。对人工智能的讨论几乎总是开始于图灵测试。
 
  图灵假设人们可以通过聊天的方式与计算机交互:他假设了一种与计算机的沟通方式。这个假设限制了我们期望计算机做的事:比如,我们不能期望它能驾驶汽车或组装电路。这也是一个故意的模棱两可的测试。计算机的答案可能是闪烁其词的或完全不正确的,正确无误不是重点。人类智能也可能会是闪烁其侧或不正确的。我们不大可能将正确无误的人工智能误解为人类。
 
  如果我们假设人工智能必须被嵌入到能够运动的硬件中,比如机器人或自动驾驶汽车,我们会得到一组不同的标准。我们会要求计算机在它自己的控制下执行一个定义不清的任务(比如开车到一家商店)。我们已经打造出了在路线规划和驾驶上比大多数人类都做得更好的人工智能系统。
 

 
  谷歌的自动驾驶汽车负有责任的那次事故的原因是该算法被修改得更像人类一样驾驶,并由此带来了人工智能系统通常不会具备的风险。
 
  自动驾驶汽车还有很多没能解决的困难问题:比如在暴风雪的山路上行进。不管人工智能系统是嵌入在汽车里,还是无人飞行器或人形机器人里,其所面临的问题本质上是类似的:在安全、舒适的环境中执行是很容易的;而在高风险、危险的情形中则艰难得多。
 
  人类也不擅长这些任务,尽管图灵所期望的对话中人工智能是回避式的或甚至会错误地回答问题,但在高速路上驾驶时,模糊或不正确的方案却是不能接受的。
 
  可以执行物理行为的人工智能迫使我们思考机器人的行为。应该用什么样的道德来规范自主机器人?阿西莫夫的机器人定律?如果我们认为机器人不应该杀死或伤害人类,武器化的无人机已经打破了这道界限。尽管典型的问题「如果事故不可避免,自动汽车应该撞向婴儿还是老奶奶?」是虚假的道德,但这个问题也有一些更为严肃的版本。
 
  为了避免会杀死其内部乘客的事故,自动驾驶汽车应该冲向人群吗?抽象地回答这个问题很容易,但很难想象人类会愿意购买会牺牲他们而不伤害旁观者的汽车。我怀疑机器人将来能够回答这个问题,但它也必然会在福特、通用、丰田和特斯拉的董事会上得到讨论。
 
  我们可以通过对话系统或自主机器人系统的复杂度分布来更为简单地定义人工智能,并说人工智能只是单纯关于构建能回答问题和解决问题的系统。能够回答问题和推理复杂逻辑的系统是我们已经开发了好些年的「专家系统」,其中大部分都嵌入在沃森中。(AlphaGo 解决的是不同类型的问题。)
 
  但是,正如 Beau Cronin 指出的那样,解决对人类来说存在智力挑战的问题是相对简单的;更困难的是解决对人类来说很简单的问题。很少有三岁孩童能下围棋。但所有的三岁孩童都能认出自己的父母--而不需要大量有标注的图像集。
 
  我们所说的「智能」严重依赖于我们想要该智能所做的事,并不存在一个能够满足我们所有目标的单个定义。如果没有良好定义的目标来说明我们想要实现的东西或让我们衡量我们是否已经实现了它的标准,由范围狭窄的人工智能向通用人工智能的转变就不会是一件容易的事。

(责任编辑:王翔)


声明:文章版权归原作者所有,本文摘编仅作学习交流,非商业用途,所有文章都会注明来源,如有异议,请联系我们快速处理或删除,谢谢支持。


(原文章信息:标题:智能的意义,作者:张雪,来源:未知,来源地址:)

上一篇: 迈向通用人工智能

下一篇: 人工智能是助手还是主角?

-----主办-----

河南省乡村振兴协会

-----协办-----

河南省乡村振兴协会产业与信息化委员会

全息数字科技(河南)有限公司