考研网 发表于 2018-7-3 21:54:47

人工智能发展迅速,是否值得依赖

  以下是中公考研小编整理的关于“人工智能发展迅速,是否值得依赖”相关资讯文章,一起关注一下吧~  
  计算机程序在漫长而不稳定的人工智能之旅中已经到了令人困惑的地步。他们在我们曾经认为只有人能胜任的任务中超过了人类,例如玩扑克或识别人群中的面孔。与此同时,但使用相同技术手段的无人驾驶汽车却撞上了行人和柱子,(这样一来)我们就很困惑人工智能是否值得依赖。
  在这些迅速发展和反复叨扰的挫折中,几十年来人类智能的一个基本要素一直被错过,即理解因果关系。
  简而言之,今天的机器学习计划无法分辨出一只啼鸣的公鸡是否会让太阳升起,或者相反。无论机器分析的数据量是多少,它都无法理解人类的直觉。从我们是婴儿的那一刻起,我们就把经验组织到原因和影响中。“为什么会发生这种事情?”以及“如果我采取了不同的行动会怎么样?”这些问题是认知发展的核心,这使我们成为了人类,而迄今为止还没有机器能够达到。
  例如,假设一家药店决定将其定价委托给一个我们称之为查理的机器学习程序。该方案审查了商店的记录,并看到过去的牙膏价格变化与销量的变化有直接关系。所以查理建议提高价格以创造更多收入。一个月后,牙膏,还有牙线,饼干和其他物品的销售量下降了 。查理出了什么问题?
  查理不理解,前任(人力)经理只有在竞争中才会改变价格。当查理单方面提高价格时,具有价格意识的客户将其业务转移到其他地方。这个例子表明,历史数据本身并没有告诉我们任何原因,而且因果关系的方向是至关重要的。
  机器学习系统在分析数据模式方面取得了惊人的进展,但这是人工智能的一个小成果。为了达到更高的水果,人工智能需要一个梯子,我们称之为因果阶梯。它的横档代表三个层次的推理。
  第一阶段是“联系”,即目前的机器和许多动物的水平。在那一步,帕夫洛夫的狗学会了将钟和食物联系起来。接下来是“干预”:如果我敲响钟声或者提高牙膏价格会发生什么?干预和观察是不同的,单方面提高价格与看到过去的情况是不同的。顶层是反事实的,这意味着能够想象出结果,思考一个人的行动和评估其他情况。这是机器需要达到的评估和沟通责任,信用,责备和自我提高的水平。想象给一个自动驾驶汽车这个能力。在一次事故后,它的CPU会问自己这样的问题:如果我没有对喝醉的行人按喇叭会发生什么?
  为了达到更高的等级,取代越来越多的数据,机器需要一个潜在因果因素的模型——本质上是一个因果关系的数学。一个简单的元素可能是:“酒损害了人们的判断力,使他们以意想不到的方式行动。”我们可以使用科学家们现在称之为因果图的方法对其进行编码,其中箭头代表了一系列可能的原因:酒后判断的异常运动。这样的图不仅仅是漂亮的图片,而是一个算法的开始,它使汽车能够预测某些行人对喇叭的鸣叫会有不同的反应。他们还让我们有可能“审问”这辆车,以解释它的运行过程:你为什么按喇叭?
  当前的机器学习系统只能在规则不受侵犯的限制域中达到更高的梯级,例如下棋。在这些领域之外,它们很脆弱且容易出错。但是通过因果模型,机器可以预测之前未尝试过的行为的结果,反映其行为,并将其学到的技能转移到新的情境中。
  因果模型产生于1980年代的人工智能研究,并通过健康和社会科学传播开来,因为它们可以在更高的水平上进行计算,并且经常揭示统计悖论。随着机器学习研究者寻求更多的解释和响应系统,它们现在已经完全周而复始了。例如,谷歌(Google)和Facebook的科学家们正在研究因果模型,分析在线广告,以确定它们是否能在购买的产品中起到作用——这是个与事实不符的问题。
  这是一个开始。当研究人员将数据和因果推理结合起来时,我们预计人工智能将出现一场小型革命,其系统能够在没有看到此类行动的情况下规划行动;这将使他们学到的东西应用到新的情况中;并能用具有因果关系的母语解释他们的行动。
  
页: [1]
查看完整版本: 人工智能发展迅速,是否值得依赖