当前位置:IT信息 > 正文
麦肯锡:人工智能的五大局限 去偏好化是最难跨越障碍

  人工智能(AI)似乎无处不在。我们可以在家中和手机上体验它。在我们知道它之前 —— 如果企业家和业务创新者是可以相信的 —— 人工智能只会涉及我们购买和使用的每种产品和服务。此外,其在商业问题解决方面的应用正在飞速发展。与此同时,人们对AI的影响的担忧也在增加:我们担心AI支持的自动化对工作场所、就业和社会的影响。

  在诸如Alexa,Siri和AlphaGo这样的恐惧力量和头条新闻的鼓吹中,有时候人们忘了思考AI技术本身 —— 即机器学习及其子集,深度学习 —— 有很多局限性,仍然需要相当大的努力克服。这是一篇关于AI局限性的文章,旨在帮助管理人员更好地理解可能阻碍其人工智能工作的因素。在此过程中,我们还将重点介绍有希望的进展,以解决一些局限性并创造新的机会。

  麦肯锡的观点取决于前沿工作的组合 —— 研究,分析和评估数百个实际使用案例 —— 以及我们与一些在AI前沿工作的思想领袖,开拓性科学家和工程师的合作。我们试图提炼这些经验,以帮助那些经验丰富的经理人员,他们经常只能接触到他们自己的倡议,而且没有很好地校准边界在哪里,或者准备工作人员已经在用AI来做什么。

  简而言之,人工智能的挑战和局限性正在为领导人制造一个“移动目标”问题:很难达到始终前进的领先优势。当人工智能的努力陷入现实世界的障碍时,也会令人失望,这可能会减少对进一步投资的兴趣,或者鼓励观望态度,而其他人则会提前收费。正如麦肯锡全球研究院最近的研究所表明的那样,领导者与部门之间在应用人工智能方面存在着巨大的分歧(图表1)。

  希望缩小差距的高管们必须能够以知情的方式解决AI问题。换句话说,他们不仅需要了解人工智能可以促进创新,洞察力和决策制定的位置,导致收入增长;并获得效率,但也是人工智能尚不能提供价值的地方。更重要的是,他们必须了解技术约束与组织因素之间的关系和区别,比如文化障碍;缺乏能够建立业务就绪,人工智能驱动应用程序的人员;以及将AI嵌入产品和流程的“最后一公里”挑战。如果你想成为领导者,理解一些减缓AI进步的关键技术挑战,并准备利用有希望的进展来克服这些限制,并有可能弯曲AI阅读的轨迹。

  挑战,局限和机遇

  一个有用的出发点是理解最近的深度学习技术的进步。可以说,人工智能领域最令人兴奋的进展是,这些进步在分类和预测的准确性方面带来了飞跃,而且没有与传统监督学习相关联的“特色工程”。深度学习使用了大规模的神经网络,这些神经网络可以包含数以百万计的模拟“神经元”。最常见的网络被称为卷积神经网络(CNNs)和递归神经网络(RNNs)。这些神经网络通过训练数据和反向传播算法学习。

  虽然取得了很多进展,但还需要做更多的工作。关键的一步是将AI方法应用于问题和数据的可用性。由于这些系统是“受过训练”而非编程的,因此各种过程往往需要大量标记数据才能准确执行复杂任务。获取大数据集可能很困难。在某些领域,它们可能根本就不可用,但即使可用,标签工作也可能需要巨大的人力资源。

  以下探讨了五种局限性:

  局限1:数据标签

  目前大多数人工智能模型都是通过“监督学习”进行训练的。这意味着人类必须对基础数据进行标记和分类,这可能是一个相当大的和容易出错的杂事。例如,开发自动驾驶汽车技术的公司正在雇用数百人手动注释来自原型车辆的数小时视频反馈,以帮助培训这些系统。与此同时,有前途的新技术正在出现,如流式监督(由Eric Horvitz及其微软研究院的同事演示),其中数据可以在自然使用过程中加以标记。无监督或半监督方法减少了需要大量标记的数据集。两个有前途的技术是强化学习和生成敌对网络。

  强化学习。这种无监督技术允许算法简单地通过反复试验来学习任务。该方法学听到了“胡萝卜和大棒”也就是软硬兼施的方法:对于算法在执行任务时所做的每一次尝试,如果行为是成功的,它会收到“奖励”(例如更高的分数),或者如果它失败,则给予惩罚。随着重复,在许多情况下,性能会提高,超越人的能力 —— 只要学习环境代表真实世界。

  强化学习在训练计算机玩游戏方面有着广泛的应用,最近与深度学习技术相结合。例如,2017年5月,它帮助AI系统AlphaGo围棋比赛中击败了世界冠军柯洁。在另一个例子中,微软提供了决策服务,这些决策服务利用了强化学习和用户偏好。强化学习的潜在应用可以跨越许多商业领域。可能性包括一个人工智能驱动的交易组合,分别获取或失去价值收益或损失点数;一个产品推荐引擎,可以接收每个推荐驱动的销售点数;以及卡车路线软件,可获得准时交货或减少燃油消耗的奖励。

  强化学习还可以帮助AI超越人类标签的自然和社会局限性,通过开发以前无法想象的解决方案和策略,即使经验丰富的从业人员可能从未考虑过这些。最近,例如,使用新型强化学习的AlphaGo Zero系统在学习从头开始下围棋之后,击败了其前身AlphaGo。这意味着从完全随机的对自己的比赛开始,而不是训练和与人类一起玩的围棋。

  生成敌对网络(GAN)。在这种半监督学习方法中,两个网络彼此竞争以改进和改善他们对概念的理解。例如,为了识别鸟类是什么样子的,一个网络尝试区分真鸟和假鸟的图像,而其相反的网络试图通过产生非常像鸟类但不是鸟类的图像的方式来欺骗它。当这两种网络相互抵消时,每一种模型对鸟的描述就变得更加精确。

  GAN生成越来越可信的数据示例的能力可以显著降低对人类标记数据集的需求。例如,训练算法以从医学图像中识别不同类型的肿瘤,通常需要数百万个具有给定肿瘤类型或阶段的人类标记的图像。通过使用经过训练的GAN生成越来越逼真的不同类型肿瘤图像,研究人员可以培训一种肿瘤检测算法,该算法将一个更小的人类标记数据集与GAN的输出相结合。

  虽然GAN在精确疾病诊断中的应用仍然存在,但研究人员已经开始在日益复杂的情况下使用GAN。其中包括以特定艺术家的风格理解和制作艺术作品,使用卫星图像以及对地理特征的理解,以创建快速发展地区的最新地图。

  局限2:获得大量的训练数据集

  已经表明,使用线性模型的简单AI技术在某些情况下可以接近医学和其他领域的专家的能力。然而,机器学习的当前浪潮需要训练数据集,其不仅被标记,还得足够大及全面。深度学习方法需要数千个数据记录才能使模型在分类任务上变得相对较好,在某些情况下,需要数百万个数据记录才能在人类层面上执行。

  并发症是,大量数据集可能很难获得或创建许多商业用例(想想:以有限的临床试验数据来更准确地预测治疗结果)。而分配任务中的每个小变化都可能需要另一个大型数据集来进行更多的培训。例如,让自动驾驶汽车在天气持续变化的矿区导航时,需要一个包含车辆可能遇到的不同环境条件的数据集。

  一次学习是一种技术,可以减少对大型数据集的需求,允许AI模型在给出少量现实世界演示或示例(甚至在某些情况下为一个)时学习某个主题。人工智能的功能将更接近于人类,他们可以在仅显示一个样本(例如皮卡车)后相对精确地识别出多个类别的实例。在这个仍在发展的方法论中,数据科学家首先会在模拟虚拟环境中预先训练一个模型,该环境会呈现任务的变体,或者在图像识别的情况下,显示对象的外观。然后,在展示AI模型在虚拟训练中没有看到的几个真实世界的变体之后,该模型将利用其知识来达到正确的解决方案。

  这种一次性学习可能最终有助于让系统扫描文本以检查是否存在侵犯版权的内容,或者在仅显示一个标签示例之后在视频中标识公司标志。今天,这些应用程序只处于早期阶段。但它们的效用和效率很可能会在多个行业迅速扩大人工智能的使用。

  局限3:可解释性问题

  AI系统的可解释性不是一个新问题。但它随着深度学习的成功和采用而不断发展,这种深度学习带来了更多样化和先进的应用程序以及更不透明。更大更复杂的模型使人们很难从人的角度解释为什么达成某种决定(甚至在实时达到时更难)。这这也是为什么一些人工智能工具在应用程序领域的使用率仍然很低,因为它们的解释能力是有用的或者确实需要的。此外,随着人工智能应用的扩展,监管要求也可能会推动更多可解释的人工智能模型的需求。

  两个新的方法有望增加模型透明度,这是局部可解释模型的不可知解释(LIME)和注意技巧(图2)。 LIME试图确定训练好的模型中哪些部分的输入数据最依赖于开发代理可解释模型的预测。该技术一次考虑某些数据段,并观察预测结果的变化,以微调代理模型并形成更精确的解释(例如,通过排除眼睛而不是鼻子来测试哪些更重要面部识别)。注意技巧可视化模型认为最重要的那些输入数据,因为它会做出特定的决定(例如关注嘴巴以确定图像是否描绘了人类)。

  已经使用了一段时间的另一种技术是广义相加模型(GAM)的应用。通过使用单特征模型,GAM限制了特征之间的相互作用,从而使得每个特征更容易被用户解释。使用这些技术,除其他之外,对AI的决策进行神秘化预计将大大促进人工智能的采用。

  局限4:学习的普遍性

  与人类学习的方式不同,人工智能模型难以将他们的经验从一套环境转移到另一套环境。实际上,对于一个给定的用例,无论一个模型是否已经达到,都只适用于该用例。因此,即使用例非常相似,公司也必须多次投入资源来训练另一个模型。

  对这一挑战的一个有希望的回应是转移学习。在这种方法中,人工智能模型被训练完成某项任务,然后迅速将该学习应用于类似但不同的活动。 DeepMind的研究人员在实验中也发现了转移学习有希望的成果,在这些实验中,在实验中模拟的训练被转移到真正的机器人手臂上。

  随着转移学习和其他一般化方法的成熟,他们可以帮助组织更快地构建新的应用程序,并为现有应用程序提供更多不同的功能。例如,在创建虚拟个人助理时,转移学习可以将用户在一个区域(如音乐)中的偏好推广到其他方面(书籍)。用户不限于数字原生。例如,转移学习可以使石油和天然气生产商扩大使用经过培训的AI算法,以便为钻井提供预测性维护,以便将其用于管道和钻井平台等其他设备。转移学习甚至有可能使商业智能发生革命性的变化:考虑一种数据分析人工智能工具,该工具可以理解如何优化航空公司收入,然后使其模型适应天气或当地经济变化。

  另一种方法是使用一些近似于可应用于多个问题的广义结构。例如,DeepMind的AlphaZero为三种不同的游戏使用了相同的结构:可以用这种广义结构来训练一个新模型,以便在一天内学习国际象棋,然后大败世界冠军国际象棋程序。

  最后,考虑尝试自动化机器学习模型设计的新兴元学习技术的可能性。例如,Google Brain团队使用AutoML来自动设计神经网络,以便在大规模数据集中对图像进行分类。现在这些技术与人类设计的技术一样好。这是一个很有希望的发展,特别是随着许多组织的人才供应不足,这种情况尤其如此。元学习方法也有可能超越人类的能力并产生更好的结果。但重要的是,这些技术仍处于初期阶段。

  局限5:数据和算法中的偏差

  到目前为止,我们关注的是那些可以通过已经起效的技术解决方案来克服的限制,其中一些我们已经描述过了。偏好是一种不同的挑战。当人类的偏好(有意识或无意识)在选择使用哪些数据点和忽视时,可能会产生毁灭性的社会影响。此外,当数据收集的过程和频率本身在整个团队和观察到的行为中不均衡时,在算法分析数据、学习和预测数据时很容易出现问题。负面后果可能包括错误的招聘决定、错误的科学或医疗预测、错误的财务模型和刑事司法决策,以及在法律尺度上误用。在许多情况下,这些偏好在“高级数据科学”、“专有数据和算法”或“客观分析”的面纱之下,没有得到承认或被忽视。

  随着我们在新的领域部署机器学习和人工智能算法,可能会有更多的实例将这些潜在的偏好问题转化为数据集和算法。这种偏好倾向于保持嵌入状态,因为承认它们并采取措施解决它们需要深入掌握数据科学技术以及对现有社会力量(包括数据收集)的更多元理解。总而言之,去偏好化被证明是迄今为止最艰巨的障碍之一,当然也是最令人担忧的。

  目前正在开展多项研究工作,以及努力捕捉最佳实践,以解决学术,非营利和私营部门研究中的这些问题。 这不会太早,因为挑战可能变得更加重要,并且会出现更多问题。 例如,考虑一下这样的事实,即许多这些基于学习和统计的预测方法隐含地假定未来将像过去一样。 我们在社会文化背景下应该做些什么来促进变革,以及根据过去的行为做出决策会阻碍进展(或者更糟糕的是,建立抵制变革)? 包括商界领袖在内的各种领导人很快可能会被要求回答这些问题。

相关链接:

作者: 来源: 中国电子银行网 发布时间:2018-04-03 06:51:56
 
 
  我要发表留言  查看所有评论
 

*
 限制字数显示剩余字数,最大长度: 500 还剩: 500
用户名:
       尊重网上道德,承担一切因您的行为而直接或间接导致的民事或刑事法律责任