近年来,深度学习在人工智能的一些极具挑战性的领域取得了显著进展。这些领域包含计算机视觉,也包含语音识别,还包含自然语言处理。
然而,深度学习系统仍存在一些未解决的问题。其一,它不擅长应对新的情况。其二,需要大量数据来进行训练。其三,有时会出现一些奇怪的错误。其四,就连其创造者也会感到困难和迷惑。
一些科学家提出,可通过建立规模越来越大的神经网络,并在规模越来越大的数据集上进行训练来解决问题。同时,也有人认为在人工智能领域,需要的是人类所具备的一些“常识”。
计算机科学家 Ronald J.Brachman 和 Hector J.Levesque 在新出版的《像我们一样的机器》著作里,提出了他们对于人工智能缺失部分的看法以及可能的解决方案,“常识”这个谜题已经困扰研究人员达几十年之久。Brachman 在接受行业媒体采访时,讨论了何为常识,何为非常识,为何机器没有常识,以及“知识表示”这一概念怎样引导人工无线城市朝着正确的方向发展。“知识表示”这个概念已经有几十年的历史了,然而在深度学习的热潮中却被搁置一旁。
《像我们这样的机器》这本书停留在假设领域,不过它为潜在研究领域提供了新视角,这得益于两位自 20 世纪 70 年代起就一直在深入研究人工智能的科学家。
优秀的人工智能系统会犯奇怪的错误
Brachman 表示,在过去的 10 到 12 年这个时间段内。随着人们对深度学习展现出了极为强烈的热情。已经有大量关于基于深度学习的系统的相关讨论。这些系统能够去做我们最初期望人工智能系统能够去做的所有事情。
在人工智能发展的初期,它的愿景是创造出一个能够自给自足的自治系统,这个系统或许会以机器人的形态呈现,能够在极少甚至没有人类进行干预的情况下独立地完成事情。
Brachman 称,如今很多人对深度学习能实现的东西很兴奋,这导致研究范围大幅缩小。尤其在工业领域,大量资金和人才招聘促使人们高度关注基于经验或案例训练的系统。许多人宣称他们已接近实现通用人工智能,或者认为“有效的老式人工智能”(GOFAI)或象征性方法已经完全过时或没有必要。
很明显,深度学习系统令人印象深刻,但它正面临一些问题。这些问题尚未解决且令人困惑。神经网络容易遭遇对抗性攻击,即输入值的特殊修改会致使机器学习模型对其输出突然进行错误改变。深度学习在试图理解简单因果关系时,在构思概念以及组合概念方面的表现不佳。大规模语言模型近来成为备受关注的领域,然而,它们有时在生成连贯且令人印象深刻的文本时,会犯下极为愚蠢的错误。
Brachman 描述道,人们认为人工智能犯下的这些错误看起来愚蠢无知,而人类很少犯这样的错误。但重要的是,引发这些错误的原因有些难以解释。
这些错误使得Brachman和Levesque去思考当今的人工智能技术中缺失了什么,并且思考需要什么来对示例驱动的训练神经网络系统进行补充或者取代。
Brachman 表示,如果进行深入思考,这些系统明显欠缺的是人类所拥有的常识。这种常识能够让人们看到对很多人而言都很明显的事情,能够迅速得出简单且明显的结论,并且在决定做一些自己意识到是荒谬或错误的选择时,能够阻止自己去做。
什么是常识?
人工智能社区从早期便开始提及常识。实际上,John McCarthy 在 1958 年所撰写的关于人工智能“具备常识的过程”这一内容,是最早的论文之一。
Brachman 表示,这并非新鲜之事,也不是他们所发明的名字。然而,这个领域却忽视了人工智能先驱们所阐述的核心含义。倘若我们能进一步理解什么是常识,以及拥有常识的意义,那么对于我们而言,更重要的是弄清楚它是如何运作的,以及它将如何得以实施。同时,人们很难在心理学文献中找到相关的指导。
Brachman 和 Levesque 在《像我们这样的机器》这本书里,将常识描述为一种能力,这种能力能够有效地运用共同的、日常的以及经验的知识,从而实现共同的、日常的和实际的目标。
常识对生存有着极为重要的意义。人类以及高等动物已经进化出了通过经验进行学习的能力,能够发展出常规和自动驾驶般的技能,从而可以应对日常生活中所面临的大多数情况。然而,日常生活并不仅仅局限于人们反复见到的那些套路。人们时常会遭遇到从未见过的全新情况。其中有些情况可能与正常情况存在很大的差异,而在很多时候,人们所看到的以及已经习惯的事物会与以往有所不同。在人工智能的讨论中,这有时被称为“长尾”。
Brachman 表示,在他们看来,当这些常规任务被打断时,常识会首先被激活。常识能够让人们迅速了解新的情况,记住之前做过的事情,快速对记忆进行调整,将其应用到新的情况中并继续前行。
常识在某种程度上与心理学家、诺贝尔奖得主 Daniel Kahneman 所倡导的双系统思维范式存在差异。常识并非是快速且自动驾驶的系统 1 思维。它承担了人们无需刻意集中注意力就能完成的诸多日常任务,像刷牙、系鞋带、扣扣子以及在熟悉区域开车等。要打破现有的套路需要进行积极的思考。
常识不是系统 2 思维。系统 2 思维是一种缓慢的思维模式,它需要全神贯注,并且是循序渐进地进行思考,例如计划六周的旅行、设计软件、解复杂的数学方程等。
人们可以进行仔细思考来迎接挑战。这种思考会让大脑感到疲劳和迟钝。常识能够让人们在几乎所有日常生活中避免这种情况,因为无需深入思考下一步该怎么做。
Brachman 和 Levesque 在其发表的著作里强调,常识属于一种“肤浅的认知现象”。这种常识比深思熟虑的行为以及有条不紊的分析的速度要快。
他们写道,“若需花费诸多心思方可想明白,那便不是常识。我们能够将其视为‘反思性思维’,此思维与‘思考’同等重要。”
没有常识的人工智能面临的危险
常识需要可预测性、信任、可解释性和可问责性。
Brachman 表示,大多数人不会出现一些怪异的错误。人或许会做出一些愚笨的事情,然而通过反思是有可能避免这类错误的。尽管人类并非完美无缺,但有些错误在一定程度上是能够被预见的。
人工智能系统如果没有常识,面临的挑战在于,当其达到训练的极限时,就有可能出错。布拉奇曼称,这些错误完全无法预测,并且也无法进行解释。
Brachman 称,人工智能系统若没有常识,便不具备这种观点,也没有退路去阻止自身做出奇怪的行为,这样的系统会变得脆弱。并且,当它们犯错时,这些错误对它们而言是没有意义的。
这些错误或许是无伤大雅的,就像贴错了图片;它也或许是极其有害的,像会致使自动驾驶汽车驶入错误的车道。
Brachman 和 Levesque 在书中提及,若一个人工智能系统面临的问题是下棋,且它仅考虑赢得比赛,那么常识对其而言便无法发挥作用。然而,当人们在下国际象棋时,常识就会起到作用。
因此,人工智能系统进入开放领域的敏感应用时,常识会发挥关键作用,比如驾驶汽车、与人类合作以及参与开放对话等。这些开放领域总会出现奇怪的事情。
Brachman 和 Levesque 在《像我们一样的机器》一书中表明,若我们期望人工智能系统能以合理方式处理现实世界中常见之事,那么我们所需的不只是凭借对已发生之事进行采样而获得的专业知识。仅仅依靠看到并将过去发生的事情内化来预测未来是不可行的。我们需要具备常识。
重新审视符号人工智能
大多数科学家认为,当下的人工智能系统是缺少常识的。然而,在谈及解决方案时,往往会存在一些分歧。一个比较流行的趋势是持续让神经网络的规模不断变大。有相关证据显示,规模更大的神经网络在持续逐步地填补这一缺失。在某些情形下,大型神经网络展现出了零样本学习的技能,它们能够执行未经过训练的任务。
有大量研究和实验表明,并非更多数据和计算就能解决人工智能系统缺乏常识的问题,只是把这一问题隐藏在更大且更混乱的数值权重与矩阵运算里。
Brachman 表示,这些系统会关注并将相关性或模式内化。它们并未形成一个“概念”。即便这些系统能够与语言进行交流,那也只是在模仿人类的行为,而并不具备人们所认为它们拥有的底层心理和概念机制。
Levesque 主张创建一个系统,用于对世界有常识性理解。
他们在书中称:常识性知识关乎世界上的事物及其属性。这是一系列关于各种可能存在的事物以及它们可能具备的各种属性的观念,借助我们所谓的概念结构来起中介作用。知识会通过符号形式进行表示,并且会利用在这些符号结构上执行的计算操作。常识性决定是关于做什么的,这相当于利用这种表征知识去思考如何达成目标以及怎样对所观察到的情况作出反应。
Brachman 和 Levesque 觉得,此领域有必要回顾并重新审视符号人工智能的一些早期工作,目的是为计算机赋予常识。他们将其称作“知识表示”假说。这本书细致地阐述了怎样构建一个知识表示(KR)系统,以及怎样把不同的知识组合在一起,从而形成更复杂的知识与推理形式。
根据知识表示(KR)假设,共同知识的表征包含两部分。一部分是用于代表世界状态的世界模型。另一部分是用于代表概念结构的概念模型,而概念结构是一个通用框架,能够用来对世界中的项目进行分类。
Brachman 表示,我们的观点是回归到关于人工智能的一些早期思考。在这些早期思考中,某种符号以及符号运算程序(人们常将其称为推理引擎)能够被用来编码和运用人们所称的常识性的世界基础知识,比如直觉或幼稚的物理学,对人类和其他主体的行为、意图和信念的基本理解,时间和事件的运作方式,因果关系等。这些都是我们在前一两年所学到的知识。形式世界知识能够对机器的行为产生因果方面的影响。它还可以借助操纵符号去做各种事情,例如具备组合性。并且能够以全新的方式展现人们所熟悉的事物。
Brachman着重指出,在往后的时间里,他们在书中所提出的那些假设是有可能被推翻的。
Brachman 表示,从长远角度看,他不知道究竟是该预先构建并预编码所有这些知识,还是让人工智能系统以别样的方式去学习。不过作为一种假设与实验,他认为人工智能的下一步应当是尝试去构建这些知识库,并且让系统运用它们来应对日常生活中的突发状况,同时对如何处理熟悉以及不熟悉的情况做出大致的猜测。
Brachman 和 Levesque 的假设是以之前创建的大型知识库为基础的,这个知识库是关于符号知识的,例如 Cyc,它可以追溯到 20 世纪 80 年代,并且收集了数百万条关于世界的规则和概念。
Brachman 表示,我们需要向前更进一步。我们要关注自主决策机器在日常决策环境中对这些东西的使用情况。积累事实性知识以及能够回答危险类型的问题是一种情况;然而在这个嘈杂的世界中工作,能够理性且及时地应对那些不可预见的意外,则完全是另一种情况。
机器学习在常识中有作用吗?
Brachman 指出,基于机器学习的系统在人工智能的感知方面会持续发挥关键作用。
他表示,自己不会推广利用一阶谓词演算去处理人造视网膜上的像素,也不会用其处理速度信号处理的符号操作系统。这些机器学习系统在感官水平较低的识别任务方面极为擅长。目前尚不明确这些东西在认知链中的地位高低,不过它们没有达成最终目标,原因是它们没有在人们在场景中所看到的东西与自然语言之间构建起概念和联系。
近年来,神经网络和符号系统的结合这一概念日益突出。一些科学家,如 Gary Marcus、Luis Lamb 和 Joshua Tenenbaum 等,正在提议开发一种“神经符号”系统,这种系统会把最好的符号系统与基于学习的系统相结合,从而去解决当前人工智能所面临的挑战。
Brachman 同意该领域正在进行的大部分工作。同时,他也表示,目前对混合人工智能的看法需要进行一些调整。
他说,他认为当前的任何神经符号系统都难以解释常识与更系统、更深入的符号推理之间的差别,而符号推理是数学、重度规划以及深入分析的基础。他还希望在这个混合人工智能的世界中看到的是真正将常识纳入考量,让机器能够像人类那样运用常识,让机器去做和人类一样的事情。
本文来自作者[qulangwang]投稿,不代表趣浪号立场,如若转载,请注明出处:https://qulangwang.cn/life/202503-14663.html
评论列表(4条)
我是趣浪号的签约作者“qulangwang”!
希望本篇文章《深度学习在人工智能领域的进展与挑战:计算机视觉、语音识别和自然语言处理的突破与局限》能对你有所帮助!
本站[趣浪号]内容主要涵盖:生活百科,小常识,生活小窍门,知识分享
本文概览:文章浏览阅读409次。近年来,深度学习在人工智能领域取得显著进步,但在处理新情况、需要大量数据训练及犯错误方面存在问题。科学家们争论解决方案,有人主张构建更大的神经网络...