[引言]人工智能专业最好的学校排名【精品多篇】为好范文网的会员投稿推荐,但愿对你的学习工作带来帮助。
人工智能的边界在哪? 篇一
关于什么是智能,我们目前尚且无法给出一个精确的定义。就像在图灵机出现之前,我们无法对计算给出一个严格的定义一样。在一个无法定义的领域里辩论,自然是“公说公有理,婆说婆有理”。
ACM图灵大会的主旨演讲者之一是哈佛大学的理论计算机科学家莱斯利·瓦利安特(Leslie Valiant),他因为在并行计算理论和机器学习理论方面的贡献获得了2010年的图灵奖。他演讲的题目是“什么是可行计算的极限?”(What are the Limits of Feasible Computation?),这为论坛将要展开的讨论提供了理论基础。首先,瓦利安特把计算机科学问题参照物理学分为三个层次:超级普适性(super-generality)、普适性(generality)和数学推断(mathematical consequences)。瓦利安特只是比较了物理学和计算机科学,我们在他的基础上加入了人工智能的维度,以便得到更多的启示。物理学中,超级普适性的体现就是最广义的、永恒不变的、可以表达成数学方程的物理学定律,而在计算机科学中对应的就是计算的理论模型,图灵机就是一种计算模型,当然图灵机不是唯一的模型。物理学的普适层存在着定律,如牛顿第二定律、万有引力定律等;在图灵机的框架下,NP完全理论就是普适性的。大概在瓦利安特心目中,计算复杂性是和牛顿定律一样的存在。在数学推断层,物理学有行星椭圆轨道,而理论计算机科学会有各种具体的NP完全的问题。当超级普适层发生变化时,下面的层次也会依次变化,例如,如果计算模型变成了量子计算机,那么类似的复杂性问题就变成了有限错误量子计算多项式时间(Bounded error Quantum Polynomial time, BQP)之类。图1为物理学、计算机科学和人工智能的普适性分层。
当我们分析不同的问题时,会使用不同的计算模型。丘奇-图灵论题(Church-Turing Thesis)是传统的理论计算机科学的支柱,这个论题断言所有的计算模型都是等价的,也就是说,所有足够强的计算模型都是可以互相模拟的。另一个被默认的论题是中国计算机理论科学家洪加威提出的“相似性原则”(Similarity Principle),即所有足够强的计算模型之间的模拟成本都是多项式的。相似性原则也被称为“强丘奇-图灵论题”或“扩展的丘奇-图灵论题”(Extended Church-Turing Thesis)。“强丘奇-图灵论题”不太被提起,甚至被忽视,主要原因大概是这个原则已经变成计算理论的工作假设,大家已经习以为常。近来的理论研究提出了和图灵机可能不等价的计算模型,它们的计算能力在某种意义上超越了图灵机,也违背了丘奇-图灵论题和强丘奇-图灵论题,有时也被称为“超计算”(hyper-computation)。例如,BSS(Blum-Shub-Smale)实数模型[1]和量子计算机等。BSS的“B”就是本次大会的主旨演讲嘉宾之一丽诺尔·布卢姆(Lenore Blum)。在BSS模型上,实数的四则运算可以在单位时间内完成,这类模型可以展现出和图灵机不同的性质,例如,线性规划在图灵机上有多项式时间的算法,但在BSS上的时间复杂性还未知。三层以上神经网络学习问题在图灵机上是NP完全的,而在BSS上和线性规划等价[2]。
量子计算被认为可能违背“强丘奇-图灵论题”。例如,和网络安全密切相关的素数分解问题在图灵机上被认为是难的,尽管还没有明确的证明,但量子计算机上整数分解的秀尔算法(Shor’s algorithm)有可能是高效的。BSS作为一个数值分析的理论模型,应该是有价值的,但可否实现则存疑;而实用的量子计算机是有可能实现的。“丘奇-图灵论题”和“强丘奇-图灵论题”更像是物理定律而不是数学定理。计算是游走于数学和物理学之间的学问,关于计算和物理的关系,可见图灵研究专家霍奇斯(Hodges)的文章[3],以及姚期智为纪念JACM (Journal of the ACM)出版50周年写的文章[4]。
大会论坛的各位嘉宾虽然都来自计算机科学或者相关学科,和人工智能有着千丝万缕的关系,但他们对人工智能的看法却各有不同,即使我们给完全的外行发个调查问卷,恐怕得来的回答之间的差异与嘉宾们之间的观点差异也差不多。这是人工智能这个特定学科的性质决定的,每个颗粒度足够大或者足够抽象的问题都像是哲学问题。一个实用主义的办法可以把人工智能定义为相关从业者正在进行的研究领域,找到他们之间的共同点,求同存异。2006年之后由深度学习引发的又一次人工智能热潮,使得人们把人工智能的关注点聚焦在机器学习,从而忽视了人工智能的其他分支学科,而深度学习对大数据的依赖也自然造成了对模型的轻视。关心计算机视觉的人很容易借鉴马尔(David Marr)的分层理论。
任何一个实用主义的回答都必须有个参照物,人工智能的参照物是自然智能,或者更具体地说是人类智能。机器在一个特定的领域或任务上已经超越人类是大家的共识,此所谓弱人工智能。目前还没有可以跨任务的机器,当下强人工智能还不是现实,这也是共识。事实上,人工智能的分类常常是按照任务来的,例如计算机视觉(包括模式识别和图像处理等)、自然语言理解、认知与推理、机器人学、博弈论、机器学习等。而美国计算机学会(ACM)在某些领域里并不活跃,例如机器学习和计算机视觉。如果按照任务来,智能的定义就变成了自底向上的,这也是人工智能作为一个工程领域,从业者对其很自然的态度。不同的人会用不同的术语,一些人称为模型,另一些人称为任务。底层的大数据小任务,到了高层就变成了小数据大任务。这里所谓任务的大小,其实是指任务的复杂度。
智能的任务按照诺贝尔经济奖得主、心理学家丹尼尔·卡尼曼(Daniel Kahneman)的说法可以分为两类,一类是能快速反应的,例如计算机视觉;另一类是需要长时间思考的,例如认知与推理。有人说人类更擅长前一类任务,而机器更擅长后一类任务。人工智能的历史曾有符号主义和连接主义的交替,前一类任务更有效的解决办法是连接主义的深度学习,而后一种任务更像是符号主义的使命。但都有例外,例如深度学习尚没有找到自然语言处理的窍门;符号主义在机器定理证明领域,近几年几乎处于停滞的状态。AlphaGo及其一系列衍生程序所依赖的核心算法——强化学习则无法归类到这两派之中,而是自成一派。给人工智能下定义的过程也是一个学习的过程,特别是在没有理论指导下,这个过程尤为艰难,每个泛化推广的企图都会碰到反例。
其实不仅仅是对“人工智能”难以形成共识,即使对什么是“学习”也很难提出都可以接受的定义。有人说“机器学习”不是“学习”,不过是曲线拟合而已。但“学习”和“拟合”的真正区别又是什么呢?一个可以接受的理论是瓦利安特提出的“概率近似正确”(Probably Approximately Correct, PAC)模型[5]。由亚里士多德开启的传统西方哲学认为,演绎和归纳是对立的,学习就是归纳,归纳必然导致犯错。在PAC模型中,错误被控制在一个范围内。瓦利安特不仅用PAC模型解释学习,还用它解释进化论。当然如果可以解释进化论,PAC模型也就可以作为强化学习的某种理论基础,强化学习可以被当作计算进化论。我们从瓦利安特的分层中可以看出,PAC模型是包含在确定多项式时间之内的。图2是计算模型的能力分层。
首先,我们回到第一个问题:现状(Reality)。所有嘉宾的共识是:在某些特定的领域,人工智能已经超越人类智能,但当下人工智能还没有全面达到人类智能。
第二个问题:可能性(Possibility)。按照瓦利安特的层次,首先从超级普适层的计算模型考虑,如果人脑的计算能力也可以用图灵机刻画,那么按照丘奇-图灵论题,用图灵机实现人脑功能自然是可能的。按照相似性原则,图灵机实现人脑的功能的成本甚至是多项式的。数学家罗杰·彭罗斯(Roger Penrose)曾经联合脑科学的朋友企图找到人脑里存在量子效应的证明。而麻省理工学院的物理学家,畅销书《生命3.0》(Life 3.0)的作者马克斯·泰格马克(Max Tegmark)在与本文作者对谈时曾提到他的观点:人工智能有图灵机就够了,不需要量子计算。
假设人脑是量子计算机,那么在超级普适层,仍然可以用图灵机等价的模型实现人类智能,而在普适层,也可以用量子计算机低成本地实现人类智能。这里倒使我们不由自主地提出一个有趣的问题:量子计算机之间是不是存在着相似性原则,换句话说,任意一台量子计算机模拟任意一台量子计算机的成本是不是多项式的?物理学家理查德·费曼(Richard Feynman)在1982年的文章《利用计算机模拟物理学》(Simulating Physics with Computers)中猜测,不大可能用经典计算机有效地模拟量子物理,但可能用量子计算机有效地模拟[6, 7]。物理学家的洞见对数学家和计算机科学家是有益的。
如果能够证明多项式时间类P是BQP的真子集,那么相似性原则或者扩展的丘奇-图灵论题就被打破了。按照瓦利安特的层次分类,我们不需要量子计算就可以达到PAC模型学习。瓦利安特似乎更倾向支持泰格马克而不是彭罗斯。理论不仅给工程师们提供解释,也为他们指明方向。
第三个问题:“幻想”(Fantasy),也就是说人脑的计算能力不可能被任何已知或未知的计算模型所模拟。这个问题和第二个问题密切相关,如果对第二个问题的回答是否定的,那自然是Fantasy。假设我们用一种进步的观点看待人工智能学科,我们会承认现在的人工智能比以前更为有力,而未来的人工智能比当下更为有力。随着时间的推移,人类智能中没有被人工智能所覆盖的部分就是Fantasy。
所以Fantasy可以被定义为:Fantasy = HI - AIn→∞(见图3)。如果Fantasy是空集,那么我们都是乐观派,如果它不是空集,那么我们应该探索它应该包含些什么?我们可以问它应该有些什么神秘的超计算的模型,或者有什么优良的复杂性的性质不可实现。
布卢姆夫妇的主旨演讲“有意识的图灵机”(Conscious Turing Machine, CTM)很吸引人。曼纽尔·布卢姆说这是他们一家三口的联合工作(丈夫曼纽尔、太太丽诺尔和儿子阿夫里姆(Avrim)都曾是卡耐基梅隆大学(CMU)计算机学院的教授),但他们还没有联合写过一篇文章。他们企图为认知科学中饱受争议的“意识”问题提供一个计算模型。这个模型的目的并非是他们夫妇擅长的计算理论,而仅仅是某种心理学的模型可以得到一个计算的实现或者解释。
布卢姆夫妇用“痛苦”(pain)和“愉悦”(joy)作为例子来说明意识[8]。曼纽尔负责演讲的上半场,丽诺尔负责下半场,曼纽尔开玩笑说他负责“痛苦”而太太丽诺尔负责“愉悦”。理解大脑是曼纽尔的终生兴趣,他小的时候,他爸爸就告诉他,要是他能知道大脑是如何工作的,他就会变得聪明。尽管他在麻省理工学院的博士生导师是马文·明斯基(Marvin Minsky),但他的实际指导者则是最早提出神经网络的沃伦·麦卡洛克(Warren McCulloch)和沃尔特·皮茨(Walter Pitts)。布卢姆夫妇像认知科学家一样,把“模拟”(simulation)称为“容易”的问题,而把“体验”(experience)称为“困难”的问题。他们强调他们的模型和突破“丘奇-图灵论题”没有关系,他们的目的是为意识提供一个简单可用的模型,这样可以在这个模型上证明和意识相关的数学定理。至于说“模拟”和“体验”孰难孰易,不好追究,人们也可以说“模拟”才是人特有的进化而来的高级性质,而“体验”是低级的东西。
关于“意识”的一个有影响的模型是认知科学家伯尼·巴尔斯(Bernie Baars)提出的“剧场模型”(Theater Model),而布卢姆的CTM就是“剧场模型”的一个计算实现。在“剧场模型”里,聚光灯下的舞台是短期记忆(Short-Term Memory, STM),而台下的观众则是无意识(unconscious)的长期记忆(Long-Term Memory, LTM)。没有短期记忆,人就变成“僵尸”(zombie),不同的长期记忆通过连接构成了一部异构并行计算机。某些对于计算理论缺乏基本知识的哲学家无法对他们认为是他们自己领地的“意识”问题给出精确的定义,意识这个概念在他们那里是一个移动的目标,他们辩论的底线就是任何不是自然生长出来的物体都没法具有意识。哲学家们常常分不清楚修辞和科学。布卢姆的CTM至少向一个更精确的目标走了一步。意识与心智(mind)的架构(architecture)有关,这个结论并不惊人,我们可以假设他们夫妇俩是长期的乐观派。
事实上,瓦利安特在他的PAC模型科普小册子里也提到了认知结构,他也企图利用短期和长期记忆的区别来理解意识。我们很好奇瓦利安特的“坚实逻辑”(Robust Logic)和布卢姆的CTM之间有什么关系。
不同背景的计算机科学家的论坛会碰撞出许多火花,纵横学科架构、基础理论,乃至工程实现。反思这些有趣的探讨,还有两个问题值得进一步深思:第一,当下实现图灵机的物理基础仍是半导体器件。利用一个“PN”结现象,我们得以造出物美价廉高密度极可靠的数字电路,打造了辉煌的数字计算机工业,开发出大量的高效应用,其中有些显然已经超越人类“智能”(比如超级计算机)。但是,我们可以用来做“计算”的物理现象,肯定远远不止半导体。比如,要知道一个抛物体能落在哪里,我们可以根据物理定律用数字计算机来计算,但是也可以利用物理现象做模拟计算。另外一个(正面的)例子是上面提到的彼得·秀尔(Peter Shor)发明的整数分解的量子算法。秀尔算法所利用的物理器件就不是基于半导体“PN”结现象的。人类智能不一定只依靠半导体的物理现象来实现。我们需要探索基于不同物理现象而导致的新的普适性计算模型。也许,在这些模型中,有些可能会有效实现或者接近有效实现人类智能。
第二,布卢姆提出了“有意识的图灵机”这一课题。显然,认知科学家认为意识是“智能”行为的重要组成。意识是一个智能主体对客观感知后的一种认识。所以,和传统的计算模型不同,对客观感知将必然成为人工智能计算模型的重要部分。这样的计算模型不但要考虑计算的复杂性,更要考虑感知数据的复杂性。请注意对客观感知所生成的数据不会是随意的,这是因为这些数据是自然界的表示和抽象,应当遵守某些客观规律。计算的复杂性和感知数据的复杂性是对偶的。认识感知数据的复杂性并利用其特有的客观规律应该可以提高计算效率,降低计算的复杂性。所以,在人工智能学科建设过程中,感知数据的内在规律和复杂性是一个需要认真探讨、有待突破的前沿问题。图灵机的计算模型是忽略输入数据的复杂性的,这保证了模型的简洁。也许,超计算模型为我们理解人工智能和人类智能的边界提供了理论基础。
人工智能专业难学吗? 篇二
人工智能专业是一个比较好学的专业,课程难度不大,同时该专业还是一个很不错的专业,前景很好,中国正在产业升级,工业机器人和人工智能方面会是强烈的热点,以后很多东西都是人工智能了。我是桂林电子科技大学18级学生,我有一个认识的学弟就是人工智能专业的,我们学校是2020年才有人工智能这个专业的,下面我来具体介绍一下这个专业吧。
人工智能是研究、开发用于模拟、延伸和扩展人智能的理论、方法、技术及应用系统的一门新技术科学,也是计算机科学的一个分支。它企图了解智能的实质,可以产出一种新的可以和人类智能相似的方式做出反应的智能机器,该领域的研究主要有机器人、语言识别、图像识别、自然语言处理和专家系统等。
主修课程人工智能专业的核心课程有:专业导论、人工智能数学基础、线性代数 A、概率论与数理统计、程序设计与问题求解、电路与电子技术基础、面向对象编程、算法及数据结构、人工智能基础、数据科学导论、计算机组成原理、机器学习、信息论、机器人学概论、数字信号处理、模式识别、自然语言处理、现代控制理论等。我们在学习中需要注意的是:要认真学习智能的基础理论、基本方法和基本技能,掌握相关应用领域基础知识。还需要具有系统的计算思维和数据思维,具有创新创业意识和国际视野,具有良好的社会人文素养、职业道德和团队精神。
就业前景人工智能专业就业方向主要包括科研机构(机器人研究所等)、软硬件开发人员、高校讲师等。在国内的话就业前景是比较好的,国内产业升级,IT行业的转型工业和机器人和智能机器人以及可穿戴设备的研发将来都是强烈的热点。人工智能目前是一个快速增长的领域,人才需求量大,相比于其他技术岗位,竞争度偏低,薪资相对较高,因此,趁着这个机遇,人工智能专业是一个很好的选择。小结人工智能这个专业不难学,但是大家也不能太随意,不然也会挂科的哟。并且人工智能专业相当的不错,未来必定是一个人工智能的世界,掌握了人工智能技术,就是一笔不可描述的财富。人工智能不仅能带动国家的发展,还能够方便世界上所有的人,所以,相信自己的感觉,对人工智能感兴趣的同学,来选择这个专业肯定没错的。
人工智能专业最好的学校排名 篇三
1、南京大学(A+档,全国第1名)
2、西安电子科技大学(A+档,全国第2名)
3、清华大学(A+档,全国第3名)
4、哈尔滨工业大学(A+档,全国第4名)
5、北京大学(A+档,全国第5名)
6、浙江大学(A+档,全国第6名)
7、上海交通大学(A+档,全国第7名)
8、中国科学技术大学(A+档,全国第8名)
9、电子科技大学(A档,全国第9名)
10、东南大学(A档,全国第10名)
具体评估排名结果如下表所示:
注:以上评估结果按“分档”方式呈现,共分为6档,专业综合排名位次为前2%或前2名的为A+级,2% - 10%的为A级,10% - 20%的为B+级,20% - 50%的为B级,50% - 70%的为C级(不发布), 70%以后的为D级(不发布)
你也可以在好范文网搜索更多本站小编为你整理的其他人工智能专业最好的学校排名【精品多篇】范文。