人工智能、机器学习和深度学习有哪些区别?

提供一个学习路线和书单,谢谢!
关注者
2,935
被浏览
1,937,502

148 个回答

作为一个大数据从业人员,相信大家整天都在被AI、机器学习、深度学习等一些概念轰炸。有时候甚至有点诚惶诚恐,一方面作为一个“业内人士”而自豪,二方面觉得新概念一个接一个,自己不甚了解,有点恐惧。现在就来拆解一下这三个名词:

人工智能(Artificial Intelligence)

人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门技术科学。“人工智能”是“一门技术科学”,它研究与开发的对象是“理论、技术及应用系统”,研究的目的是为了“模拟、延伸和扩展人的智能”。我们现在看到的貌似很高端的技术,如图像识别、NLP,其实依然没有脱离这个范围,就是“模拟人在看图方面的智能”和“模拟人在听话方面的智能”,本质上和“模拟人在计算方面的智能”没啥两样,虽然难度有高低,但目的是一样的——模拟、延伸和扩展人的智能。另外,人工智能在50年代就提出了。

机器学习

随着人对计算机科学的期望越来越高,要求它解决的问题越来越复杂,已经远远不能满足人们的诉求了。于是有人提出了一个新的思路——能否不为难码农,让机器自己去学习呢?

机器学习就是用算法解析数据,不断学习,对世界中发生的事做出判断和预测的一项技术。研究人员不会亲手编写软件、确定特殊指令集、然后让程序完成特殊任务;相反,研究人员会用大量数据和算法“训练”机器,让机器学会如何执行任务。这里有三个重要的信息:1、“机器学习”是“模拟、延伸和扩展人的智能”的一条路径,所以是人工智能的一个子集;2、“机器学习”是要基于大量数据的,也就是说它的“智能”是用大量数据喂出来的;3、正是因为要处理海量数据,所以大数据技术尤为重要;“机器学习”只是大数据技术上的一个应用。常用的10大机器学习算法有:决策树、随机森林、逻辑回归、SVM、朴素贝叶斯、K最近邻算法、K均值算法、Adaboost算法、神经网络、马尔科夫。

深度学习

相较而言,深度学习是一个比较新的概念,严格地说是2006年提出的。深度学习是用于建立、模拟人脑进行分析学习的神经网络,并模仿人脑的机制来解释数据的一种机器学习技术。它的基本特点,是试图模仿大脑的神经元之间传递,处理信息的模式。最显著的应用是计算机视觉和自然语言处理(NLP)领域。显然,“深度学习”是与机器学习中的“神经网络”是强相关,“神经网络”也是其主要的算法和手段;或者我们可以将“深度学习”称之为“改良版的神经网络”算法。深度学习又分为卷积神经网络(Convolutional neural networks,简称CNN)和深度置信网(Deep Belief Nets,简称DBN)。其主要的思想就是模拟人的神经元,每个神经元接受到信息,处理完后传递给与之相邻的所有神经元即可。所以看起来的处理方式有点像下图(想深入了解的同学可以自行google)。

神经网络的计算量非常大,事实上在很长时间里由于基础设施技术的限制进展并不大。而GPU的出现让人看到了曙光,也造就了深度学习的蓬勃发展,“深度学习”才一下子火热起来。击败李世石的Alpha go即是深度学习的一个很好的示例。Google的TensorFlow是开源深度学习系统一个比较好的实现,支持CNN、RNN和LSTM算法,是目前在图像识别、自然语言处理方面最流行的深度神经网络模型。事实上,提出“深度学习”概念的Hinton教授加入了google,而Alpha go也是google家的。

总结:人工智能是一个很老的概念,机器学习是人工智能的一个子集,深度学习又是机器学习的一个子集。机器学习与深度学习都是需要大量数据来“喂”的,是大数据技术上的一个应用,同时深度学习还需要更高的运算能力支撑,如GPU。

书单推荐:

1.Deep Learning

这本书介绍很全面,由深度学习领域的专家撰写。被称为 AI 圣经,因为它将这个领域多年的研究汇集到一本书中。

如果你是一个有抱负的学生想要掌握深度学习并深入研究,或者你想教授深度学习课程,那么这本书肯定会对你有帮助。这本书可能是目前关于深度学习最全面的图书。

2.Deep Learning: A Practitioner's Approach

本书使用了 DL4J 这个 Java 库来训练和实现深度神经网络。针对初学者,如果你在 Java 或深度学习领域已经很有经验,可以直接去看它的例子。如果你没有深度学习的经验,但有很好的 Java 基础,建议你逐页阅读本书。如果你不了解 Java,则需要先去入门 Java。

通过阅读这本书,你将大致了解机器学习,特别是深度学习的基本概念。你将了解深度神经网络是如何从基本的神经网络演化而来。了解一些深度网络的架构,例如卷积神经网络(CNN)和循环神经网络(RNN)。

3.深度学习入门:基于 Python 的理论与实现

本书是深度学习真正意义上的入门书,深入浅出地剖析了深度学习的原理和相关技术。书中使用 Python3,尽量不依赖外部库或工具,从基本的数学知识出发,带领读者从零创建一个经典的深度学习网络,使读者在此过程中逐步理解深度学习。

4.模式识别与机器学习

作者是 Christopher M. Bishop。本书提出了近似推理算法和用于描述概率分布的图模型等多种最新分类方法。在阅读本书之前,最好有多变量微积分和基本线性代数等数理基础,面向人群为高年级本科生、研究生和相关研究人员。


更多精彩内容可以关注 华为云技术宅基地

2023年,“人工智能新时代”再来看这个问题,感觉在朴素中又透露着一点缺失感。说缺失感意思是彼时人们对人工智能的想象一定没有今天这样丰富和具体,大模型时代让人们对人工智能和其背后的技术原理有了更深刻的认知。因此,我觉得这个问题在当下依然有很大的讨论价值,甚至有重新认识它的必要。

这篇回答主要三个部分。首先介绍人工智能、机器学习和深度学习之间的区别和联系;然后结合当下人工智能最新的发展水平,梳理一些重要的概念;最后提供一个学习路线和学习思路。感兴趣的可以分别跳转到对应部分。

人工智能发展的重要节点。图片来源:OurWorldData

人工智能vs机器学习vs深度学习

首先回答一下题目问题——人工智能、机器学习和深度学习这三个概念到底有什么区别?

人工智能

其实这个问题不难理解,我们可以通过一个类比来解释。假设把人工智能比作一个婴儿的大脑,那么机器学习和深度学习就是让这个婴儿的大脑有能力去观看世界、聆听世界,感受世界以及与世界互动。

直观的说,深度学习只是服务于人工智能的一个工具(也许在若干年以后,随着科技的发展,会出现一种全新的工具可以代替现在的深度学习去以另外一种技术路线实现人工智能),把这个工具用在语音识别领域,就能让机器更会听;把他用在自然语言处理领域,就能让机器更会理解;而把他用到计算机视觉领域,就能让机器更会看。

深度学习

深度学习(Deep Learning)的本质就是各种神经网络,从最早最简单的感知机,到多层神经网络,再到后来引起第一轮AI变革的CNNs、RNNs、Transformers等网络结构,再到如今的AI大模型,其目的都是构建一个合适的神经网络结构,让机器有能力“自己思考”——也称之为“智能”。大模型毫无疑问是当下最火的概念之一,它把人工智能带入了一个全新的时代,基于各类大模型的AIGC产品(如ChatGPT、Midjourney等)的诞生让人们对AI有了重新的想象。甚至很多人把今年2023年看作通用人工智能(AGI)元年,并认为大模型是帮助人类实现AGI的“终极方案”。

机器学习

关于机器学习(Machine Learning),它是比深度学习更为广泛的研究领域,发展的也比较早。在人工智能届有一种说法:认为机器学习是人工智能领域中最能够体现智能的一个分支。从发展历史来看,机器学习也的确是AI领域发展最快的分支之一。

在ML的早期发展阶段,由于计算机运算性能、样本规模等因素的限制,很多ML算法只存在于实验室和paper中,而没法在实际中应用。但是到后来,GPU 、AI芯片和超级计算机的发展很快,使得系统的计算能力和存储能力都有了很大的飞升,数据发掘引领了大数据时代的到来,让原来复杂度很高的算法得以实现,得到的结果也更为精细。

理论上,只要计算机计算能力足够强、样本数据量足够大,就可以不断增加神经网络的层数以及改变神经网络的结构,这就是“深度学习”,深度学习代表了机器学习的最新方向,同时也推动着机器学习的发展。

下面这张图很好的概括了人工智能、机器学习与深度学习三者之间的关系。

图片来源:《Deep Learning》(书籍)

人工智能新时代——AGI与大模型

今年随着ChatGPT、MidJourney和Stable Diffusion等AIGC产品的爆火,人工智能在世界范围内受到前所未有的关注。随之而来的是AI大模型、通用人工智能(AGI)、大语言模型(LLM)等一系列概念走进人们的视野,至今已经演变成“百模大战”。

尤其是GPT犹如惊雷一般的出现刷新了人们对人工智能的认知——创作、翻译、私人教师、变成、润色等等,人们瞬间意识到真的有这样一个“无所不能”先生能实实在在帮助自己提高学习和工作效率。

如果想学AI工具的用法,或者想学习AI大模型这方面的知识,推荐看一下「知乎知学堂」联合「AGI课堂」推出的【程序员的AI大模型进阶之旅】公开课,免费参加。2天的课程帮助理清本轮AI变革背后的技术,不管你是从业人员想跟进前沿发展动向,还是想了解AI产品的技术原理以更好的帮助自己提高工作效率,甚至成为AI超级个体,都有很多有价值的知识。现在还有免费的AI工具和大模型资料可以领取,入口在下面↓ ↓ ↓


GPT 之所以如此全能,是因为其背后有大模型作为引擎。大模型的独特性(如“涌现”)使得它超越了以往的深度学习方法赋予了人工智能更多的“智慧”和能力。同时也让人们开始对人工智能有了更多的想象和思考。

总体来说,人工智能可以分为三种形态:

  • Artificial Narrow Intelligence (ANI),弱人工智能;
  • Artificial General Intelligence (AGI),通用人工智能;
  • Artificial Super Intelligence (ASI),超级人工智能。

后两者也被统称为“强人工智能”。

各领域人工智能表现水平与人类的对比。图片来源:OurWorldData


严格地讲,我们现在看到的都属于“弱人工智能”——具有特定能力或能完成特定任务的人工智能。例如,赢得国际象棋比赛(RL)或从一系列照片中识别某个物体(CV);包括现在的五花八门的聊天机器人和文生图模型,以及其他各类AIGC产品都应该被划分在ANI范围之内。

而包括AGI和ASI在内的“强人工智能”则更强调具备类似人类的行为能力,例如通过语音文本理解语气和情感的能力。强人工智能的定义是基于其与人类相比的能力。通用人工智能(AGI)的表现将与人类相当,而超级人工智能(ASI),也称为超级智能,将超越人类的智力和能力。

这两种形式的强人工智能尚不存在,但该领域的研究正在进行中。尤其是今年以GPT-4和PaLM-E为代表的多模态大模型的出现,让人们看到了通用人工智能的影子。

两个月前有AI领域的专家曾经提到通用人工智能需具备的4个要素,分别是:

  • 涌现(emergence)
  • 代理(agency)
  • 功能可见性(affordence)
  • 具象(embodiment)

为什么说现在通用人工智能的影子已经初现了呢?

1、首先对于第一点,大模型的“涌现”现象和能力已经被证实。

2、第二点“代理”,意思是AI能够根据用户下达的总任务指令来自动规划并完成一系列子任务以达到最终目标,引入插件功能的ChatGPT,以及前段时间很热门的AutoGPT都属于初步迈进了这个门槛——AI Agent。

3、对于第三点“功能可见性”,它原本是一个认知和行为学领域的概念,描述的是现实世界中某个场景或物体对于人的行为的暗示,告诉人看到某物时应该能联想到它的功能。放到AGI中,其实它的意思就是AGI产品的可用功能应该与用户的需求和操作相匹配。功能可见性更像是在设计AGI系统时应该考虑的产品形态,从而保证人类与人工智能之间更好的进行互动。

4、而第四点“具象”,也称为“具身化”(embodied),则是数字化的人工智能系统与现实世界交流的物理化体现。这个概念听起来有点晦涩,但其实就是指单个AI系统能够接收并理解现实世界中多种模态的信息,比如语音、图像、触觉等等,从而完成复杂的任务。OpenAI的GPT-4模型和谷歌的PaLM-E模型已经初步具备处理多模态信息的能力。

此前谷歌曾在PaLM-E项目中演示过基于该模型的机器人完成“具身推理任务”(embodied reasoning task),比如,对机器人下达“去抽屉里拿一包零食”指令,它能够根据自身搭载的各类传感器感知世界,接收并理解多种模态的信息,然后规划子任务从而完成最终任务。

大模型正在给人工智能带来更多可能,而人工智能同样会给人类带来无限可能。之前有不少人讨论称人工智能将会为人类带来第四次工业革命,虽然我对此种观点持谨慎乐观态度,但是不可否认的是,此前人们不敢想象的一些AI工具和应用,正在出现在我们的生活中,就连看起来离我们很远的AGI也如幽灵一般若隐若现,或许它就隐藏在这些大模型的背后,不时地向我们闪现,预告人类它终将到来。

不管是从业人员,还是普通用户,我都建议大家利用好AI大模型这把火来提升自己的技能和认知。

以我自己为例,我的研究方向是计算机视觉,大(语言)模型原本并不是我关注的重点,但是从今年上半年开始,我补充了很多LLM及相关产品方面的知识。

一方面,作为AI领域的科研人员,当我去了解这些的时候,我发现我学习到的是包括技术路线、数据资源、算力、产品落地等在内的多方面的知识,这对于我提高自身能力和洞悉行业本质都有很大帮助。

另一方面,作为使用AI工具的用户,去了解大模型背后的技术和原理对我更好的使用这些工具也很有帮助,比如,在学习了一些LangChain、提示工程(Prompt Engineering)方面的知识之后,我发现在使用诸如ChatGPT这样的工具时,我可以更高效地让它生成我想要的内容,从而更大限度的发挥AI的能力,同时提高我的学习/工作效率。

这里建议感兴趣的同学可以关注一下上面提到的在线公开课「程序员的AI大模型进阶之旅」。有领域内的资深大佬带领你一起剖解AI大模型和关键技术(比如LangChain,Fine-tune等),还能领到AI大模型资料包和好用的免翻墙AI工具,这个途径要比自己去搜索各种学习资源有效多了,让你快速成为AI大模型这把火的受益者。

如何制定人工智能学习路线

对于那些不仅仅满足于AI大模型,而是希望深耕人工智能领域;以及那些还没怎么接触过人工智能、但有志于以后从事这个行业的知友,我建议应该从两个方面制定学习计划,一是学习专业知识,打实基础;二是及时跟进前沿技术和行业发展动态。

专业基础

专业知识这方面,没有太多的捷径可以走,主要还是要以书籍为主。

上面这两张图是我个人的一部分书单,年头比较多了,有一些是早期仅有电子版的时候下载的。这里重点推荐几本(默认有线性代数、概率论与统计等基础数学知识):

1、《统计学习方法》李航。一直以来都有人(点名马斯克)讽刺人工智能/机器学习就是统计学。

虽有调侃成分,但这一说法也在有它的道理,对统计学的理解很大程度上决定了你在深度学习和人工智能理论方法上的造诣,所以先好好看这本书。

2、《Pattern Recognition and Machine Learning》。如果你基础弱,这本书读起来会有点吃力,而且似乎没有中文版,属于比较难啃的,但好在它理论讲解全面、细致,对于夯实机器学习基础很有帮助。

3、《 Deep Learning: Adaptive Computation and Machine Learning series》,中文名:《深度学习》,这本书不用多说,被称为人工智能圣经,知识新颖、覆盖全面。

4、《Dive into deep learning》,中文名:《动手学深度学习》,适合边学习边实战(实战很重要),有基于不同DL框架的版本。我手里的是一本基于Pytorch的中文版,今年2月份刚出版。

跟踪前沿动态

人工智能是一个技术更新和迭代非常快的领域,及时跟进前沿技术和产品的最新发展动态至关重要。

1、这里以GPT模型为例,第一手资料当然是去阅读原文献,比如GPT-1到GPT-4的论文,以及介绍InstructGPT,RLHF等关键技术细节的论文。

2、考虑到并不是每个人一开始都有扎实的基础以支撑自己读懂原文,这时候可以选择一些专门做技术解读和论文拆解的博客文章或视频进行学习,这类资料通常以一种更通俗的方式讲解技术细节,有利于新手快速掌握关键信息。比如,下面这张图就是别人梳理的GPT模型的发展脉络,一目了然。

https://yaofu.notion.site/GPT-3-5-360081d91ec245f29029d37b54573756

3、如何快速找到某个领域的各类学习资源。

你可以通过类似上文的公开课免费获取到别人已经帮助你整理好的现成资源,但是这种往往是可遇而不可求的。大多数时候还得靠自己去搜索有用的资料。

所以,这里再告诉大家一个很好用的技巧——在谷歌搜索引擎搜索关键词“awesome xxx github”或者直接在GitHub上搜索“awesome xxx”,然后你会发现能搜出来很多项目,里面有各类资源汇总,比如论文列表、开源工具、产品动态跟踪、相关的技术解读的博文列表等等,内容非常全面。这些项目通常有人维护,保证内容及时更新。这是我个人经常使用的查阅资料的方法。

比如在GitHub上搜awesome chatgpt

最后,希望这篇回答对想要了解和学习人工智能的知友有帮助。

以上。打字不易,恳请点赞支持。