一卓的AI框架课(Part 3)- 深度学习

文摘   2024-10-15 15:31   重庆  

对很多小伙伴来说,可能是在2016年AlphaGo战胜李世石的围棋比赛中,第一次听到“深度学习”这个词。深度学习,这个听起来高大上的概念到底是什么呢?我们先从现代人工智能的基本特点谈起。现代的人工智能是通过学习获得能力的,而不像最早期那样只是依靠人为设定的一系列规则来执行任务。这也是“自动化”和“人工智能”之间的最大区别。自动化是一套由人类设计的固定系统,由计算机执行;而人工智能则具备自我学习和自我调节的能力。智能的意义就在于解决复杂的问题,而我们的世界充满了变化无常的挑战。比如,在自动驾驶场景中,每天的路况都在变化,所以我们不能仅靠一套固定的操作流程来确保安全。因此,如果人工智能未来要代替人类完成工作,就必须具备像人类一样的环境感知能力,并通过不断学习来提升自己。而实现这种学习能力的核心技术就是深度学习。

那么,为什么叫它“深度”学习呢?这个“深度”究竟指的是什么?在这里,我们不得不提到一个非常重要的概念,那就是“深度神经网络”(Deep Neural Network)。我自己目前在读生物工程相关的博士学位,所以对脑神经有一些粗浅的了解。当我开始学习深度神经网络时,它的底层逻辑一下子把我惊艳住了,后面我会详细解释。但之所以把它叫做神经网络,是因为它通过数学模型模拟了人类大脑中神经元的运作机制,使得这些模型也具备类似人类的大脑学习能力。而这种对生物的巧妙模仿,让我们看到了未来实现“人工意识”的可能性。

深度神经网络(DNN)是目前深度学习中最经典的架构之一。在深度学习中,除了DNN,还有擅长处理图像识别的CNN,擅长处理序列信息的RNN,以及如今大语言模型的基础架构Transformer。在这个模块中,我会主要介绍深度神经网络(DNN),因为它就像“原味冰淇淋”,而其它架构如CNN、RNN、Transformer等则是在它的基础上加了不同的“口味”。理解DNN,有助于我们理解其他架构的原理和应用。

接下来,我们会一起探讨DNN的工作原理,了解它是如何一步步将输入信息转化为最终结果的。掌握DNN的运作方式,不仅能帮助我们认识到AI的强大之处,更重要的是理解它的应用局限性。深度学习在医疗、法律等领域有着巨大的潜力,但如果我们依赖AI的决策,不仅需要知道结果是什么,更要知道这个结果是如何得出的,否则可能对患者或被告造成不负责任的后果。因此,对于每一个未来想要利用AI辅助工作的人来说,理解这些知识都是必不可少的。

接下来,就让我们从深度学习的基础开始吧!

深度神经网络的构架

初看深度神经网络可能会让人有望而止步的感觉,但不用担心,沉下心来你一定能看懂。我们先从神经网络的架构长什么样来说起。

在下面的示意图上你能看到,深度神经网络分为三大组成部分,分别是输入层、隐藏层和输出层。左边绿色箭头进来的是待处理的信息(机器学习模块中我们有提到,就是输入的特征信息)。中间的部分叫做“隐藏层”,是深度学习的核心,他们主要负责完成对这些特征的计算和转化。最终,数据经过隐藏层的计算,最终会抵达右边的“输出层”,给出最后的预测结果。每一层的输出都会成为下一层的输入:

输入层
输入层代表我们提供给神经网络的原始数据,每一个输入节点(图上圆点)对应一个特征,输入层的任务是将这些特征根据一定规则传递给网络的下一层,即隐藏层。

隐藏层
隐藏层是神经网络中的计算核心,每一层由多个神经元(图上圆点)组成。不同的神经网络模型可能有不同数量的隐藏层,从几层到上百层不等,具体层数取决于任务的复杂性。越复杂的任务,层数越多,不同层级往往用于完成不同类别的任务。

每个神经元是一个基本的计算单元,能够接受多个输入。数据在网络中以向量的形式层层传递。向量是一组有空间位置信息的数字,更详细的在本模块结尾有展开说明。

每个隐藏层的神经元通过权重偏置对输入数据进行线性计算,然后再通过激活函数进行非线性变换。这三个加深的词都是不同计算的方式,你可以理解就像是“加减乘除”这样不同的数据“加工方式”,加工完的结果会根据一定规则传递给下一层神经元。权重、偏置和激活函数在这一过程中分别对数据进行复杂的计算和特征提取。它们同时也决定了输入向量数据如何被转换(计算)以及如何传递到下一步神经元。关于这三种数学处理机制的详细解释可以在后续部分找到。你只需理解,神经网络的基本原理就是通过隐藏层逐步处理输入数据,最终得到预测结果。

输出层
输出层是神经网络的最后一层,它负责将隐藏层的计算结果转化为最终的预测输出。输出的形式和任务有关,可能是分类结果,也可能是数值预测。

深度指的是什么?是怎么来的?

深度神经网络的深度,和深度学习里的深度是同一个意思,是指神经网络中隐藏层的数量。一般来说,网络的层数越多,模型潜在的学习能力和复杂性越强。这就好比人脑的复杂程度比老鼠的脑子高,所以潜在的智能也就越强。但更多的层级也意味着需要更多的数据和计算资源来训练才能实现智能。此外,网络的深度越深,它对数据的特征提取也越抽象,这往往使得模型的内部运作难以被人类直观理解。

神经网络的隐藏层由人为设计,这意味着网络的架构——包括有多少隐藏层,以及每层有多少神经元——是由数据科学家、机器学习工程师或研究者根据特定任务的需要来定义的。在设计网络时,开发者会根据问题的复杂性、可用的数据量、计算资源和预期性能来决定网络结构的深度和宽度。

一旦定义了网络的结构,训练过程开始,权重和偏置的初始值通常是随机分配的。训练过程中,通过反向传播和梯度下降算法等优化技术,AI自动调整这些权重和偏置,以最小化预测和实际输出之间的误差。通过这个过程,神经网络自动学习如何将输入数据抽象化并处理以执行任务。

传统的层架构的深度设计更像是一门艺术,而不是一门科学。但目前也已经有工程师开始研究“神经结构搜索”(NAS)技术,这是一种自动化网络层级架构设计和优化工具。

人类大脑神经网络 vs. 人工神经网络

最近(2014年10月),推动人工神经网络发展的杰出学者Geoffrey Hinton教授获得了诺贝尔物理学奖,这是AI技术领域一个耐人寻味的事件。Hinton教授早在20世纪80年代末就开始研究如何通过模拟人类大脑神经网络的方式来实现机器学习。当时,这项技术被认为冷门且不切实际。然而,2012年Hinton教授的学生Alex Krizhevsky与Ilya Sutskever(后者成为OpenAI的首席技术官)开发了卷积神经网络(CNN)模型AlexNet,并在ImageNet视觉识别大赛中取得了远胜于其它非神经网络的模型,从而将人工神经网络的潜力放在了聚光灯下。

过去十年间,人工智能的快速发展不仅得益于神经网络的算法突破,还归功于大数据的兴起和算力技术的飞速进步。这三者的结合,推动了如今AI智能技术的涌现。基于模仿人类大脑神经元结构的深度学习方法,让我们重新思考智能究竟是如何形成的,这可能也为我们理解人类大脑的工作原理提供了新视角。基于人工神经网络的大模型反过来也为我们提供了一些启示,或许也能帮助我们人类实现更有效的学习(这部分内容在第四模块中会展开探讨)。接下来的部分,我们将详细探讨人类大脑神经网络与人工神经网络的异同。

单个神经元比较

从单个神经元角度来看,人工神经网络的结构和生物神经元的工作原理有相似之处:

生物和人工神经元在运作机制上的主要区别如下:

信息接收的区别
生物神经元:通过树突接收来自其他神经元的信号,这些信号以电化学形式存在。
人工神经元:接收多个输入,这些输入通常是数值数据,可以是特征、传感器数据或前一层神经元的输出。

信息处理与激活的区别
生物神经元:细胞体整合来自树突的信号,判断是否达到激发阈值,如果达到,神经元通过轴突将信号传递到下一个神经元。
人工神经元:将每个输入与其对应的权重相乘,并将所有结果加起来,形成加权和。加权和(weighed sum)再通过激活函数(activation function)处理,决定是否激活神经元(产生输出)。激活函数类似于生物神经元中的“激发”机制。

输出的区别
生物神经元:通过神经末梢将信号传递给下一个神经元的树突。
人工神经元:激活函数的结果作为输出,传递给下一个神经元或神经网络的下一层。

可以看出,二者的底层作用都是通过接收输入、处理信息,然后输出结果,但是人工神经元是对生物神经元的一种简化和抽象(数学化)的模仿。

全局架构比较

从神经网络的全局体系来看,人类神经网络架构和人工神经网络架构也有很多相仿之处:

二者都是采用网状、并行、非线性连接方式
人类神经网络的基本单位是生物神经元,神经元通过突触相互连接。神经元接收到电信号,当信号达到阈值时,会传递给其他神经元。每个神经元都可以与数百甚至上千个神经元相连,且这些信号通常是并行传递的,使大量神经元协同工作。此外,人类神经网络的连接是非线性的,创造性思维和处理复杂或模糊信息的能力通常依赖于大脑不同区域之间的非线性互联。

人工神经网络的基本单位是人工神经元,神经元之间的连接通过数学计算来实现。根据加权和激活函数的计算结果,信号传递至相应的神经元。每个神经元可以连接成百上千个其他神经元(具体数量依赖于具体模型)。人工神经网络的信号也是并行处理的,这也是为什么传统计算依赖串行计算的CPU,而人工智能更倾向于使用GPU进行并行计算。人工神经网络也实现了非线性连接,特别是通过激活函数的数学机制,模拟了大脑的非线性互联能力。

无论是人脑神经网络还是人工神经网络,它们都通过调节神经元之间的连接强度来实现学习与优化。在人脑中,这种调节通过突触可塑性来完成,即突触强弱决定了信号传递的效率。而在人工神经网络中,调整权重、偏置和激活函数等参数可以改变输出结果。如果网络产生了理想的结果(预测与实际误差变小),该连接会被强化(权重增加),反之则会减弱。这种优化调节的机制称为“梯度下降法”。

在这里我要引入一个重要的概念,叫做梯度下降法(Gradient Descent)。它是一种用来优化人工神经网络的常用算法。它的核心思想是逐步调整模型中的参数(权重),以找到误差的最小值。所谓的最小值,就是让模型的预测结果和真实值之间的误差尽可能小(还记得我们在第一个模块中提到的线性回归吗?我们试图通过减少误差找到最好的拟合线,这里也是类似的道理)。整个参数优化的过程是自动进行的,模型会不断调整权重来降低误差,从而让预测结果尽量接近真实答案。

人工神经网络与人脑神经网络的不同点

在信息处理方式上,人类大脑的神经元具有递归(recurrent)和反馈(feedback)回路,这意味着信息在处理过程中可以返回先前的神经元进行再次处理,从而增强了大脑处理信息的非线性能力。而在深度神经网络(DNN)中,信息大多是单向传播的,仅从一层传递到下一层(单向前馈),信息不会回流到之前的层级或神经元进行二次处理。

另外,在复杂程度上,生物大脑的复杂性远超目前最先进的人工深度神经网络大模型。人脑大约拥有千亿级的神经元和百万亿级的突触连接。另外大脑具有丰富的非线性连接机制,包括突触强度变化、长时程增强(LTP)、长时程抑制(LTD)以及神经递质的作用。

而相比之下,我们就拿目前最先进的GPT-4,总参数量预估只有万亿级(相对人脑百万亿级的突触要少两个零),神经元数量则更少。另外,人工神经网络的非线性连接机制相对简单,应对环境变化的方式也相对静态。所以我们说,基于深度神经网络的大模型只是对人类大脑的简化模仿。

何为大模型

在大家理解了深度神经网络的基本架构之后,我终于可以介绍一下“大模型”是什么了。所谓“大模型”,指的是具有大量参数的深度学习模型。这些参数通常是指我们之前提到的权重(weights)和偏置(biases)。它们是在监督学习过程中通过训练获得的数值,用来控制每个神经元如何处理和转换输入信息。权重决定了输入特征对神经元的影响,而偏置则用于调整神经元的激活阈值。关于这些细节,我们会在后续部分详细展开。

需要注意的是,激活函数并不属于模型的参数,因为它不包含可训练的数值,通常是预先设定的数学函数,用来引入非线性,使模型能够学习更复杂的模式。

大模型之所以“强大”,是因为它拥有海量的参数,这使得模型能够“学习”和“记忆”大量的信息。比如它可以理解词汇的多重含义、语言的语法规则,甚至各类知识和事实。这样,当我们提到“苹果”这个词时,模型不仅知道它可能是一种水果,还能理解它也可能是一个科技品牌,并通过上下文来判断具体含义。因此,像“苹果”这样的词汇在模型的参数中会嵌入许多上下文的参考信息,以便更好地理解不同场景下的含义。

至于多少参数才算“大模型”,业界没有一个固定的标准。例如,GPT-3 的参数量大约是数百亿级别,而目前的 GPT-4 虽然没有公开参数量,但业内推测可能达到了数千亿的规模。当然,“大”与“小”是相对的。就像2001年iPod首次发布时,5GB的硬盘容量已经足以让人惊叹。随着时间推移,当前认为很大的模型可能在未来显得微不足道。

深度神经网络是如何处理数据的

神经元 - 权重、偏置、激活函数是构成单个神经元处理特征数据的三大基本模式:

权重(Weight)
- 连接神经网络中不同层的神经元之间的参数,每个连接线上都有一个权重值。权重决定了一个神经元输入对输出的贡献程度,从而决定数据之间关联关系。
权重参数长什么样?权重通常是一个矩阵,权重矩阵维度取决于前一层和当前层神经元的数量。输入维度决定权重矩阵的列数,输出维度决定权重矩阵的行数。前一层的输出会本层对应的每个神经元进行矩阵乘法,形成对下一层的输入。
示例:3个输入神经元和4个输出神经元简单网络的权重矩阵可能看起来像这样:

偏置(Bias)- 偏置通常是一个向量,偏置是在矩阵乘法之后的一个额外加法参数,它允许神经元在没有输入时或权重为“0”时也能被激活。具体的计算顺序是先做矩阵乘法,然后对每个神经元加上对应的偏置数值。
假设当前层有 4 个神经元,那么偏置向量就是一个长度为 4 的向量。

激活函数(Activtion function)- 在权重乘法(加权)和偏置计算之后,额外一步计算。用于决定神经元是否被激活,以及多大强度激活。神经网络的非线性关系连接可以实现复杂的变化和表达能力。

完整计算案例
假设我们有一个简单的神经网络,当前层有 3 个神经元,前一层的输出是 ( X ),权重矩阵 ( W ) 和偏置向量 ( B ) ,计算步骤:

计算规则总结
矩阵乘积 + 偏置向量:这是线性组合的输入。
激活函数:是对线性组合输入的非线性变换,处理后得到的才是当前层的输出。

深度学习的几种常见架构

深度学习是比深度神经网络(DNN)更高一层的类别。你可以这么理解:

机器学习 > 深度学习 > 深度神经网络

之前提到,“深度”指的是网络中隐藏层的数量。DNN是最早设计出来的深度学习网络之一。然而,随着研究的深入,我们发现还有许多其他连接方式在特定应用领域中比DNN更高效。因此,基于深度学习,我们延展出了许多适用于不同场景的网络架构。下面我将列举几个常见的架构,它们的主要区别在于处理数据的方式以及各自的应用场景:

DNN(深度神经网络)

  • 特点:最基础的多层前馈神经网络,是最通用的深度学习架构。

  • 应用:用于简单的分类、回归任务,如客户分类、信用评分等。

  • 局限性:不能很好地处理结构化或时序数据。


CNN(卷积神经网络)

  • 特点:擅长处理空间结构化数据(如图像),通过卷积操作减少计算复杂度,并捕捉局部特征。

  • 应用:图像识别、物体检测、视频分析等任务。

  • 局限性:虽然擅长处理图像类任务,但在处理序列数据(如文本、时间序列)时效果不佳。


RNN(循环神经网络)

  • 特点:专门设计用于处理序列数据,能够捕捉数据中的时间依赖性和上下文关系。

  • 应用:自然语言处理(NLP)、语音识别、时间序列预测(如股票预测)等。

  • 局限性:由于循环结构的限制,RNN在处理长序列时效率较低,容易出现“长程依赖问题”(long-term dependency)。

Transformer架构

  • 特点:抛弃了RNN的循环结构,完全依赖“注意力机制”(Self-Attention),可以并行处理数据,极大提高了效率,尤其在处理长序列时具有显著优势。

  • 应用:最初应用于自然语言处理,表现出色的任务包括机器翻译、文本生成(如GPT系列)、文本理解(如BERT系列)等。如今,Transformer架构也被拓展到图像、音频等多模态任务中。

  • 优势:相比RNN,Transformer可以同时关注整个序列中的所有元素,解决了RNN在处理长序列时的效率问题和长程依赖问题。


是不是感觉有点复杂?但不需要过于纠结,只需要知道DNN、CNN、RNN、Transformer都是深度学习中的不同架构,它们彼此并行发展,但适用于不同的数据类型和任务。DNN是最基础的神经网络架构,CNN是针对图像任务优化的架构,RNN是专为序列数据设计的架构,而Transformer则是新一代的架构,突破了RNN的局限,特别适合处理长序列和自然语言数据。

卷积神经网络(CNN)架构是如何做图片识别的

上面提到CNN架构擅长处理图像,这其实也是参考了人类的视觉运作模式。它的底层逻辑很有意思,这里我也简单给大家介绍一下。首先我们先来看看人类的视觉是如何工作的:

人的视觉系统通过不同层次的细胞来理解图像:

  • 简单细胞(Simple Cells):检测到最基本的视觉特征,如光线方向或边缘,但不具备处理复杂形状或颜色的能力

  • 复杂细胞(Complex Cells):负责检测运动、形状等更加复杂的特征。

  • 超复杂细胞(Hyper-Complex Cells):进一步整合信息,处理颜色、深度、运动等信息,帮助我们理解更复杂的视觉场景。


在CNN的深度学习中,信息处理也类似于这种层次化方式。浅层的神经元处理较低级的特征,然后将结果传递到更深的层次,逐步提取更复杂的模式。

例如,在图像识别中的层级:

数据在神经网络中是逐层处理的。最初,浅层(如第一层)只能识别简单的特征,比如线条或边缘。随着数据被传递到更深的层次(如第二层),网络可以识别出组合特征,比如眼睛或嘴巴等部分。到了更深的层次(如第三层),网络能够将这些部分组合在一起,识别出完整的脸部,甚至能区分出不同人的面部特征。

通过这种逐层处理的方式,神经网络就像人类大脑一样,能够从简单的输入中提取出越来越复杂的、高级的特征,从而帮助完成识别或分类等任务。

特征信息的逐层抽象化

在卷积神经网络(CNN)中,也采用了类似的逐层处理方式,网络从局部特征开始,逐渐理解整体结构。数据经过网络处理时,会被转换为向量(或高维数据形式),传递给每一层的隐藏层。每一层根据特定的权重和激活函数对数据进行处理,将简单的特征逐渐转化为更复杂的形式。浅层处理简单的特征,如图像中的边缘或单个像素。随着数据进入更深的层次,网络开始识别出形状、物体。最终,深层的神经元能够把这些简单特征组合起来,实现对复杂对象的识别,比如区分男女、老少或动物。

在RNN或Transformer架构中,文本处理也遵循逐层处理的原则。浅层可能识别单个单词或简单的词汇信息,随着数据进入更深层次,网络能够识别句子中的复杂语义和概念,并捕捉上下文的依赖关系。


深度学习中的数据表达工具(向量)


向量化是什么?

也是因为开始学习人工智能的基本原理,我最近才重新拾起那些在高中、大学时期感觉没有实际用途的数学知识。随着学习的深入,这些数学知识被重新串联在一起,开始展现出实际的应用价值。比如,在机器学习中,算法优化的核心在于通过调整模型参数,使预测值更接近于实际值,从而减少误差。这个优化过程本质上依赖统计学中的回归分析等方法,来找到与数据最匹配的拟合线。换句话来说,拟合线的方程就是用于最准确预测的算法模型(大家可以回到第一模块开篇回顾这一部分)。

在深度学习中,算法的复杂性远高于传统的机器学习。在第三模块里,我们提到特征数据通常会被转化为向量形式。还记得吗?我们在学校里学习的向量,通常指的是一组描述空间属性的数字(如下图右侧)。

然而,在深度学习中,向量化的含义更加广泛,它指的是将特征数据转化为向量或更高维的数据结构,使其能够进行计算。需要注意的是,当我们说“向量化”时,实际上也包含了矩阵和张量(上图左侧)。为了方便大家更好地理解,我举个例子:我们知道电脑屏幕是由无数个像素点组成的,每个像素点的位置可以用一组数字表示(类似于描述棋盘上的坐标)。此外,每个像素的颜色也可以用RGB值来表示,RGB代表红、绿、蓝三种颜色的强度,组合起来可以生成绝大多数可见光颜色。所谓的“向量化”,就是将这些数据转化为可以处理的数值形式。如果只考虑像素点的位置,一维向量就能表示这些信息;但如果我们要同时描述颜色信息,就需要二维的矩阵。如果还要加入颜色的强度信息,则需要引入更多的维度,这时我们用的就是张量。三维及以上的数组都称为张量,每个维度都代表不同的特征。

由于真实世界里的问题,往往需要从多个维度的特征进行结合判断,所以人工智能的深度学习模型通常处理的是张量,而不是单纯的向量。但由于“向量化”这个词使用已久,人们习惯性地将所有数据的数值化处理都称作向量化,尽管很多时候它们实际处理的是更高维的张量。

向量化的空间意义

在之前提到的“权重、偏置和激活函数”等隐藏层的计算中,我们发现向量的空间特性对计算机理解和处理复杂问题非常重要。向量化类似于我们大脑中的知识存储方式:关联性强的知识会在大脑中靠得更近,当一个事件发生时,会激发另一个相关联的事件(比如闻到红烧肉的香味时会想起妈妈做的饭)。这种联想是通过神经元的突触连接实现的。

同样,神经网络中的空间概念是计算机理解不同概念的基础。以大语言模型为例,模型通过自监督学习,将词、短语和句子转化为向量,形成向量数据库。在这个过程中,模型通过学习词与词之间的关系,并将这些关系转化为向量,进而在高维空间中定位这些词的位置。两个词的语义越接近,它们在向量空间中的位置就越相近。例如,“苹果”和“梨”的向量会在空间中靠得很近,因为它们在语义上有很多相似之处。而“苹果”和“汽车”的向量则会相距较远,因为它们的语义差异较大。

这种自然语言的向量化处理方式称为词嵌入(Word Embedding)。词嵌入能够将词语的上下文关系“嵌入”到向量空间中,使计算机能够捕捉并理解词语之间的语义和句法联系。语义相近的词在向量空间中的表示会彼此接近,而语义不相关的词则相距较远。这使得模型在处理文本数据时能够更好地理解词语之间的关系。

早期的词嵌入技术是静态的,也就是说,词向量在空间中的位置是固定的。而在最新的Transformer架构(如GPT系列)中,词向量能够根据上下文动态生成。这种动态的向量化方法更精确地捕捉了语言的复杂性和多样性。

这种向量化能力不仅有助于理解语义,还可以应用于语言预测。例如,同一个词在不同场景下可以有不同的含义。词嵌入能够根据上下文来预测单词的具体含义。例如,在某些语境中“苹果”更可能指的是水果,而在其他语境中可能指的是电脑品牌。AI通过分析上下文,判断更有可能是哪种含义。语言翻译也遵循类似的原理。通过向量的相似性,不同语言之间的语义映射得以实现。比如,中文的“苹果”和英文的“apple”在向量空间中的位置非常接近,从而使得AI可以在多语言环境中理解并处理文本,实现跨语言的语义通用性。

那么,如何评判两个词的“向量相似性”呢?我们通常使用数学方法,如余弦相似度欧几里得距离,来衡量向量之间的差异或相似性。

总结来说,向量化在深度学习中扮演着不可或缺的角色。其底层逻辑不仅巧妙,更体现了计算机神经网络与人脑神经网络在运作机制上的相似性。前面提到辛顿教授因其在深度神经网络领域的杰出贡献,荣获了2024年诺贝尔物理学奖。我认为,这个奖项的授予不仅是因为深度神经网络驱动的人工智能在产业化应用中的成功,另一方面,也可能是因为基于深度神经网络的大模型在一定程度上实现了类人智能的“涌现”。如果确实如此,那么通过不断优化深度神经网络,有可能帮助我们理解人类意识本身的起源。

到这里,前面三个模块——也就是《一卓的AI框架课》的技术性部分已经完结。希望这三个模块中的机器学习、大语言模型和深度神经网络,能够帮助你了解现代人工智能的底层框架是什么,也希望它能激发你对AI的兴趣,以便在未来自行学习并应用到你的产业中。在下一个最终模块中,我们将不会讨论AI技术,而是尝试展开思维,探讨在AGI时代到来后,当人类的大部分工作被AI或人形机器人取代时,我们该如何学习、生活和适应这些变化。敬请期待!




一卓咖啡馆
自己写的一些趣事趣闻