什么是深度学习?从图灵测试谈到ChatGPT

文摘   2023-04-08 16:59   湖南  


点击上方蓝字

 

关注Anber
















来源:csdn

作者:Mr.Winter



1.图灵测试:机器有智能吗?

英国数学家艾伦·图灵(Alan Turing)在1950年发问,并提出图灵测试,目的是判断一台机器是否具有人类水平的智能。



图灵测试的基本思路是:一个人与一台机器在隔开的房间里进行对话,另一个人需要根据对话内容来判断哪个是机器,哪个是人。如果这个人无法区分出哪个是机器,哪个是人,则可以认为这个机器具有人类智能。


具体地,图灵测试分为两种形式:


标准图灵测试:测试者通过电报或电传机与被测试者进行对话,测试者不知道哪个是机器哪个是人;

修正图灵测试:测试者同时与一台机器和一名真实的人进行对话,测试者知道哪个是机器,哪个是人,然后需要判断哪个回答更像人类的回答。



2.AI缘起:达特茅斯会议

提出机器智能概念的六年后,也就是1956年的夏天,约翰·麦卡锡、马文·闵斯基、克劳德·香农、纳撒尼尔·罗切斯特等十位学者在美国新罕布什尔州的达特茅斯学院聚集,共同探讨人工智能的研究方向和方法,这就是著名的达特茅斯会议。



达特茅斯会议是人工智能研究的重要历史事件,它不仅为人工智能研究奠定了基础,也对人工智能的未来发展产生了深远的影响。在达特茅斯会议上,人工智能的概念首次被正式提出,人工智能领域的主要研究方向也得到了确定,如


逻辑推理

机器学习

自然语言处理

这些方向至今仍然是人工智能研究的主要方向。


同时,达特茅斯会议也推动了人工智能领域的快速发展。会议的参与者们在以后的研究中提出了许多重要的概念和方法,如人工神经网络、专家系统、计算机视觉等。这些成果为今后的人工智能研究奠定了坚实的基础。


因此,达特茅斯会议对于人工智能领域的发展起到了非常重要的作用。它不仅是人工智能领域的起点,也为人工智能未来的发展方向和方法提供了指导。


3.人工神经网络的提出

要使机器具有人的智能水平,一个朴素的想法是让机器模仿人的思维模式,或者说让机器具有人脑一样的功能。在人脑中有一类基本的功能单元——神经元,它是一种能够传递电信号和化学信号的特化细胞,神经元因而成为人工智能的基本建模对象之一。



如图所示为神经元的生物学特征:树突接收到来自其他神经元的信息 ,该信息通过突触加权,以确定是激活还是抑制输入的影响。


来自多个神经元的影响以加权和的形式汇聚在细胞核中,然后将这些信息发送到轴突中进一步处理。之后,信号要么到达目的地(例如肌肉),要么通过树突传递到下一个神经元。许多这样的神经单元通过某种形式有机结合,从而产生比单一神经元更有趣且复杂的行为。



基于生物神经理论的启发,构造人工神经网络(neuron networks),其是由具有适应性简单单元组成的广泛并行互连网络,能够模拟生物神经系统对外界输入进行智能交互反应。神经网络的基本组成单元称为神经元(Neuron),每个神经元与其他若干神经元相连组网。当神经元的输入超过偏置阈值,则它会被激活产生输出,将信号传递给神经网络中的其他部分。


4.AI飞跃:深度学习

早期的神经网络模型主要包括感知机模型、多层前向神经网络模型等,但这些模型的性能受到了限制,因为它们只能处理简单的线性问题,甚至连异或问题都无法处理。



1986年,著名的反向传播算法诞生,反向传播算法是今天一切神经网络训练的基石且延用至今,它可以通过将误差从输出层向输入层传播来更新权重,使得神经网络可以处理更加复杂的非线性问题。

2000年,深度学习开始崛起,在这个时期,研究人员开始使用更深的神经网络模型,即深度学习模型,以处理更加复杂的任务,如语音识别、图像识别等。但是,由于深度学习模型的训练需要大量的计算资源和数据,因此在这个时期,深度学习的应用范围受到了限制,AI技术再一次陷入低谷。



2012年,一种称为卷积神经网络的深度学习模型在ImageNet图像分类比赛中取得了惊人的结果,这引起了全球科技界的关注,也标志着深度学习技术进入了一个新的阶段。随着计算机硬件的不断迭代更新,以及大数据技术的发展,深度学习在自然语言处理、计算机视觉、语音识别等领域取得了重大突破。



1997年5月11日,一台名为“深蓝”的超级电脑将棋盘上的一个兵走到C4位置时,人类有史以来最伟大的国际象棋名家卡斯帕罗夫不得不沮丧地承认自己输了。世纪末的一场人机大战终于以计算机的微弱优势取胜。



2016年,谷歌人工智能AlphaGo与韩国棋手李世石的第三场比赛,最终AlphaGo战胜李世石,连续取得三场胜利,在五番局的较量中锁定胜利。



2018年,OpenAI发布了GPT-1,这是一个有1.5亿个参数的语言模型,能够生成与给定上下文相关的文本。一年后,OpenAI发布了GPT-2,这是一个拥有1.5亿至15亿个参数的更强大的语言模型,此时其语言能力接近人类水平。又过了一年,OpenAI发布了GPT-3,参数量达到了惊人的1.75万亿个。

紧接着,OpenAI发布了ChatGPT,这是专门用于聊天和对话的语言模型。ChatGPT是基于GPT-3开发的,具有强大的对话能力,能够理解语言上下文,并能够生成富有表现力和连贯的响应。ChatGPT的发布,为我们提供了一个强大的自然语言处理工具,可以应用于各种实际场景,如客户服务、智能助理和自动回复等。



未来,随着智能科学的不断发展,人工智能将走向更远…


如果喜欢本篇的内容记得点点再看,并把他转发到你的朋友圈。请永远不要停止学习,这是你武装自己对抗这个世界最有力的武器!

认真传播知识的科研人

关注公众号

获取人工智能技能+干货

Abner说Ai
一个认真传播知识的技术人,日常分享人工智能学习方法+技术文章,希望大家喜欢。
 最新文章