引言
人工智能(AI)的发展如同一场跨越80年的马拉松,每一步都在重塑我们与技术的关系。
今天,让我们通过一张图片,回顾AI的关键里程碑,并思考它的未来。
AI发展时间线
这张时间线生动展现了AI从理论构想到改变世界的历程。
从1943年神经网络的萌芽,到2023年AI艺术引发的法律争议,我们见证了技术的飞跃与社会的变革。
1943年:McCullock和Pitts发表了一篇关于神经网络的论文,奠定了AI的基础。 1950年:图灵提出了著名的“图灵测试”,旨在评估机器的智能水平,即机器是否能通过与人类的对话表现出类似人类的智能。 1951年:Marvin Minsky和Dean Edmonds制造了第一个神经网络计算机SNAR。 1956年:达特茅斯会议召开,标志着AI作为一个研究领域正式诞生。这次会议由McCarthy、Minsky、Rochester和Shannon等人发起,奠定了AI的基本方向。 1957年:Rosenblatt开发了感知器,这是第一个具有学习能力的人工神经网络。 1965年:Weizenbaum开发了ELIZA,一个模拟人类对话的自然语言处理程序。它可以在对话中模仿某些基础的人类对话模式。 1967年:Newell和Simon开发了GPS(通用问题解决程序),展示了计算机解决问题的能力,这是AI在解决问题和推理方面的早期尝试。 1974年:“第一次AI寒冬”开始,由于过高的期望和未达到的现实结果,AI研究的资金大幅减少,学术界对该领域的兴趣下降。 1980年:专家系统开始流行,特别是在预测和医疗诊断等领域。专家系统通过使用规则和知识库来模拟人类专家的决策。 1986年:Hinton、Rumelhart和Williams发表了一篇关于反向传播算法的论文,这使得更深层次的神经网络训练成为可能,推动了AI领域的重大进展。 1997年:IBM的深蓝计算机击败国际象棋世界冠军卡斯帕罗夫,这是计算机首次在棋类比赛中击败世界冠军,标志着AI在特定任务上击败人类的开始。 2011年:IBM Watson击败两位Jeopardy!冠军,展示了其强大的问答能力,标志着自然语言处理和知识库技术的显著进步。 2012年:AI初创公司DeepMind开发出能识别YouTube视频内容的深度神经网络,推动了计算机视觉和深度学习的进一步发展。 2014年:Facebook创建DeepFace,一个能够识别人脸并与人类精确度相媲美的人脸识别系统。 2015年:DeepMind开发的AlphaGo在围棋比赛中击败世界冠军李世石,展示了AI在复杂战略游戏中的卓越表现。 2017年:谷歌的AlphaZero在象棋和围棋等多个棋类游戏中击败最强的象棋引擎和人类选手,进一步展示了AI的学习能力和适应性。 2020年:OpenAI发布GPT-3,这是自然语言处理领域的一次重大突破。GPT-3可以生成高质量的自然语言文本,展现了AI在语言生成方面的巨大潜力。 2021年:DeepMind的AlphaFold2解决了长期困扰生物学家的蛋白质折叠问题,为医学研究和生物技术带来了重大突破。 2022年:谷歌解雇工程师Blake Lemoine,因为他声称其LaMDA对话应用程序表现出类人情感,这引发了关于AI伦理和意识的讨论。 2023年:艺术家对Stability AI、DeviantArt和MidJourney提起诉讼,指控其Stable Diffusion侵犯版权,这代表着AI生成艺术带来的法律和版权问题。
这个时间轴清晰地描绘了人工智能技术如何从理论概念逐步走向实际应用,并在多个领域取得突破性进展,从早期的神经网络,到现代的深度学习、自然语言处理和AI在生物学上的应用。
补充里程碑
这张图虽然全面,却仍有一些重要事件未能涵盖。作为AI从业者,我认为以下里程碑同样值得关注:
2012年:华人科学家李飞飞举办的ImageNet挑战赛——辛顿团队的AlexNet通过卷积神经网络赢得比赛,标志着深度学习的突破。 2014年:生成对抗网络(GANs)——由Ian Goodfellow提出,开启了图像生成和合成数据领域的革命。 2015年:Keras发布——作为一个易用的深度学习框架,简化了深度学习模型的构建和训练。让我们作为普通人也可以轻松调用AI模型。 2017年:《Attention is All You Need》——引入了Transformer架构,彻底改变了自然语言处理和序列建模领域。这篇论文在一开始的影响并没有现在这么大,我去年在图书馆看到一本2021年写的人工智能导论的英文书,整本书只在一个小段落里提到了transformer架构。 2018年:BERT(Bidirectional Encoder Representations from Transformers)——谷歌发布的双向语言模型,极大提高了自然语言处理的准确性和效率。 2020年:CLIP(Contrastive Language–Image Pre-training)——OpenAI开发的多模态模型,可以通过文本理解图像,推动了AI在多模态领域的应用。
这些补充事件进一步丰富了AI发展的画卷,展示了技术在深度学习、自然语言处理和多模态应用等领域的突飞猛进。
提示词工程是否还值得学?
随着OpenAI o系列大模型的问世,AI大模型的理解水平越来越高,不少朋友开始质疑:我们还有必要学习提示词工程(prompt engineering)吗?
答案是肯定的。
除非将来每个人都能用马斯克的脑机接口实现思维直连,否则语言交流依然是我们与AI沟通的桥梁。
提示词本质上是一门与AI对话的艺术。即便面对高度智能的AI,清晰表达需求的能力仍然至关重要。
假设你面对一个很聪明的人「一个高度智能的 AI 将会类似于一个很聪明的人」,即便对方具有高度智能,但是如果你的表达不清晰,误解仍难免发生。这说明问题往往出在表达方式上,而非对方的理解能力。
因此,学习提示词的核心在于掌握提示词的精髓:
一是将需求描述得清清楚楚 二是运用恰当的格式清晰表达 (有人现在又尝试用伪代码的方式写提示词,理由是提示词是给AI大模型看的,不是给人看的)
这些技能不会因AI理解力的提升而过时。
其次需要学习的是如何理解 AI 的工作方式,并从而学习和掌握更有效的提示词方法,充分发挥 AI 的潜能。比如现在广为人知的CoT(思维链),以及目前的各种提示词技术等等,这些可能会随着 AI 的不断进化而显得多余,例如 o1 这样的推理型 AI 已经内置了 CoT能力。这时候反而是要求你的提示词要简洁但是提供足够的信息。
Sam有提到过也许五年后AI足够聪明,就不需要提示词了,但是问题是我们有时间去等五年吗?