赛智产业研究院院长赵刚:人工智能的发展和应用

文摘   财经   2024-09-11 11:50   北京  




近日,贵州省人大常委会第三十期“人大讲坛”在贵阳举行。赛智产业研究院院长、北京赛智时代信息技术咨询有限公司CEO赵刚博士应邀授课,为各位委员们讲授《人工智能的发展和应用》。赵院长深入剖析了人工智能的内涵与外延,展望了技术前沿的最新趋势,深入比较了中美两国在人工智能产业领域的竞争态势,强调了人工智能在社会经济中的巨大应用价值以及其对现代化治理模式的深远影响。基于此次演讲内容,我们精心整理出这篇深度研究文章,旨在与各界同仁共同探讨人工智能的未来发展与影响。‍‍‍‍‍‍

 文 | 章 | 目 | 录‍‍‍


01

第一章:人工智能的内涵与外延

02

第二章:人工智能技术发展趋势

03

第三章:中美人工智能产业竞争格局

04

第四章:人工智能的应用价值

05

第五章:人工智能现代化治理


以下是文章正文:


第一章:人工智能的内涵与外延

首先,什么是人工智能?顾名思义,人工的智能。人的智能,人类智能,是最高级的生物智能。只有我们人具备这样的高级智能。那人工智能是什么?人工智能(Artificial Intelligence)是研究开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。AI就是要模拟、延伸和扩展我们人的智能,让机器具备我们人的智能水平。人工智能会涉及到人工智能理论、技术、产业和应用,我们把它们统称为人工智能。


一、人工智能模拟人的智能


人的智能到底分哪些方面?一是感知,我们基本的感知包括听觉、视觉、嗅觉、味觉、触觉等各方面的感知能力。机器首先要具备这种感知能力,现在它基本实现了智能感知。例如,自动驾驶汽车已经能够实时“感知”道路和路侧的任何车辆行驶、路况等各方面信息,驾驶特斯拉电动车的车主都已经享受到这种便利,视觉生成系统能够实时识别道路上任何进入视线的车辆和行人,一个摩托车、一个自行车等,车主都能够时时感觉到,它像已经长了眼睛了。我们很多机器现在也具备了智能听觉,我们说什么,它都能听到,也能听懂。我们能和家里的服务机器人进行对话,它们已经能听懂我们的声音。这是感知智能的方面。
二是机器智能具备了更多的人的计算和逻辑推理等能力,会计算,会思考。比如,让机器去解数学题。现在很多机器能够解数学题了。每次高考完以后,测试大模型的一个方法就是让这些大模型去做高考题,看大模型的高考作文得分,高考数据答题能打多少分,机器能够解题了。
三是机器具备了人的理解和创作能力。你跟它说什么,它能大概“知道”,而且它能够在理解的基础上进行创作。也就是说,人工智能生成内容(AIGC)。就像人可以去写文章、写诗、做音乐、画画一样,现在机器也具备了这种在理解之后的内容生成能力。现在,你让大模型写篇文章,帮我们写个稿子的初稿,它几秒钟之内就能为你生成;让他生成一幅图画,也非常快。我现在做PPT的时候,很多图片已经不去网上下载了,因为网上下载还有版权问题。我用大模型自己生成。我利用文心一言大模型或者豆包大模型,我让它给我生成一个“关于数据资源成为富矿,有巨大应用价值的图片”,它很快就给我生成这样一张图片。

图1:AI生成图片

我在多个场合在用这张图片,这张图片的生成,我贡献了图片生成的智慧,文心一言贡献了图片的内容,我们两者谁拥有图片版权?以后我们要去研究。但是,至少目前我敢用它,这个主意是我出的,大模型生成图片并没有涉及版权问题,新图片的版权是不是应该为我们共同所有?
所以,人工智能就是在模拟、扩展和延伸人的智能,形成了机器的智能。


二、人工智能的原理


机器已经具备了很多智能。最早的电脑只是会计算。后来随着人工智能技术的发展,机器已经能够感知声音,能够识别图像,具备了感知能力。现在,人工智能可以理解和生成内容,具备了认知智能。为什么说人工智能是第四次工业革命的颠覆性技术?也就是在2022年11月,chatGPT技术的颠覆性创新,使得人工智能在认知能力方面取得巨大进步,在理解和内容生成能力方面取得了巨大的进步。但这个进程仅仅是刚刚开始。我这里有两幅图,比较了人类智能和人工智能的原理。

图2:人类智能和人工智能的原理比较
人类能够用五官感知信息,然后所有的这些信息能够转化成神经系统中的各个神经元之间的相互作用关系,形成一个复杂的神经网络,这个神经网络附着在大脑皮层上,通过神经元的相互作用,就形成了人的感知能力、认知能力、理解能力、决策能力和创作能力,甚至包括人的自我意识。人的智能就是产生自进行信息处理分析的生物神经系统。当然还有基因的作用,人类智能的代代遗传。但是,在大脑生成之后,人的认知过程是通过五官感知信息、通过神经元形成的神经网络、通过大脑皮层,形成了人类的智能。
机器模拟的人工智能也是同样的一套机理。机器设法通过各种传感器感知信息,把这信息转化成数据,把这些数据传输到分布式处理系统,通过分层的深度神经网络算法,以及海量参数的大模型算法进行计算,涌现出智能,把大模型嵌入机器人的“大脑”,机器人就具备了智能,成为聪明的人形机器人。
到现在,我们还说不清楚人的智能到底是怎么产生的?为什么很多神经元之间相互作用就能产生人类的智能?科学家把它解释成复杂系统的一种涌现现象。而今天,我们在人工智能领域所做的工作,也是通过神经网络复杂的相互作用,产生了一种“大力出奇迹”的智能涌现的效果。也就是复杂系统在相互作用的过程中,涌现出来的一种智能形态。所以,这两条路线就是人的智能和机器智能的产生原理,人依靠神经系统,人形机器人依靠神经网络算法。

今天最大的问题是机器智能会超过人类智能?目前看,机器智能还赶不上人类智能。我们的人类大脑,只有果冻大小,仅仅通过几十瓦电力就能够产生出人类智能,而今天要产生同样的机器智能,我们需要几万张GPU芯片一起做大模型训练和推理,要耗费大量的电力,才能产生。所以,从能量的角度来说,我们今天人工智能离实现人的智能,即通用人工智能,实现人的自主意识还有很长的距离。但是,人工智能技术在指数级迭代演进。所以,人工智能前沿领域的一些学者专家已经提出来,人工智能可能很快就会接近人的智能,通用人工智能的时代可能很快就会到来。这个结论还有问题,很多专家还持怀疑态度。但是,争论主要是在时间长短的问题。


三、人工智能的不同技术路线

人工智能过去的发展,技术路线基本上有三条。
第一条是模拟人的心智,就是模拟人的逻辑思维和认知的过程。人们提出概念,建立概念之间的相互关系,形成规则和知识,最后形成知识体系。这是人类认知活动的基本过程。人工智能技术发展的第一个流派就是模拟人的认知,叫做符号主义,就是通过符号和数理逻辑来形成智能,通过规则演绎,通过知识推理来形成智能。大家都知道,在人工智能发展早期的专家系统,后来的知识工程,以及现在的知识图谱、因果推理等,都是这条技术路线,逻辑推理的路线。
第二条路线是模拟脑的结构,是当代人工智能取得巨大突破的一条技术路线,就是通过模拟大脑神经元之间相互关系,通过建立神经网络算法、深度学习算法、大模型算法等,模拟人的神经网络运行,形成按照统计规律产生智能的模式。人们还不知道这个智能是怎么产生的?但它确实具有了智能,这个路线叫做连接主义,就是我们现在一直在讲的神经网络、机器学习、深度学习和大模型这条路线。
第三条路线是模拟人的行为,就是工业机器人发展的路线。它基本上是遵循自动控制的一套理论,鼻祖就是维纳,通过控制、决策、反馈等行为过程来形成智能,包括在自动控制、机器狗、人形机器人、具身智能等的技术路线。

图3:人工智能的三条技术路线


四、人工智能的发展历史


人工智能发展已经有近70年的历史。在这三条技术路线上,起起伏伏。最初,计算机在1945年发明的时候,就有很多人已经开始研究怎么用计算机去解决计算、翻译、下棋等问题。那时候,有早期的逻辑推理的路线,有神经网络的路线,神经网络算法就是那时候提出来。人工智能起点是1956年的达特茅斯会议,人工智能这个概念正式诞生。参加这个会议的人都是人工智能领域非常知名的科学家,如麦卡锡、闵斯基、香农、纽厄尔、西蒙,以及摩尔定律的提出人摩尔也参加了这次会议。随后,符号主义的逻辑推理路线取得了很大的进步,那时候就可以通过程序进行搜索、聊天,但这些聊天都是基于规则的,是事先写好的规则,要超出这些规则之外的聊天,就不会有结果了。
后来,这条路线走不下去了,它解决不了意外问题,就是解决不了规则之外的问题,人工智能进入低谷,大家说“AI程序都是玩具”,没法在实际中应用。随后,神经网络开始加快发展,但效果并不好。神经网络算法沉默一阵子以后,逻辑推理路线加快发展,比如专家系统、知识工程等加快应用,日本当时还研制了基于知识的智能计算机,但后来也失败了。
到1986年左右,深度学习算法被提出来,连接主义这条路线快速发展,取得了巨大进步。深度学习算法、大模型算法通过统计的方法,提升了机器识别的效果。但是,你不知道为什么机器会有这种智能水平。这是人工智能发展的一个基本历程。


五、人工智能“思考”的快与慢


在人工智能发展中,就像人的思维,有快思考,也有慢思考。有时候我们是灵机一动,突然就有了灵感,就像牛顿看到苹果落下来,突然有了灵感,就像阿基米德在洗澡的时候突然有灵感一样。有时候,我们是深思熟虑,需要严密论证。美国哲学家卡尼曼提出来,人的思考有快与慢,有快系统与慢系统,有系统一和系统二。人工智能也一样。系统一是一个聪明的AI,它是靠直觉,靠灵机一动,在感知和判断的时候,是靠这种思维能力,这是一个快系统。系统二是一个有学识的AI,它是靠思考,靠深思熟虑,它知道很多知识,通过知识的组织,形成了它的推理能力,它依靠的是逻辑,它体现的是思考和推理,这是一个慢系统。

今天,很多人工智能实现是靠大模型的,靠灵机一动,但未来真正实现通用人工智能,要结合知识和因果推理,结合慢系统、结合知识图谱。所以,对人工智能未来发展路线预判上,一定是大模型+因果推理,整合知识图谱,把深思熟虑和灵机一动结合起来,形成未来通用人工智能。

通用人工智能是说人工智能有一天能够接近或达到人类智能水平。目前,我们判断机器还没有意识,没有自主意识能力。但是,有人说openAI的GPT-5里,已经发现部分程序(Q*)具有了自主意识能力。当然这还是传说,很多严格论证发现这个还是有问题的。人工智能未来发展路线上,达到通用人工智能,有人说还需要30年,有人说只要10年了,最新的判断有人说只要5年时间了,这种底气来自哪?其实就是来自于大模型快系统的快速迭代发展,人工智能具备了语言理解能力、图像识别能力、视频生成能力和世界模型能力,这些能力逐步形成之后,加上慢性统的知识图谱,也就是全世界的知识体系所形成的知识图谱,两者一结合就能够构建起来快慢结合的智能体系,为人工智能在5-10年内达到通用人工智能奠定了非常好的基础。


 六、图灵测试与中文屋


今天的人工智能真的具备了人的智能水平了吗?我要讲两个思想试验。

图4:图灵测试

一个叫做图灵测试,计算机领域的最高奖就是图灵奖,就是由图灵的名字命名的。图灵在1950年写过一篇文章叫“计算机能思维吗?“,他提出来一个思想实验叫图灵测试。提问者在面对一个人和一个机器的时候,问同样的问题,如果左边的人类回答者和机器回答者的答案基本上是一样的,机器就具备了模拟人的某些功能的能力,这个机器就具有了人类的智能。现在,很多机器程序已经达到了图灵测试的水平,人工智能是不是具备了人的智能?

图5:中文屋实验

我们看另一个思想试验,中文屋实验。这个实验告诉我们,还不能这么乐观。在上个世纪80年代,美国有一个哲学家叫约翰·塞尔,他提出了一个思想实验,他设置了一个所谓的中文屋,在中文屋外有一个懂中文的,在屋内是一个完全不懂中文的英国人,然后给了他一本语法书、一堆中文的卡片。屋外的人用中文提问,他可以从一个小窗口给屋内的人中文信息,屋内的人利用语法书去组合中文卡片,形成中文的答案,递出给屋外的人。对屋外的人来说,这些中文问题屋内的人都能很好回答,他自然认为屋内的人懂中文,但实际上这个人是不懂中文的英国人。他只是会使用程序。
这就是人工智能今天所面临的问题!我们把问题给了那个大模型,大模型回答的很好,但他真的理解我们的意思吗?它只是基于算法给出你答案,其实它可能并不真正理解你问的是什么。所以,这个大模型机器真的具备智能了吗?它可能仅仅是一个执行计算的程序。当然,这个实验也在受到各方面的质疑和挑战,毕竟屋里的人还有一本语法规则书。但这个思想实验证明,机器未必真的和我们人一样理解意义。但是,如果把更多的自主意识加给机器的时候,机器可能就具备了人的智能和理解水平。
所以,今天在处理很多人工智能问题的时候,还不能完全把责任给到机器程序,很多的责任主体可能还是程序的主人,智能机器的主人——人。因为,智能机器知道怎么做这件事情,但是它未必真的理解。



第二章:人工智能技术发展趋势


人工智能是一次颠覆性技术创新
人工智能是全球科技革命和产业变革的前沿技术,正迎来人工智能的奇点即通用人工智能(AGI),接近人类智能水平。
人工智能的这个爆发点就是chatGPT大模型,在2022年11月发布以来,一年多时间,大模型技术取得了颠覆性的、指数级的发展,呈现出通用化、多模态化、行业融合化和具身化等新的发展态势和特征。一系列具备通用能力的基础大模型迅速涌现出来,而且逐步从语言大模型扩展到能够文生图、文生视频的多模态大模型。各行各业都通过基础大模型的底座构建起来了不同领域的垂直大模型。通俗的说,基础大模型就像一个什么知识都懂的博士,它把全世界的知识学习一遍。你问他什么,他都懂。在各个领域又出现了一系列的行业垂直大模型,这些不同领域的垂直大模型,就像一个个不同领域的专家一样,比如说医学专家、制造业专家、有色金属专家。你问他这个领域的知识,他都能回答。
进一步,在生成这些基础和行业大模型后,把它们嵌入到机器人里,这些机器人就像装上了“大脑”一样,具备了人机交互的很多智能能力。过去,机器人像一个装了“小脑”机器,小脑控制它的行走和平衡。小脑程序给它命令,它按照命令执行动作。比如,在生产线上的工业机器人,程序给它一个个命令,它把零件抓过来、放在合适的位置。工业机器人可以按照控制指令执行动作。机器人今天嵌入了我们的大模型,就像给它装了“大脑”。这个机器可以回答问题,可以做图,写文章,做音乐,可以自己去规划行为路线。现在,有一个新的概念,叫具身智能,就是指大模型的“大脑”嵌入到具身的机器中,使得机器具备了大脑思考、小脑协调以及行为感知等能力,真正成为一个人形机器人。
自chatGPT提出以来,人工智能技术演变非常快,又一个摩尔定律出来了,算力、算法等技术发展继续呈现出指数级增长的趋势。我们看几个例子。
第一件事,ChatGPT月活用户突破1亿,仅用两个月时间,成为史上用户增长速度最快的消费级应用程序。
第二件事,视频生成模型Sora能根据文字提示生成长达1分钟视频,生成内容保持了高度一致性和连续性,被誉为“视频生成领域的GPT-3时刻”。在这一分钟的视频中,输入的文字是“一位时尚女性走在东京的街道上,街道上到处是温暖的霓虹灯和动画城市标志。她身穿黑色皮夹克、红色长裙和黑色靴子,手拿黑色钱包。她戴着太阳镜,涂着红色唇膏。她走起路来自信而随意。街道潮湿而反光,与五颜六色的灯光形成镜面效果。许多行人走来走去”,Sora依据这段提示文字,自动生成了视频,展示了一短视频,在东京,一名美女在街头上行走,刚下过雨,路上的水面上有楼宇的倒影,美女的墨镜中能反射出来楼宇倒影,都非常的清晰。

图1:Sora根据文字提示生成长达1分钟视频截图‍‍
这段视频完全是由算法生成的,没有做任何前期的制作拍摄,就是短短一段文字,Sora视频大模型就自动生成了视频。这将使未来的影视制作有了新的工具和手段!非常伟大!未来,很多影视的前期工作都可以通过视频大模型自动做走样,极大方便影视创作。当然,实际的拍摄还是要有的。
第三件事,AI蛋白质结构预测模型AlphaFold3拓展了人类对于生物过程的理解,让科学家能高效看到细胞系统的复杂性,包括分子结构、相互作用和修饰,有望开启更具变革性的生命科学。以前,生物科学家颜宁说,他们以前研究某个蛋白质的结构要花10年,颜宁这样的科学家要花10年。AlphaFold2仅仅用了不到3年时间就已经成功预测了数亿个蛋白质结构,几乎覆盖了地球上所有已知的蛋白质,以当前结构生物学实验进度,完成这一工作量可能需要耗费十亿年时间。AlphaFold3做蛋白质结构预测,生成蛋白质、核酸(DNA/RNA)和更小分子的3D结构,并揭示它们如何组合在一起,仅仅需要十分钟时间。算法模型实现了对整个生物科学领域的颠覆式创新。在新材料领域,大模型也发挥了巨大创新引领作用,产生了巨大的颠覆性影响。

图2:AI蛋白质结构
第四件事,自动驾驶L4级技术正逐步走向成熟,带来出行方式的深刻变革。现在的自动驾驶水平达到了L4级,自动驾驶事实上已经走向成熟。百度的萝卜快跑已经在武汉街头跑,北京经开区的高级别自动驾驶示范区,自动驾驶汽车也在路上跑。当然,它还需要一个逐步成熟的过程,但未来自动驾驶将深刻改变我们的出行方式。
今天,类脑智能、脑机接口、通用智能体、具身智能、可解释智能等新业态、新模式正在跨界融合中孕育而生,不断涌现出来。人的生物智能和数字智能结合,称为类脑智能。脑机接口则把数字芯片等嵌入人脑中,采集人脑的信号,并通过脑信号来控制动作,帮助运动控制障碍的人恢复运动能力。人工智能软件,叫数字人、agent或者通用智能体。前面说的具身智能以及可解释智能等新业态在不断涌现。
同时,计算机科学、神经科学、认知科学、数据科学、意识科学等基础学科交叉融合,将带动人工智能和意识的新发现。在这两三年内,前沿基础理论快速发展,相互融合,在《自然》等发表的文章,最多的就是这些领域的相互结合的科研成果。包括意识科学,科学家在研究未来人工智能会不会具有自我意识?
计算机科学家辛顿(Geoffrey Hinton)发明了深度学习算法,他说,数字智能优于生物智能的进程无法避免,超级智能很快就会到来。这只不过是个时间问题,到底是5年、10年还是30年?AI技术发展有一个演进的过程,演进速度确实是指数级迭代。


二、‍‍‍人工智能技术创新的三个驱动力


人工智能发展有三个驱动力,算力、算法和数据。

图3:人工智能技术创新的三个驱动力

第一个是算力。当前的人工智能大模型,实际上是依靠神经网络模型,通过算力“大力出奇迹”。大量的并行计算芯片,也称为图形处理器(GPU)芯片,集中在智能算力中心,形成万卡集群。这些芯片一起进行并行的海量计算,训练出大模型的智能。就像电厂一样,算力支持的算法不断去学习训练数据,进行推理计算,产生了智能。
第二个是算法。就是我刚才说的人工智能算法的技术路线,连接主义的算法,深度学习、大模型算法。
第三个是数据。没有海量数据,就没有人工智能算法。

这三个驱动力,“大算力+大算法+大数据”,共同形成了人工智能大模型的发展。


 三、人工智能算法发展

大模型算法的基础就是神经网络算法,再早的基础就是模拟的人的神经元模型。
1.神经网络算法
神经元是人类大脑和神经系统的基本单位,每个神经元都能够输入和输出信号,负责输出信号的叫轴突,负责输入信号的叫树突。每个神经元上有几千个树突,负责去采集信息和输入信号,由这个轴图负责输出信号,就构成了这样的一个神经元。

图4:神经元
人的大脑皮层上大概有850亿个神经元,而每个神经元就是通过树突和轴突之间这种相互连接、信息交互,形成了一个巨大的神经网络。1943,美国科学家Warren McCullough 和 Walter Pitts首次提出了神经网络数学模型(M-P模型)。1957年,美国科学家Frank Rosenblatt首次提出单层感知器人工神经网络模型,如图。感知器是具有单层计算单元的神经网络,它基于M-P模型的结构,在输入和输出两层神经元之间建立了简单连接,能够学习并解决线性问题的分类。

图5:单层感知器人工神经网络模型
左边是输入x1、x2、…、xn,右边变成了权重参数定义的o1、o2、…、om输出,就像神经元,多个树突的输入,产生轴突的输出,形成了一个简单连接,就解决了分类的问题。通过权重参数去配置输入输出关系,合适的权重决定正确的输出。把这个权重叫做参数,我们说,人工智能大部分是万亿参数,就说这些权重值。实际上,在算法学习的过程中,在做特征分类的时候,给算法不同的权重赋值,最后算法能学习到一件事情,就形成了一套权重参数,有了这套参数,算法就学会分辨黑猫和白猫。这是神经网络算法的基本原理。大家理解了这一点,就会理解深度学习和大模型算法。
2.机器学习算法
算法在做分类的时候,让神经网络去学习,算法实际上学习领会到的就是不同的输入参数,形成了对特征的提取。例如,为了让机器学习算法做男女分类,给机器输入的很多组数据,如“身高1米8、发长1.4cm、抽烟” “身高1米75、发长1.3cm、抽烟”等,这是一组输入数据,通过这组数据,我提取出一个男性的特征,“身高高、头发短、抽烟”。给这个特征赋予参数,我就能够通过这个有参数的算法,去推理其他数据,识别分类出很多具有类似特征的人。同样,另外一组数据,如“身高1米66、发长15.3cm、不抽烟” “身高1米63、发长14.3cm、不抽烟”等,我能提取出一个女性的特征,“身高矮、头发长、不抽烟”。通过这些特征提取,算法就知道一组人的数据中,哪些人是男性,哪些人是女性。基本的原理就是这样。当然,你会发现,现实中的分类问题更加复杂,比如,现在留长头发的男生也越来越多,吸烟的女生也很多。我们就需要更复杂的算法和更多的参数来进行男女分类。这还是简单的男女分类。面对大千世界,林林总总的知识,机器学习就更加复杂。

图6:机器学习算法
3.深度学习算法
我们讲讲深度学习算法。人类大脑在处理信息的时候,大脑皮层实际上是分层的。比如视觉的形成,在大脑皮层的低层次上处理像素,形成图形特征,进一步在大脑皮层的较高层次上进行特征分析。这是一个升维的过程。在更高层次上,形成一个图像。大脑皮层上,不同层次的神经网络,分工处理不同维度的信息,从像素、到特征、到完整的图像。所以,人脑的视觉皮层,神经元之间是通过分层神经网络模型,最终构成对复杂事物的视觉识别和理解水平。

图7:深度学习算法
计算机科学家就按照这个模型,进一步把神经网络模型进行分层,通过不同层次来解决不同阶段的问题,最终形成更复杂结果的识别能力。过去的单层或浅层神经网络只能解决小的分类问题,分层以后,算法就能解决更复杂的专业领域的问题。2006年,辛顿在《科学》杂志上发表了文章,他建立了一个多层的分层神经网络,称为深度学习网络。多隐层的深度学习神经网络具有更强的特征学习能力,学习得到的特征对数据有更本质的刻画,从而有利于可视化或分类。深度学习网络在著名的ImageNet问题上,将错误率从26%降低到了15%,并且输入没有用到其他任何人工特征,仅仅是图像的像素。这使得图像识别达到了应用成熟期。过去,门禁系统的图像识别是很差的,基本上是很难通过。现在,门禁的图像识别为什么这么容易通过?就是深度学习算法的贡献,它看到你的图像,基本能完成比对和识别。

图8:深度学习网络
各种神经网络算法不断优化,在这个过程中,又涌现出很多深度学习算法,如卷积神经网络(CNN)、Transformer等,形成了完整的深度学习框架。例如,为了使算法的学习能力更强,研发了强化学习算法,比如AlphaGo。通俗的说,就是小红花算法。算法要是识别的好,就给你个奖励;识别的不好,就给你惩罚。结合深度学习和强化学习,算法的性能就得到进一步提升,这为人工智能大模型的诞生奠定了基础。
4.Transformer算法
大模型是在深度学习算法上发展出来的。大模型如何在短时间内进化出如此强大的智能?生成式预训练转化模型(GPT)功不可没。chatGPT,chat是聊天,后面GPT是算法,G代表生成式,P代表预训练,T代表转化算法Transformer。Transformer是这场AI革命的核心算法,是谷歌科学家在2017年提出的新型深度学习架构。
在transformer出现之前,人工智能对人类语言的理解相当有限。在AI眼中,语言是由一个个独立的词语组成,而每个词又可以根据语义被表述为一串拥有超多维度的数字,这些数字就像地图上的坐标,能准确标定出每一个词语在空间中的位置。而大语言模型的训练就是让AI在学习海量真实语料的过程中,不断调整词语排布,让关联强的相互靠近,最终得到一幅最优的语言地图。Ai想要生成新内容,就只需要按图索骥,一个接一个串联起身边词即可。但此时的AI还是一个高度近视眼,由于只能看到最近的词,它无法对句子形成整体概念,因此它经常给出一些离谱的回答。而transformer的开创性,就在于它为AI打开了一个全局视角,让AI能够通览整篇文本,理解语境,捕捉前文关键词。自注意力机制是Transformer模型的核心,它允许模型在处理序列(如文本)等时,同时考虑序列中的所有位置,这样做的好处是能够捕捉序列中任意两个位置之间的依赖关系,无论它们之间的距离有多远,也就是说transformer具备长距离特征捕获能力。

图9:Transformer算法
这是对深度学习算法的进一步发展。之前的深度学习算法(如CNN、RNN等),基于“针对特定任务的专用模型+大量标注数据”的方式,在监督学习机制下,训练出领域专用的小模型。Transformer则具有具备更多参数规模,实现了更强的语义特征提取能力和长距离特征捕获能力等。
谷歌等公司进一步建立了自然语言理解任务中的基准模型BERT(基于Transformer的双向编码器表示),它是一个预训练语言模型,它基于海量无标注数据,在自监督学习机制下获得预训练语言模型。BERT利用大量文本数据进行预训练,通过深度双向模型(即同时考虑文本左侧和右侧的上下文)来预训练,通过少量标注数据微调后得到领域专用模型。
至此,大模型拥有了对语篇的理解能力,以及生成复杂连贯文本的能力,AI迈入了一个新纪元。
5.大模型算法
从神经网络模型到分层的神经网络模型、到深度学习模型、再到transformer、BERT模型,到最后的GPT模型、chatGPT模型, 从专用领域的算法变成了基础大模型。它能够理解我们各行各业的语言、知识。对语言基础大模型进一步改造,就形成了文生图的大模型、文身视频的大模型,这称为多模态大模型。

图10:大模型技术的演进过程
上图是大模型技术的演进过程。2017年6月,transformer模型发布。2018年6月,openAI的1.17亿参数的GPT-1发布。同年10月,1.3亿参数的BERT算法发布。2019年,15亿参数的GPT-2发布,上下文学习(In-context learning)能力开始引起关注,内容生成能力进一步提升。2020年5月,1750亿参数的GPT-3发布,具备更强大的语言生成能力。2022年1月,Instruct GPT发布,引入人力反馈的强化学习算法。2022年11月,chatGPT上线,引发业界轰动。同年12月,文生图模型Diffusion发布。2023年4月,GPT-4发布,模型能力进一步提升。同时,Sora和GPT-4o多模态大模型发布。大模型正以指数级迭代速度迈向万亿参数时代,规模还在不断的发展。最强的大模型就来自openAI、谷歌、Meta、百度、华为等公司,以及一些大模型创业公司如Anthropic、智谱等。

至此,大模型具备了语言理解、图像生成、视频生成等完整的大模型技术能力。另一件奇妙的事情发生了!一直以来,我们都知道智能是神经元相互连接的产物,人脑约860亿个神经元的相互通讯,形成一个复杂的连接网络,构成了人类思考、创造等高级认知功能的基础,AI也是如此。随着训练参数规模的不断扩大,当这个数字来到百亿左右时,一些小模型根本不具备的能力就忽然出现了。现在,基于相似的底层架构,大模型正快速泛化到更多的场景,比如使用压缩后视频素材的时空化训练而形成的大模型Sora,已经能够在理解动作转场和部分物理规律的基础上,形成逼真流畅的视频。谷歌的基础世界模型Genie,则能够仅靠一张图片就生成一个交互式二维世界。一扇通往知识创新与艺术新纪元的大门正在开启。人工智能不仅重塑着我们创造与交流的方式,也在悄然间编织着一个更加个性化互联的世界。


 四、人工智能算力发展


在大模型算法的背后,不是传统的数据中心。这些神经网络算法的计算,靠的不是传统的CPU芯片,而是GPU(图形处理器)芯片,采用并行架构的进行计算。这个GPU芯片是由美国企业英伟达送垄断,英伟达2023年一度达到了全球市值最大的公司。一台装载GPU的人工智能服务器能卖到几百万。一台服务器里大概是8张卡,一张卡就要几十万。所有这些GPU卡,目前美国是严禁给中国进口的。中国AI企业很难从正规渠道买到智能算力的GPU芯片。当然,中国的GPU企业也在异军突起,华为昇腾生产的910A芯片就是国产GPU芯片。华为通过多卡联合、万卡集群也能接近英伟达GPU中低端算力的水平,逐步解决我们的“卡脖子“问题。
智能算力芯片还有其他的技术路线,包括FPGA、AISC等不同技术架构,解决不同应用场景的智能算力需求。但是,在人工智能大模型训练这个角度,最好的芯片就是GPU芯片。其他技术架构下的芯片可能用于推理,用于其他的一些计算场景,比如说具身智能的这个小场景下的芯片需求。大模型训练主要是GPU芯片,GPU算力芯片构成的数据中心称为智能算力中心。一台服务器8张卡,1250台服务器就是一个万卡集群。现在的万亿级、千亿级参数的大模型训练,通常需要的算力大概需要1万卡。一张卡的算力大概有150-300Gflops,1万张卡集群就有约3000Pflops的算力。现在很多地区,提出来要建E级智能算力中心。这是什么概念?就是1000 P以上的算力。

算力中心分为三种算力,一种叫通用算力,就是传统数据中心,一种叫智能算力,就是刚才说的GPU芯片为主的智能算力中心,还有一种算力叫超级计算算力,也叫超算,主要是面向科学计算的算力。智能算力中心是算力中心中最核心的支撑力量,也是未来人工智能发展的数字底座,大模型、具身智能的基础底座,就像我们需要电厂发电一样,人工智能发展需要智能算力中心。算力中心的趋势是向智能算力中心的发展。


五、人工智能数据发展

大模型的训练是基于海量的高质量数据集,基于这些标注的或未标注的数据集先进行预训练,在预训练的基础上进一步的去学习,让大模型具备智能。在GPT3大模型训练中,很多都是利用开放数据进行训练的,包括CommonCrawl(开源网络爬虫数据库)、WebText2、Books1、Books2 和 Wikipedia等,就是海外的各种开源爬虫数据库、网络数据、开放的书、论文期刊、维基百科等,通过这些开放的知识去学习。
大模型能学到的数据,基本上是来自网上公开的一些数据和公开的图书、出版物、期刊等。大模型训练越来越多的时候,很多开放的数据集也在考虑收费。公开的数据集是大模型训练推理非常重要的一个来源,专业和行业数据集需要向市场采购。国家大数据综合试验区建立了数据流通交易场所,未来真正的市场可能就是来自于大模型企业对数据的购买需求。很多深度学习、大模型训练都需要海量的各种专业领域数据。没数据就学不到这些知识。很多政府内部的公共数据、行业数据,实际上大模型是得不到的。在工厂用大模型,大模型肯定要去学工厂的相关数据。未来,高质量数据集建设也是人工智能发展非常重要的方面。
数据集也不是马上就能被大模型所用,很多监督学习的算法还需要对这些数据进行标注。数据标注是要告诉算法,这些数据是什么数据,比如,这个图片是猫的图片,是白猫还是黑猫,有什么特征。就把这些特征标注好了,机器大模型才能去更高效学习,才能训练好模型。数据标注也是数据产业中非常重要的一个业态,有个美国公司叫Scale.AI,他的创始人是个华裔,是openAI创始人奥特曼的好朋友。这家公司从事数据标注,做出了一个几十亿美金市值的公司。数据标注对AI也是非常重要的,随着大模型的发展,数据标注也越来越变成自动化标注了。
由人工智能自动生成的数据叫合成数据,合成数据也可以用于人工智能大模型训练。但有一个问题,最近《自然》上有篇文章是关于合成数据的,作者认为合成数据训练出大模型智能会降低。人工智能算法合成的数据,是“假”数据,不是以事实为依据的,比如这些都是人工智能生成的图片,这些人没有在世界上存在过,但这些数据可以被用于算法训练。算法在学习合成数据以后,对世界的把握会越来越越不精准。就是说,拿合成数据让它学习,它越学越糊涂,最后反而理解能力下降了。所以这也是一个问题。

图11:人工智能生成的图片
这是人工智能的发展趋势,大算力、大数据、大算法,这部分技术深度大,我试图用通俗语言去讲,但是有些方面确实还是比较技术化一点,难于理解。

第三章:美人工智能产业竞争格局

一、人工智能产业链


这是人工智能的产业链,这个产业链上有智能算力芯片, GPU、FPGA、CPU、光模组、材料等,企业有美国的英伟达、华为、赛思灵、英特尔等企业;有智能算力的硬件,包括华为、曙光的服务器;有中国移动等通信网络,阿里云等云计算、数据算力中心、智能算力中心等;也有人工智能的软件平台、数据、框架、大模型、多模态技术等;人工智能嵌入到汽车、机器人、家居等,形成具身智能的智能硬件设备;各种的智能领域的应用,共同构成了一个“芯算数智用”的AI产业链。

图1:人工智能产业链

二、中美人工智能竞争

AI产业的主要竞争力量就来自于中美两国,人工智能是中美竞争的最前沿。从2018年开始的中美贸易战,美国就把人工智能技术列入了前沿科技出口管制。2021年,应对中国挑战的美国科技竞争战略里提出4个科技领域,就包括了人工智能领域的竞争战略。2021年美国通过《无尽前沿法案》,把人工智能等10项关键技术列入了竞争领域。2022年美国商务部工业与安全局出台《对向中国出口的先进计算和半导体制造物项实施新的出口管制》。2023年10月和2024年4月又两次升级对中国出口先进计算和半导体制造物项的出口管制措施,扩大限制范围,将多家中国实体列入出口管制“实体清单”,加大对出口中国的芯片进行出口管制。进一步,2023年8月拜登总统签署《关于解决美国在特定国家对某些国家安全技术和产品的投资问题的行政命令》,严禁美国投资于我国半导体、量子技术、人工智能等领域,并要求报告其他科技领域的投资。2024年6月美国财政部发布“拟议规则制定通知”(NPRM)草案,旨在限制美国实体在半导体和微电子、量子信息技术、人工智能三个高科技领域对华投资,并列出了详细的规定。
美国一系列的措施将我们的脖子卡得越来越紧。美国对中国人工智能的技术封锁是全面的,从2022-2023年,美对市场主流型号的先进计算芯片施加出口许可证要求, 并对中国芯片设计公司自行设计及对外交付流片以生产3A090等物项施加了严格的限制, 以阻碍中国企业获取训练AI大模型所需算力。2023年1月,美与日本、荷兰达成协议,限制向中国出口制造先进半导体所需设备,随后,日、荷政府相继宣布加强尖端半导体领域的出口管制。2024年1月,美商务部要求云服务提供商核实外国客户身份,报告外国客户使用云算力训练人工智能大模型的情况。2024年5月,美国通过提案《加强海外关键出口限制国家框架法案》,对人工智能模型实施出口管制,意在“保护美国人工智能及其他支持技术免受外国对手的利用”。2019年开始,美国开始有组织、大规模破坏中美人工智能科学合作,数以千计的中国留美学生和学者,被美国相关机构拒签、吊销签证甚至驱逐出境,美国组织的AI国际会议拒绝中国学者参会。
所以,AI这个领域是中美竞争最为激烈的领域。这个领域的竞争是人工智能全栈技术的竞争。从底层芯片开始,右边是英伟达、英特尔,左边是华为昇腾、昆仑芯。深度学习框架,右边是谷歌、Meta的深度学习框架,左边是百度、华为的框架。大模型,右边是openAI、谷歌大模型,左边是文心大模型、灵犀大模型、盘古大模型。上层应用,右边是Sora、Genie,左边是Vidu、文心、豆包等,中美之间进行的技术全栈竞争。

图2:中美两国人工智能全栈技术的比较

 三、大模型产业竞争


世界各地均在积极推动人工智能大模型研发和应用,截至目前共有400个以上大模型问世。从大模型的数量和模型能力来看,中美两国在大模型产业整体发展中已经全面领先世界其他国家和地区,截至2023年底,两国的大模型数量已占据全球的接近九成,全球范围内参数量排名前十的大模型也均来自中美两国。

有关机构统计,截至2023年底,我国10亿参数规模以上的大模型厂商及高校院所共计254家,分布于20余省市/地区。我国人工智能领域的头部企业,以百度、阿里、腾讯、华为、抖音、360等为代表,在数据、技术、工程化、场景、资金等多方面具备优势;人工智能领域的高校和科研机构,清华大学、智源研究院、中国科学院等单位的基础研究实力强,聚焦技术创新引领;人工智能领域的独角兽企业和初创公司,其中智谱华章、云知声、旷视等AI独角兽企业,已跑通自研大模型的闭环全流程,可提供MaaS模式的AI解决方案,百川智能、零一万物、衔远科技等AI大模型初创公司,迅速布局入场,激发大模型创新活力;传统大数据系统开发企业,以拓尔思、中科闻歌为代表,通过其行业数据积累,推出面向媒体、金融、政务等领域的定制化行业大模型,率先抢占行业应用市场。

四、智能芯片竞争


人工智能芯片市场竞争也非常激烈。别人卡脖子,我们只能自己去发展。美国有英伟达、英特尔、谷歌,他们沿着不同技术路线发展。中国有华为、百度、寒武纪等,发展昇腾910GPU,还有阿里巴巴的寒光、百度的昆仑芯等。我国智能芯片的发展水平远远落后于人家,好几个数量级。我们也在慢慢的推进发展,华为昇腾目前的万卡集群已经达到了英伟达A800的水平。


五、深度学习框架竞争


在深度学习算法主流框架方面,竞争也很激烈,中国在这方面并不落后,美国有谷歌、Meta等,我国在深度学习框架方面,有百度的飞浆、华为的昇思、腾讯的天元等,形成了较强竞争力。深度学习框架,很多都是开源的,各种论文公开发出来,代码也是开源的,中国的企业也能很快跟上。


 六、AI软件生态竞争


GPU芯片是硬件,它需要软件的支撑,包括操作系统、编译器、算子等,形成了一个GPU对应的CUDA生态。你要用英伟达GPU,你就必须用英伟达的CUDA生态。同样,你要用华为昇腾芯片,你就必须用华为昇腾所形成的软件生态。也就是我们说的AI软件自主创新生态。所以,生态的竞争也是中美AI之间非常重要的一个竞争领域,它涉及到了编码开发编译器、算子、操作系统等各方面。

所以,中美AI竞争是从底层芯片开始,带动了上中下游产业生态的竞争过程。总体水平看,美国跑在前面,我们在后面紧跟着这样一个竞争态势。


第四章:人工智能的应用价值

一、数字经济时代的底层逻辑


我们知道,经济发展主要是由技术创新不断驱动的。从农业经济、工业经济到数字经济时代,每一次重大的技术创新都带来了生产力和生产关系的变革。工业经济实现了工业自动化的生产。数字经济不同于工业时代的经济运行机制和底层逻辑,数字经济实现了脑力劳动自动化,核心是实现了脑力劳动的解放,让我们的工程师、设计师能够从生产线中解放出来,提高脑力劳动的生产效率,实现价值倍增。

图1:数字经济发展过程


二、‍‍‍智能互联网基础设施


人工智能是培育新质生产力的一个重要组成部分。互联网成为经济社会互联互通的基础设施(就像人的神经系统网络),物联网+5G推动万物数字化和网络化(就像神经纤维),云算力成为企业和政府的业务引擎(就像心脏),数据成为新生产要素(就像血液),人工智能大模型逐步赋智或者替代脑力劳动者(就像大脑),区块链成为经济社会的信任机制(就像免疫系统),数字智能工具成为新生产工具(就像手臂和四肢),智能互联网+ 成为业务创新的重要模式(就像人的行为),元宇宙将实现一个经由数据实现认识和改造世界的新空间(就像梦境)。因此,数字技术发展构建了智能互联网基础设施,它构成了我们未来的整个智能时代的商业系统的一个数字底座。

图2:智能互联网基础设施


三、人工智能的经济学价值


人工智能系统通过对数据要素价值的挖掘和利用,让人工智能大模型能够智能化处理各种复杂的应用场景。AI能够像工程师、设计师一样去自动化工作,它具备了7×24小时工作的价值。今天,工程师每天只能工作8小时,但是人工智能机器人可以7×24小时工作。它能自动去做设计,自动绘制图纸,自动进行决策。这是非常重要的应用价值!它能够大幅度提高生产效率,降低生产成本,提升创新力。
人工智能技术所带来的经济增长,整体上表现为全要素生产率的提升。将数据、信息、知识和智能组合到所有的电子技术和产品中,这些技术工具和产品就具备了智能化能力。它们可以提高劳动者的创造力,提高劳动者生产效率,促进生产技术进步,实现生产的智能化。

图3:人工智能的经济学价值
AI不是取代设计师,而是为设计师提供了一个智能工具,设计师能通过那个文生图、文生视频等方式,他说一句设计思路,就可以让一个AI程序画出一个汽车产品来,他通过对大模型生成的多个汽车产品进行比较,选出他最中意的创意产品。这使得设计创意能力和效率大幅提升,这是一个对设计师的赋能的作用。通过AI的赋能,能提升劳动者的创造效率,提升生产技术水平,最终是更大财富价值的实现,实现生产者剩余、消费者剩余的价值。智能生产的未来图景是,人形机器人用到了生产线上,发动机可以通过文生图的模型生成一个三维发动机的数字孪生,工业生产线上智能手自动化操作。不仅是生产,医院里的医疗机器人做手术,道路上是自动驾驶汽车。AI将实现劳动生产率的再次倍增,带动经济的长期增长。所以,把数据和人工智能技术作为新的生产要素投入到生产中,它们会带动经济的一个长期增长。

 四、人工智能+应用


人工智能应用,也称为人工智能+,就是赋能到各行各业,包括家庭助理、娱乐、生活、教育、安防、城市治理、交通出行等,各个领域各个行业的AI应用。

图4:人工智能应用到各行各业
我们特别强调一下智能产品,把传统产品智能化,就形成了智能产品。在各行业,会有更多的智能产品出现。智能产品既具备传统产品的规模效应,也具备了信息产品的范围效益。比如,一台智能化的汽车,在汽车上需要安装各种电子产品,可以带动通信、存储、计算、导航、视频等各种电子产品的生产和销售,实现规模经济效应;同时,智能化的汽车,可以转变为一个多元化的智能服务产品,一个汽车上集成了多种服务功能,如通话、购物、照相、导航等,带动电商、交通、旅游、教育、办公、娱乐、社交等多种应用开发和服务发展,实现范围经济效应。而且,这个智能产品汽车产品还可以实现社群纽带和全时陪伴效应,成为厂家与客户实时连接和沟通的纽带,跟客户长期陪伴,又能够有更好的体验感。因此,智能化产品有助于实现经济效益的倍增。
今年,PC和手机也在更新称为AI PC和AI手机,计算设备中会装载大模型软件和程序,让我们的搜索变成智能搜索、Word变成智能Word。现在豆包和文心一言成了大家手机中一个标配app了,有什么事情,你问问它,基本都能给你回答出来,而且非常精准。
大模型应用(AIGC)主要是提供智力自动化服务,在内容生成、语义理解、逻辑推理、数学计算、情感交流等多方面提供服务,帮助我们写文案、做题、绘画,帮我们做产业分析、制作广告等。越来越多的游戏、广告营销、教育、医疗、互联网、影视娱乐、办公、商业、金融、制造等行业的知识劳动者会把大模型作为他们的辅助工具,用于提升内容生产效率,降低内容生产成本,捕捉激发创作灵感,联动实现数据优化。
大模型服务演变过程是与其成本收益相平衡的,它会分阶段为不同的劳动者赋能,甚至取代他们。初期,AI会逐步淘汰一些低级的程序员、低级的文档人员、前台、标注、校对等工种,体现降本增效的价值。第二步,AI会替代我们的初级设计师、初级会计师、律师助理、行业分析师、心理咨询师等,取代简单服务。第三步,AI会替换我们的专家和设计师。AI替代可能带来就业的问题,但同时它也会给我们赋能。所以,从事这些职业者的传统劳动者,要学习AI模型,掌握这些工具,把自己从一个初级分析师变成一个会提问题的高级分析师,你就能延缓自己被替代的风险,你就会更加有社会价值。

第五章:人工智能现代化治理

一、国家鼓励人工智能创新发展的政策

从国家层面看,国家出台了一系列人工智能发展政策,加强人工智能发展引导和治理。
习近平总书记强调,“我国经济已由高速增长阶段转向高质量发展阶段,正处在转变发展方式、优化经济结构、转换增长动力的攻关期,迫切需要新一代人工智能等重大创新添薪续力”;“发展人工智能,将为我国构建现代化经济体系、实现高质量发展提供重要支撑”;“人工智能是引领这一轮科技革命和产业变革的战略性技术,具有溢出带动性很强的‘头雁’效应”;“中国高度重视人工智能发展,积极推动互联网、大数据、人工智能和实体经济深度融合,培育壮大智能产业,加快发展新质生产力,为高质量发展提供新动能”。
2017年7月,国务院发布《新一代人工智能发展规划》,对我国新一代人工智能发展的总体思路、战略目标和主要任务、保障措施进行系统的规划和部署。该规划明确了我国人工智能发展的三步走战略目标,并强调了创新体系构建、基础理论研究、关键技术突破、支撑平台建设和智能产业发展等方面的重点任务。
2023年,科技部《关于加快场景创新以人工智能高水平应用促进经济高质量发展的指导意见》,提出,以促进人工智能与实体经济深度融合为主线,以推动场景资源开放、提升场景创新能力为方向,强化主体培育、加大应用示范、创新体制机制、完善场景生态,加速人工智能技术攻关、产品开发和产业培育,探索人工智能发展新模式新路径,以人工智能高水平应用促进经济高质量发展。
2023年10月,中方发布《全球人工智能治理倡议》,围绕人工智能发展、安全和治理三个方面系统阐述了人工智能治理的中国方案,主张以人为本、智能向善、注重发展、伦理先行等理念,推动全球人工智能治理的合作与交流。

2024年我国政府工作报告提出,“深化大数据、人工智能等研发应用,开展‘人工智能+’行动,打造具有国际竞争力的数字产业集群”。


二、人工智能监管的重点


人工智能监管应坚持发展和安全并重、促进创新和依法治理相结合的原则,既要采取有效措施鼓励人工智能创新发展,也要实行包容审慎和分类分级监管措施,防范人工智能可能产生的各种风险。人工智能监管有利于划出发展的红线,明确经营主体的责任,更有利于人工智能产业健康发展。
人工智能大模型逐步具备人类的智能,对于人工智能的风险监管重点包括价值观对齐、算法歧视、数据安全和个人隐私保护、知识产权保护、虚假信息生成、人工智能的责任认定等多个方面。
1.价值观对齐。AI要对齐人类的大脑和模型表示,要对齐人类的道德标准和利益。要遵守机器人的阿西莫夫第一原则,即机器人不得伤害人类个体,相反,它们要保护人类。要确保AI不参与军备竞赛等。
2.算法歧视。在数字经济时代,有非常多的数据可以给人工智能系统学习,但是这些数据时常反映了人类数十年甚至几个世纪的偏见。用这些数据训练出来的AI系统也会不可避免地学会人类的这些偏见。例如,谷歌用于自然语言理解的Word2vec语料库中对女性的显著歧视;以白人照片训练出来的人脸辨识AI系统在辨识深色肤色的人种时表现很差;亚马逊用于自动化招聘的AI系统对女性存有偏见;银行的自动信用评比AI系统对某些族群产生偏见;美国法院广泛使用的判决工具COMPAS 被发现存在性别和种族的偏见等。AI监管的重点是算法歧视。
3.数据安全和个人隐私保护。AI系统不能违反数据安全、个人隐私保护等要求,不得泄露个人隐私。
4.知识产权保护。AI系统必须尊重所学知识的知识产权,获得相关产权人授权。
5.虚假信息生成。AI内容生成可能涉及大量虚假信息的产生,包括假图像、假视频、假新闻、假消息等,这些假内容怎么去治理?
6.人工智能的责任认定。AI的第一责任在大模型的企业和使用者。有个著名的电车难题,未来AI也会面临这个伦理道德的选择。电车难题本质上是一个利益导向还是伦理导向的问题,一条电车刹车失灵,一边轨道是5个人,一边轨道是1个人,要撞5个人和撞1个人?从伦理角度,两边是一样的,但从利益角度,似乎不一样。那一刻,AI是决定撞5个人还是撞1个人?电车难题,机器也要面对。所以,这是人工智能伦理和责任的问题。另外,人工智能会出现幻觉,没有事实的虚构、妄想或者撒谎,人工智能幻觉怎么去治理?人工智能立法的基本依据是企业是第一责任人,主动承担AI系统的安全责任。

三、欧盟人工智能法案


欧盟人工智能的立法,是全球首部人工智能领域的综合性监管法规。它围绕人工智能发展,系统提出来相应的一些法规要求,也有对版权保护的方面的很强的要求。
欧盟人工智能法案要求所有通用型人工智能系统的开发者都必须满足基本的透明度要求,包括:(1)具有可接受的使用策略;(2)更新训练大模型的最新信息;(3)遵守欧盟版权法;(4)报告用于训练其模型的数据信息。
欧盟人工智能法案要求根据4个级别对人工智能系统风险分类,有“系统性风险”的模型将受到额外约束,目前只有OpenAI的GPT-4符合。防范任何人工智能对健康和安全构成威胁,并保护基本权利和价值观,防范禁止有目的地操纵技术,利用分类系统来推断用户种族、宗教信仰等个人信息。
欧盟人工智能法案要求彻底记录任何用于训练AI系统如何生成类似于人类作品的文本、图像、视频和音乐的版权材料。内容创作者有知情权,可以决定其作品是否可以被复制并寻求补偿。
欧盟人工智能法案要求各国政府只能在公共场所使用实时生物识别监控,防止恐怖袭击等可预见的威胁公共安全的事件以及搜索犯罪嫌疑人等。

欧盟人工智能法案是强版权保护的法案。但是,日本提出了弱版权保护的政策。人工智能大模型学习的时候,只要大模型不用于不合法的目的,可以弱版权保护。就是希望先让大模型学习,学习完之后,说明来源。


 四、中国《生成式人工智能服务管理暂行办法》


中国出台的《生成式人工智能服务管理暂行办法》是全球首个针对生成式人工智能的政策性文件,明确了本国人工智能产业发展方向和规范。
《办法》提出,提供和使用生成式人工智能服务,应当遵守法律、行政法规,尊重社会公德和伦理道德,遵守以下规定:
1.算法价值观:坚持社会主义核心价值观,不得生成煽动颠覆国家政权、推翻社会主义制度,危害国家安全和利益、损害国家形象,煽动分裂国家、破坏国家统一和社会稳定,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情,以及虚假有害信息等法律、行政法规禁止的内容;
2.算法歧视:在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取有效措施防止产生民族、信仰、国别、地域、性别、年龄、职业、健康等歧视;
3.公平竞争:尊重知识产权、商业道德,保守商业秘密,不得利用算法、数据、平台等优势,实施垄断和不正当竞争行为;
4.公民利益:尊重他人合法权益,不得危害他人身心健康,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益;
5.服务透明度:基于服务类型特点,采取有效措施,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性。
在《办法》指引下,国内主要AI大模型和深度合成服务算法通过备案,陆续向全社会开放服务。


五、北京市促进通用人工智能创新发展的若干措施


我们比较推荐大家学习《北京市促进通用人工智能创新发展的若干措施》,涉及算力、数据、大模型技术、应用场景、审慎包容监管环境等方面,为各地制定人工智能发展政策提供了借鉴和参考。

图:北京市促进通用人工智能创新发展的若干措施

  • 本文完结。

注:本文系赛智产业研究院原创文章,如转载请标明出处。

往/期/精/选



赛智产业研究院院长赵刚:人工智能的内涵与外延 ——《人工智能的发展和应用》第一讲


赛智产业研究院院长赵刚:人工智能技术发展趋势 ——《人工智能的发展和应用》第二讲‍‍


赛智产业研究院院长赵刚:中美人工智能产业竞争格局 ——《人工智能的发展和应用》第三讲


赛智产业研究院院长赵刚:人工智能的应用价值 ——《人工智能的发展和应用》第四讲


赛智产业研究院院长赵刚:人工智能现代化治理 ——《人工智能的发展和应用》第五讲


赛智产业研究院院长赵刚:关于通用人工智能(AGI)产业发展策略的十个思考


公司介绍

北京赛智时代信息技术咨询有限公司(简称赛智时代)是国内知名的数字经济等新兴产业的咨询规划、大数据分析和产业生态体系建设的创新型公司。业务范围涵盖了智库咨询、数据服务、软件平台以及会议培训等方面。其中智库咨询服务依托于赛智产业研究院丰富的行业资源和高端专业化人才等竞争优势,面向政府、园区和企业,提供发展战略与规划、政策研究、招商引资策略研究、智慧城市规划、运营模式研究等现代咨询服务。研究领域涵盖大数据、人工智能、区块链、5G、战略性新兴产业等行业领域。
饮鹿网(Innov100)是赛智时代旗下的产业创新创投数据平台,覆盖新兴产业近20万创新型企业,为客户提供创业孵化、投融资等服务。
赛智区块链(北京)技术有限公司简称(赛智区块链),是一家专注于企业级大数据区块链产品与应用服务的高科技企业。

联系方式

 电话:010-57212618
 手机:13911826906
 公司网址:www.innov100.com
               www.ciomanage.com
 公司地址:北京市朝阳区大屯里317号金泉时代广场三单元2216

智库服务

  • 北京市数字经济战略研究

  • 北京市数据要素市场促进服务(北京市新型数据交易规则体系设计)

  • 北京数据先行区关键机制创建服务

  • 贵州省加速构建数据要素市场培育新兴产业课题研究

  • 国家大数据(贵州)综合试验区实施方案

  • 中国数据服务产业图谱研究

  • 内蒙古自治区大数据中心数据要素市场化规划咨询

  • 保定市数据服务产业发展规划编制

  • 朝阳数据要素市场发展研究

  • 丰台区数字经济倍增发展路径研究

  • 北京市大数据立法数据支撑服务

  • 北京市智慧城市建设协调推进项目

  • 中国算力网络发展研究白皮书

  • 重庆两江新区数字经济发展规划

  • 贵阳市大数据五大新领域(人工智能、量子信息、区块链、物联网、5G移动网络)产业规划

  • 南宁市元宇宙产业创新发展研究

  • 贵阳市数字经济产业招商引资项目评估

  • 智能贵州发展规划

  • 贵州省大数据新领域产业发展指南

  • 北京市大数据应用发展报告

  • 天津市大数据应用场景建设计划

  • 贵州省大数据战略行动计划编制

  • 贵州省“十三五”以大数据为引领的电子信息产业发展规划

  • 丽水市城市大脑开发建设研究

  • 贵阳市新基建“十四五”发展规划

  • 中国数谷顶层设计方案

  • 贵阳市数博大道产业规划

  • 贵阳区块链发展白皮书

  • 贵阳市大数据发展“十三五”规划

  • 贵阳市数字经济发展规划

  • 观山湖区呼叫中心产业园规划

  • 济南新型智慧城市规划

  • 南宁大数据建设工程规划

  • 航天科技车联网产业商业模式研究

  • 阿里云数智化敏捷组织:云钉一体驱动组织转型研究

  • 百度区块链研究项目

  • 实创集团智慧城市业务战略规划

  • 云上贵州集团业务战略规划

  • 贵阳大数据集团业务战略规划……

软件平台

饮鹿网精准招商大数据云





饮鹿网精准招商大数据云(平台)是赛智产业研究院联合饮鹿网开发的针对产业招商的最新产品。涵盖大数据、人工智能、区块链、5G、智慧城市、 工业互联网等 30 多个领域,为招商部门、产业主管部门、园区管委会和产业地产提供大品牌招商、产业筛选招商、产业生态链招商、重点产品招商、资本注入式招商、区域一体化协同招商、原籍创业人才招商等招商数据分析服务。

饮鹿网产业大脑大数据





政府提供新兴产业的产业链、企业、技术、投资等数据分析服务的平台,主要为各地发改部门、工信部门、产业分管领导提供产业仪表盘、产业链分析、产业地图、产业发展要素分析、产业政策、产业洞察等产业数据分析服务。

饮鹿网创业投资大数据





服务于创业投资领域,为母基金、头部投资机构、地方政府产业基金或引导基金提供绩效考核的专业化平台,主要提供投资数据(投融资仪表盘:与投资趋势洞察融合)、投资绩效分析(投资绩效分析、融资日报、投资机构百强、投资人百强)、项目分析(重点项目、产业链投资、细分图谱投资)、投资布局(投资地图)、投资要素分析、投资管理等服务。

赛智时代
致力于新一代信息技术研究和咨询成果的传播和交流,内容涵盖产业互联网、智慧城市、互联网金融、电子商务、大数据、云计算、物联网、移动互联网、智能硬件、社交网络等。
 最新文章