2024年11月19至22日,世界互联网大会乌镇峰会召开。会上通过了首届人工智能专业委员会成员名单,在首届专委会成员名单中,南开大学新一代人工智能发展战略研究院(以下简称“战略院”)执行院长龚克当选专委会顾问,战略院首席经济学家、经济学院教授刘刚入选产业推进计划委员,战略院特约研究员、哲学院陶锋教授入选安全与治理推进计划委员。
对此,我们对陶锋教授进行了一次采访,希望进一步了解陶锋教授对人工智能安全治理的看法和展望。
陶老师您好!据悉,此次您入选为世界互联网大会人工智能专业委员会安全与治理推进计划委员。我们都知道,自人工智能出现以来,它的安全与治理问题在大众层面和学术界都是一个探讨的热点。请问您对人工智能的安全与治理,以及专委会的安全与治理推进计划是如何看待的?您觉得在这一方面有哪些问题是比较重要的?
随着21世纪新一代人工智能技术的到来与发展,人工智能技术在艺术文化、医疗健康、交通建设等各方面均有所应用。人工智能技术是一把双刃剑,其所带来的安全与治理问题已经成为社会关注的焦点。为了应对与解决这些问题,世界互联网大会人工智能专业委员会邀请了近100家单位以及数十位来自人工智能专业领域的专家作为专委会的成员。
从哲学的角度看,人工智能主要引发了四类问题。第一类是替代问题。所谓替代,首先是哲学层面上人工智能对人的主体性、认识的替代。这类替代使人工智能可以为反对人类中心主义、消除认识自反性矛盾提供契机,但也会引发人对人类价值的怀疑。其次是社会层面的替代,比如人工智能对人工作的替代。人工智能技术能够替代人进行脑力劳动,不仅是生产者,更是生产控制者,这种生产的全面替代,会导致短期产业结构的变化和失业问题,这些是我们必须提前规划的。
第二类问题是信任问题。人工智能会模拟人类的认识、情感、生产行为等。人类以主体间性的行为交互作为信任建立的基础,人工智能以假乱真的模拟行为增加了身份识别的不确定性,易导致信任危机。这一危机可以追溯至人工智能的设计初衷。例如,图灵测试对机器智能的评估,就是以机器能够“骗”过人的身份识别为标准。该倾向影响了后续人工智能的研发方向,导致人们对机器拟人的恐慌,也为部分人以人工智能实施诈骗提供思路,从而引发信任危机。此外,信任问题还体现在人类更相信机器而不信任自己,例如智能驾驶、智能安全等。
第三类问题是虚拟问题。人工智能在虚拟化中起到重要作用。虚拟化虽然在灵活性、资源优化上具有优势,但它间接降低了人与他人、自然直接接触的频率。当虚拟化推向极端后,人的身体和意识都可能被虚拟化。意识可以上传,身体可以被机器化,人可以成为人机结合、机器增强的赛博人。极端的虚拟化即虚无化,在彻底虚拟化的世界中,人以何种方式存在、人是否还存在,都是值得思考的问题。
第四类问题是异化问题,这一问题主要指的是人的机器化。在机器大生产时代,异化问题主要体现在机器生产对人类劳动和生活的异化。在人工智能技术到来的时代,异化则会在人类的认识、创作和娱乐行为等更多领域中发生。例如通过智能推荐机制、精准识别和推送等,智能文化工业会对人类的精神生活产生更为精准而全面的控制。技术控制论和文化控制论,在人工智能的加持下,实现了更为紧密的结合。
人工智能所引发的问题几乎都可以归结为以上四类,这些问题本身也是互相关联的,底层逻辑都是人与机器关系的变化。
针对社会对人工智能的担忧,您觉得像人工智能专业委员会这样的专业组织可以做些什么呢?
实际上,我们国家在人工智能方面已经出台了不少指导原则和行业规范,目前还需要切实的关于人工智能的法律法规。在今年,欧盟的《人工智能法案》正式发布。法律是必要的,问题是法律往往具有行为上的限制性以及时间上的滞后性。因此,对于快速发展的人工智能,我们一方面要兼顾发展效率与社会安全,一方面还要能够提前预测技术的影响并进行适度引导和规划。我们专业委员会非常重视安全与治理推进计划,一方面,针对人工智能显现和隐现的一些问题,我们要进行一些详细的调研和研讨,形成研究报告;另一方面,基于研究成果,我们需要出台一些有针对性的指导意见和建议。
我之前有看过南风窗去年采访您的报道,您在里面提到“AI正处于可控与失控的辩证状态之中”,这种状态让不少人恐惧它,也导致了很多问题。AI的这种辩证状态其实就反映出AI治理与安全的问题,请问您觉得这种状态是可以被克服的吗?我们人类针对人工智能的出路是否就在于克服这种状态?
基于人类对确定性的追求,我们并不希望人工智能处于此种不确定的状态中,但是这种辩证状态是一个事实。这种现实状况将在很长一段时间内持续下去。说到可控,这涉及到一种新型控制论,这是我结合西方的三阶控制论和中国传统控制论所得出来的一种新理论,这种理论中最重要的就是关于可控和不可控的辩证法。
关于我们是否要克服人工智能可控与不可控的辩证状态,我认为,在具体技术层面,我们需要克服某些不可控的因素,比如黑箱问题、技术不透明问题。我们需要用技术去客服技术的不可控,需要在技术透明化上,做到适当的开源、共享。对于部分可能导致犯罪的危险技术,需要进行限制,确保其可控性。
辩证地来看,有些技术的不可控则可以带来一些意想不到的好处,是技术创新的基础。比如人工智能生成出一些人类意料之外的作品,给人以惊喜。不过这种不可控可以限制在文化艺术领域,因为文艺领域可以成为技术的实验场,其风险性小,不易威胁人类的生存安全利益,不易扰乱社会秩序。
在哲学层面理解可控与不可控就不仅仅是技术上的问题,还涉及人类和社会层面的控制,比如法兰克福学派的工具理性批判,批判工具理性对人类社会的过度控制。人类社会层面的控制与人类中心主义也紧密相关,即以人为中心去认识和控制外在事物。人工智能因其可能成为人类之外的智能体,为反人类中心主义提供机会。不过,人工智能对人类的挑战也很有可能失控,就好比人类利用工具理性去控制外在世界,但工具理性反过来控制人类自身一样,人工智能也可能演变成如此。因而,人工智能虽然为打破人类中心主义乃至颠覆工具理性提供契机,但其本身又可能变成失控的、泛滥的罪魁祸首。
所以,在哲学层面上,可控与失控的辩证状态始终存在,两者之间存在着内在的张力,这种状态的存在也在时刻提醒我们如何面对人类中心主义、控制等问题所引发的争议。
就目前而言,人工智能领域的限制和控制必不可少,这也关涉其未来的规划和发展。以您的专业视角来看,您觉得接下来可以怎么做?
我的专业视角是以人工智能美学为主,其中一个重要主题就是人工智能文艺领域的安全治理,当然还会推进到其他领域。前面也有提到,艺术领域是人工智能的一个实验场,现在人工智能绘画技术的出现已经能替代部分艺术从业者了。针对这部分群体的失业,需要给他们提供再就业的指导和教育。
更重要的是,除了“技术向善”,我们也应该引导人工智能“技术向美”,这里的美衔接的是人的自由。但目前,人工智能技术还没能做到向美,人工智能产品不乏粗制滥造的,呈现出工业化流水线的特征,这不仅容易降低人类的审美,还剥夺了人创作艺术的机会。因此,我们提出以审美理性来引导人工智能技术向美。
您在学院里也开设了多年的人工智能相关课程,请您简要谈谈您的课程理念和内容,您期望学生能从课程中获得什么呢?
人工智能美学课程开设的初衷是希望哲学院的同学乃至其他学院的同学能够通过人工智能技术文艺领域的应用去了解人工智能技术,反思这个技术所带来的一些现象和问题。
课程讲究理论与实践的结合,我上课不仅讲理论,还引导同学们自己去进行人工智能的艺术创作。这也拓展至我们学院的社会实践,我们学院暑期的社会实践做的是人工智能美学赋能乡村振兴这样一个工作,运用人工智能技术进行相关艺术创作,帮助贵州省南猛村宣传当地的民族特色文化,助力文化产业建设。再回到课程上来,课程鼓励同学们进行绘画、音乐、影视等方面的人工智能创作,并且还要求同学进行哲学反思,去思考人工智能技术未来在美学领域的应用。
当今,人工智能以前所未有的发展速度影响着社会的方方面面,在哲学层面也掀起波澜,关于人工智能主体性、意向性、价值观的反思在哲学研究中引发探讨。据悉,人工智能专业委员会将秉持搭建国际交流合作平台、推动发展与治理协同、促进全球共享人工智能发展成果的原则,通过开展专题研讨、成果分享、倡议发布等活动,不断凝聚国际共识,促进人工智能包容普惠、可持续发展。
文案:叶苏瑶
排版:李梦圆
责编:宋昊坤
编辑:宋昊坤
审核:陶锋
哲学院融媒体中心 宣