IPP评论是华南理工大学公共政策研究院(IPP)官方微信平台。
9月21日至22日,以“人工智能与未来世界”为主题的华南理工大学公共政策研究院(IPP)第十一届国际会议在广州南沙举行。
在会议首日议程中,2019年吴文俊人工智能自然科学奖得主、香港中文大学(深圳)荣休讲座教授黄铠以全球视角解读了人工智能前沿进展及具身智能等技术的创新潜能和应用趋势。
拉扎尔斯基大学国际事务副校长托马斯·布劳恩(Tomasz Braun)、联合国教科文组织前战略规划助理总干事汉斯·道维勒(Hans d’Orville)、深圳市人工智能与机器人研究院(AIRS)身智能中心主任刘少山等与会专家学者以及行业精英围绕“AI赋能社会与经济”“AI治理与开放世界”等议题展开深入交流。
从技术前沿到社会变革,从商业模式到全球秩序,会议以跨学科对话审视人工智能技术革命及其可能塑造的人类未来。
黄铠:升级人工智能与机器人具身生态:激活数字经济与智能医疗服务2019年吴文俊人工智能自然科学奖得主、 香港中文大学(深圳)荣休讲座教授黄铠在会上发表了题为“升级人工智能与机器人具身生态:激活数字经济与智能医疗服务”的主旨演讲。黄铠教授认为,AI技术和数字经济的发展正在重塑全球经济和社会结构。AI不仅在图像分类、语言理解等领域已经超越了人类,还将在未来的医疗等各个行业发挥越来越重要的作用。AI技术的快速进步带来了许多新机会,但也引发了诸多挑战。为了确保AI带来的利益最大化,并防范可能的风险,人类需要积极应对。黄铠教授演讲现场
他指出,数字经济的发展主要由商业模式的数字化、产业生态系统的形成和数据基础设施的完善推动。5G核心网和云计算推动了数据中心从中心化到共享集群的转变,成为数字经济的基础。云计算的广泛应用提升了数据处理能力,推动了数字经济的进一步发展。在数字经济中,培养和提升数字化技能至关重要,以应对快速变化的市场需求。他进而指出,AI的发展离不开强大的基础设施和生态系统支撑。以英伟达为例,该公司提供了多达300多个软件工具,构建了一个庞大的AI软件环境。AI工具广泛应用于工业、教育、医疗等领域,为人们提供服务。如果没有这样的生态系统,数字化转型和AI发展都将面临巨大障碍。AI的大规模发展依赖于大量的计算资源,尤其是GPU的支持。他表示,具身AI旨在将网络世界与物理世界连接起来,打造能够适应现实环境的智能系统。具身AI包括具身机器人,它将硬件与软件结合,核心是使机器人能够感知、理解并与人类交互。这在工业制造、家庭助理等方面将发挥关键作用。深圳市人工智能与机器人研究院(AIRS)具身智能中心主任在议题一“AI赋能经济与社会”中,深圳市人工智能与机器人研究院(AIRS)具身智能中心主任、Perceptln普思英察科技创始人及CEO刘少山博士发表了题为“具身AI对于社会发展的影响”的演讲。刘少山博士指出,具身AI是人工智能的一个分支,旨在让机器人具备学习和适应环境的能力,从而能够执行复杂的任务,而不仅仅是完成单一的功能性任务。他从三个方面分析了具身AI对于社会发展的影响:第一,具身AI的快速发展对政府和法律提出了新挑战。全球各国对AI的监管政策不尽相同,这导致AI技术的部署面临障碍。多样化的监管环境使AI产品的全球化面临困难。尤其对于初创企业而言,缺乏全球统一的AI监管标准可能使它们难以适应严格的监管,从而让大企业垄断市场。此外,AI技术在应用中的责任归属问题也亟待解决。例如,在自动驾驶汽车事故中,如何界定责任是当前法律体系面临的重大挑战。第二,具身AI不仅代表了技术上的突破,还具有巨大的经济潜力。据预测,具身AI将为全球经济带来约350万亿的新产业规模。它将替代许多传统工作岗位,特别是低技能和重复性的劳动,这将对就业市场产生深远影响。为了应对这一问题,学术界提出了“通用基本收入”作为解决失业问题的潜在方案。然而,最新的研究表明,通用基本收入可能并非有效的解决方式,因此我们仍需要寻找其他替代方案。第三,具身AI的发展对社会结构和人际关系产生了深刻影响,尤其是在社会不平等和社会隔离方面。AI技术的高成本使富人更容易获取先进的服务,如医疗,而穷人则难以享受这些技术,这可能导致社会不平等的进一步加剧。此外,具身AI还可能导致人类社会的孤立化。例如,具身机器人伴侣能够通过智能交互提供情感支持,这可能会削弱人类之间的情感联系。人类数千年来依赖于社会互动和情感纽带,而AI的介入可能对这种传统的社会联系构成挑战。虽然目前AI还无法完全模拟人类的情感深度,但这一障碍可能在未来逐渐被突破,届时人类与AI的情感互动将成为新常态。在议题一“AI赋能经济与社会”中,百度公司高校合作部高级经理刘磊博士发表了题为“探索基于产学合作的AI人才培养路径”的演讲。
刘磊博士指出,随着人工智能成为国家战略,尤其是在2024年两会期间,“人工智能+”行动计划被写入政府工作报告,AI技术迎来了快速发展期。然而,当前中国的人工智能人才,无论是在相对数量还是绝对数量上,都面临着巨大缺口。多个研究显示,人才缺口已达到数百万甚至上千万的量级。面对这一挑战,传统的教育体系滞后于AI技术的飞速发展,特别是在高校,教学大纲更新缓慢,导致教育与产业需求脱节。为了应对这一问题,百度公司推出了“500万AI人才培养计划”。通过与政府、学术界、高校及企事业单位的深度合作,百度提出了金字塔式的人才培养结构,从基础素养提升到顶级AI架构师的培养,旨在为社会提供多层次的AI人才。他表示,百度与高校、政府、企事业单位等合作伙伴建立了广泛的合作网络。在顶尖高校中,百度专注于人才培养实践基地的建设,并设立了奖学金计划,为优秀学生提供支持。百度还与“双一流”高校及高职院校合作,通过组织竞赛和提供培训等方式,帮助学生积累人工智能设计和大数据处理能力。在国家“AI+”行动计划的指导下,百度推出了面向全校的AI与大模型通识课程体系,构建了目前国内最大的AI学习社区。经过四年的努力,百度提前完成了500万AI人才培养的目标,并启动了新的“人才培养星河计划”,计划再培养500万大模型AI人才。腾讯研究院资深专家、创新研究中心主任袁晓辉博士发表了题为“迈向智能共生:未来社会中的人机协作”的演讲。袁晓辉博士指出,人类已进入一个人机合作的新阶段,在智能共生时代,找到人类的价值至关重要。在未来,我们应当成为创造者,利用AI实现自我价值、提升生产力,并与机器共同迎接未来。她认为,具身智能是AI发展的下一个阶段。AI系统将能够通过观察和推理完成更复杂的任务,如清理溢出的饮料等。具身智能体现了人机合作的潜力,使AI能在物理世界中自主行动。如今,AI已经成为“第二大脑”,提升了个人生产力。随着大语言模型的进步,越来越多的人借助AI力量,成为超级生产者。AI不仅能写代码,还能参与数学竞赛和其他专业领域。随着时间推移,AI的多任务处理能力和自动化水平也会逐步提升。她指出,人类进入后稀缺性时代,传统的职业将被重新定义。人类的价值不再局限于解决稀缺性问题,而是可以追求自我实现和创造。AI将帮助我们满足基础需求,并释放我们,使我们能专注于更高层次的需求,如自尊和自我实现。研究表明,生产性活动能够带来更多的自我实现感。在AI赋能下,人类可以利用AI技术进行创造性工作,进一步提升自我价值。她表示,在未来,人类将借助AI工具实现创造性梦想。AI可以帮助人类设计出独特的产品,如高跟鞋和音乐。AI将进一步降低交易成本,使人类潜力得到充分释放。未来的社会可能由AI智能体和个人构成,人类将专注于创意、创新与合作,追求更高的价值。汉斯·道维勒(Hans d’Orville):“人工智能与未来世界”:科学与可持续发展的前景
联合国教科文组织前战略规划助理总干事、联合国开发计划署(UNDP)信息技术发展项目前主任汉斯·道维勒(Hans d’Orville)教授发表了题为“人工智能与未来世界:科学与可持续发展的前景”的演讲。
汉斯·道维勒教授指出,当前,世界和平处于脆弱时刻,冲突频发,气候变化问题严峻。联合国的17个可持续发展目标(SDG)中,有一半子目标面临失败。我们必须调整目标,用新工具、数字技术,以及吸引更多利益相关者的参与来实现2050年的发展愿景。他认为,AI在实现可持续发展目标(SDG)方面拥有巨大潜力。在医疗、教育、能源和城市化等多个关键领域,AI不仅提供了创新性解决方案,而且正在推动社会进步。AI尤其在提升教育质量、优化医疗服务、改进气候模型和保护生物多样性等方面展现了强大的能力。通过提高效率和降低成本,AI优化了全球供应链和物流,促进了经济增长,并在文化和艺术领域带来了变革。他指出,随着AI的普及,伦理问题也日益重要。如何保障个人隐私、确保新技术不会对人类造成伤害,成为全球合作中的关键议题。AI需要在人类价值观的指导下进行发展,以实现更具同理心和创造力的社会。这要求企业、政府、学界等共同努力,通过科学和技术推动可持续发展。他表示,AI不仅能提升生产力,还将深刻改变我们的文化、工作和生活方式,增进人类福祉,并为解决全球性问题提供新工具。随着AI技术的进步,我们有望打造一个更平等、可持续和富有创造力的未来,实现超越当前地缘政治分歧的全球理想。AI的创新能力不仅促进科学探索,也将为构建未来世界新秩序作出贡献。梅里·马达沙希(Mehri Madarshahi):“人工智能理应被监管?谈公正治理的必要性”
▲梅里·马达沙希(Mehri Madarshahi)联合国教科文组织国际创意和可持续发展中心顾问理事梅里·马达沙希(Mehri Madarshahi)发表了题为“人工智能理应被监管?谈公正治理的必要性”的演讲。梅里·马达沙希教授指出,AI迅速发展成为重塑我们生活方方面面的变革性技术。AI不仅为生产力带来了巨大机会,还可能在金融、医疗等领域带来深远影响。虽然AI能激发创造力并推动创新,但也伴随一定风险,尤其是当AI系统在无人监管的情况下自主决策时,可能会带来误解、歧视甚至致命的风险。她表示,各国已开始采取措施应对AI的风险。例如,中国推出了多个AI监管措施,强调隐私保护、数据安全和伦理标准,同时也致力于提升数字经济竞争力。此外,欧盟、美国、英国、日本、新加坡等也在推进各自的AI监管框架,探索如何在促进创新的同时保护社会安全,联合国也在推动全球AI监管,致力于将AI纳入全球可持续发展战略,帮助应对贫困、教育和气候变化等全球挑战。她认为,制定全球统一的AI监管框架并非易事,尤其是在各国政治、经济和文化背景不同的情况下。欧盟的《人工智能法案》是世界上第一个全面的AI法律框架,采用风险分级方法管理人工智能。该法案为全球提供了一个蓝本,但需要随着技术发展不断调整,以适应不断变化的局势。所有AI系统在进入市场前都必须通过合规性测试,确保其符合法规要求,并能够减少潜在风险。尽管有些人批评AI法案,认为其控制措施难以跟上技术发展的速度,但这表明AI治理必须具备全球视角,跨越国界,以应对全球挑战。她进一步指出,AI治理的成功需要全球合作与协调,各国的监管框架必须平衡创新与社会保护。科学家、工会、民间组织、学术界和各类利益相关方应共同参与,确保AI发展是包容性、负责任的,并符合社会的公平与可持续发展目标。AI的治理框架必须具备动态适应性,不断演变,以应对AI快速发展的挑战。蒋余浩:“中国人工智能创新发展路径研究,基于非线性科技观”的探索”
华南理工大学公共政策研究院教授蒋余浩发表了题为“中国人工智能创新发展的路径研究——基于‘非线性科技观’的探索”的演讲。蒋余浩教授指出,目前,人工智能的研发越来越集中在少数产业巨头手中。这些科技巨头获得的资金和资源远远超出其他机构,主导了前沿技术的发展。虽然产业推动AI发展对普通人的生活产生了一些积极影响,但这种过度集中可能导致现有资源分布的不均衡进一步加剧,尤其是在美国,创新资源主要集中在少数地区。我们需要更具包容性的技术创新和发展体系,而不是将中国在人工智能领域的成就视为对世界的威胁。他认为,美国联邦政府近年来推出了注重多元主体参与和区域均衡发展的AI政策。自2019年以来,联邦研发资助计划逐步向公共产品投资方向倾斜,强调区域均衡布局以及跨领域AI的综合性推进。这些政策不仅关注高科技前沿,还涵盖了传统领域如教育、医疗和农业,力求实现应用与研发的一体化推进。美国政策中展现出一种新的创新思路,即打破基础研究与应用研究的二分法,强调发现与技术发明之间的螺旋式相互关联。这种非线性的创新观念鼓励多元主体的集体参与,使政府、企业和社会力量在创新生态中共同发挥作用。他表示,在中国,企业如华为也在推进开放性AI技术的应用,例如推出面向公众的AI模型和算法。华为“盒子里的机器人”已经应用于多个产业领域,为中国的技术创新提供了有益的尝试。此外,中国政策逐步关注如何通过技术提升劳动力,而不仅仅是取代低端劳动力。他强调,我们不能仅仅从大国博弈的视角来看待人工智能发展。全球AI发展面临的问题不仅在于大国竞争,还涉及到产业巨头的过度主导和区域、人群之间的严重分化。我们应通过新的制度创新,推动AI研发和应用资源的均衡布局,实现科研与应用的紧密结合。中国的供给侧结构性改革思路,强调通过新产品的供给与社会需求的联动,为人工智能的发展提供了新的路径。这一政策思路可以促进更多人参与创新,推动包容性、均衡性的发展格局,从而为迈向现代化强国提供支持。托马斯·布劳恩(Tomasz Braun):人工智能自主性与责任背后的三难困境
拉扎尔斯基大学国际事务副校长托马斯·布劳恩(Tomasz Braun)教授发表了题为“人工智能自主性与责任背后的三难困境”的演讲。
托马斯·布劳恩教授指出,首先,我们需要明确人工智能不仅具备解释和解读数据的能力,而且能够进行深入分析、推理和决策。然而,这种能力引发的关键问题是:AI解读信息的方式及其后果不单纯是技术问题,它还涉及法律、伦理和社会层面的复杂性。AI能够通过数据分析进行推理并形成结论。有人认为,当AI分析数据、得出结论并做出选择时,它实际上拥有某种程度的自主权。随着AI自主性的发展,它在某些情况下可能会做出错误的决定,就像人类一样。因此,确定AI犯错后的责任归属变得至关重要。谁应该为AI的错误负责?传统上,机器被视为人类工具,没有独立的责任主体。但随着AI的自主性增强,责任归属问题变得更加复杂。一些人认为,我们可以借鉴罗马法中的代理责任原则,即由AI的“雇主”对AI的行为负责。然而,这种古老的法律框架可能无法完全适用于现代AI技术,尤其是在AI决策涉及多个参与者和复杂技术系统的情况下。他表示,在法律和监管层面,目前还没有统一的框架来解决AI责任问题。各国在AI监管上采取了不同的方式,比如美国、中国和英国都有各自的监管机制,还有一些行业选择自我监管。虽然文献中有大量关于AI责任的讨论,但到目前为止,还没有形成一个清晰的法律框架。我们面临着一个三元悖论:责任应归于个人、集体,还是技术系统?AI技术时代的责任划分仍然没有明确答案。他认为,为了应对这一挑战,许多人提出建立全球统一的责任框架,但这一设想仍在探索中。这是未来需要法律界和监管者共同讨论并找到答案的问题。总体来说,人工智能的责任归属问题不仅涉及技术,还包括法律和伦理。在AI不断发展的过程中,我们需要一个灵活的、不断演变的法律框架,来应对AI可能带来的责任挑战。香港中文大学(深圳)荣休讲座教授黄铠(右二)、华南理工大学公共政策研究院学术委员会主席郑永年(右三)、腾讯研究院资深专家袁晓辉(右二)、百度公司高校合作部高级经理刘磊(右一)参与圆桌讨论环节、深圳市人工智能与机器人研究院(AIRS)具身智能中心主任刘少山(左一)主持讨论。
在以“AI与工业革命”为主题的圆桌讨论中,香港中文大学(深圳)荣休讲座教授黄铠,华南理工大学公共政策研究院学术委员会主席、香港中文大学(深圳)前海国际事务研究院院长郑永年,腾讯研究院资深专家袁晓辉,以及百度公司高校合作部高级经理刘磊四位嘉宾围绕人工智能(AI)对教育、国际政治、企业发展、医疗健康、全球供应链和产业链、社会伦理等多方面的深远影响,结合自身领域的研究与实践展开了深入探讨。深圳市人工智能与机器人研究院(AIRS)具身智能中心主任刘少山主持研讨。黄铠教授指出,鉴于AI已经成为现代社会不可或缺的工具,如今的大学教育亟需变革,并重新思考课程的设置。他建议在中国的三个主要AI中心——北京、上海和大湾区——分别打造三个一流的人工智能学院。他还建议,中国的医疗保障系统中对农村地区的医疗服务不足,应建设覆盖全国的通信网络和互联网服务,并利用云计算建立医疗大数据平台。郑永年教授分析了AI对国际政治、全球供应链和产业链重塑的潜在影响。他指出,中美两国在人工智能发展方面具有互补性,但地缘政治紧张导致各国纷纷强调产业自给自足,若这一趋势延续,供应链、产业链的概念可能发生变化。他还对人工智能发展可能带来的社会不平等和“人工愚昧”(Artificial Ignorance)现象表达了担忧,呼吁建立一份关于人工智能对社会影响的全面清单。郑永年教授进一步指出,当前人工智能竞争集中在几家美国公司之间,中国仍有差距。人工智能的发展带来了实际上的集中化,对包括政治结构在内的人类社会结构都会发生很大影响。他认为,传统的反垄断手段不再适用,未来我们有可能成为少数科技巨头的附庸,因此需探索新的监管和治理方式。袁晓辉博士介绍了AI在提升企业内部效率和优化用户体验方面的实际案例。她表示,随着AI技术的普及,社会将面临就业替代和公平分配的挑战。因此,她建议应加快制度设计和社会保障的完善,以应对AI带来的社会变革和不平等问题,并通过教育和培训提升公众对AI技术的理解和应用能力。刘磊博士则介绍了百度公司在AI领域的基础研究和技术布局。他指出,技术革命对教育提出了更高的要求,当前教育体系的更新速度远远跟不上技术发展的节奏。他建议年轻人应积极参与校企合作的实训项目,不断提升自身的AI素养与技能。同时,他还呼吁教育界与企业界加强合作,为未来社会培养更多适应AI时代需求的复合型人才。如需了解发言嘉宾完整观点,敬请期待IPP即将推出的“2024年IPP国际会议”嘉宾发言完整版。关于IPP
华南理工大学公共政策研究院(IPP)是一个独立、非营利性的知识创新与公共政策研究平台。IPP围绕中国的体制改革、社会政策、中国话语权与国际关系等开展一系列的研究工作,并在此基础上形成知识创新和政策咨询协调发展的良好格局。IPP的愿景是打造开放式的知识创新和政策研究平台,成为领先世界的中国智库。