白宫众议院人工智能特设小组发布了其人工智能报告,概述了美国在负责任的人工智能创新和采用方面的指导原则、建议和政策提案。教育和人工智能素养成为重点关注领域之一。报告认识到,尽管人工智能在职场中越来越普遍,但改善 STEM 教育和确保广泛的人工智能素养至关重要,尤其是在 K-12 阶段。报告指出:
在数字时代,人工智能扫盲至关重要。它包括了解人工智能的功能、负责任地使用人工智能以及在各个领域合乎道德地应用人工智能。
这份报告提供了一个全面的视角,涵盖了AI技术在不同领域的应用、挑战和政策建议,旨在为美国在AI领域的未来发展提供指导和政策框架。然而美国的各行业精英人士人士好像不买账。
一、报告背景与基本理念
2024 年 12 月 17 日,由联席主席 Jay Obernolte(加州共和党)和 Ted Lieu(加州民主党)领导的美国众议院人工智能特别工作组发布了一份 253 页的报告,概述了国会关于人工智能的建议。该文件阐述了“指导原则、66 项关键发现和 89 项建议,分为 15 章。”
报告建议,考虑到技术进步的快速步伐将需要更多的灵活性和警觉性,国会应避免一次性制定庞大的监管框架。
报告指出,“国会应采取灵活的方法,使我们能够以适当、有针对性和可实现的方式作出反应,并充分利用所有可用证据和见解。支持这种灵活范式需要持续学习和适应。国会应定期评估其政策的有效性,并根据人工智能技术和其影响的发展进行更新。”
报告不赞成任何具体的立法条款。
其中 AI 在教育中的应用被视为一个重点关注领域,关于教育与就业市场,特设小组发现:(1)人工智能在职场中越来越被雇主和雇员所使用;(2)培养国内人工智能人才和持续的美国领导地位将需要显著提高基础 STEM 教育和培训;(3)美国人工智能领导地位将通过拥有更多技能的技术劳动力得到加强;(4)人工智能在美国的应用需要人工智能素养;(5)K-12 教育工作者需要资源来教授和推广人工智能素养。
给教育行业的建议:
(1)投资 K-12 STEM 和人工智能教育,拓宽参与范围;
(2)加强美国人工智能技能,提供所需的 AI 资源;
(3)培养支持政府-大学-产业合作时的区域专业知识;
(4)推广全美人工智能素养;
(5)赋能美国教育者,提供人工智能培训和资源;
(6)支持国家自然科学基金(NSF)课程开发。
二、教育以外其他十四个行业的发现与建议
关于政府机构
发现:“联邦政府应利用核心原则并避免与现有法律冲突”,“联邦政府应警惕算法驱动的决策”,以及“规范机构使用人工智能的政策应提供涵盖人工智能生命周期的整体、以运营为导向的指导,以实现机构的高效实施。人工智能系统可以针对任务或项目特定用例具有多种应用。
建议:灵活的治理结构、减轻行政负担和官僚主义、支持国家标准与技术研究院(NIST)制定联邦人工智能系统的指南,以及提高联邦系统(包括联邦人工智能系统)的网络安全。
联邦对州法律的优先权
发现:“联邦政府先发制人可以允许受地板或天花板限制的州政府行为。”
建议:“研究各行业适用的 AI 法规。”
数据隐私
发现:“美国人在许多隐私伤害方面可选择的途径有限”,“联邦隐私法可能增强州法律”,以及“人工智能有可能加剧隐私伤害”。
建议:“探索以隐私增强的方式促进数据访问的机制”,“确保隐私法律具有普遍适用性和技术中立性”,以及“国会还可以支持伙伴关系,以改善考虑隐私设计并利用新的隐私增强技术和技术的 AI 系统设计”。
国家安全
发现:“人工智能是国家安全的重要部分”,以及“人工智能可以极大地改善国防部业务流程。”
建议:“继续监督自主武器政策”和“支持在军事背景下使用人工智能的国际合作。”
研究、开发与标准
发现:“联邦对基础研究的投资使得当前的 AI 机遇成为可能”,“一个封闭的 AI 研究生态系统可能会限制美国在 AI 领域的竞争力”,以及“大学进行的基础研究与产业进行的商业化活动之间往往存在很大的差距。”
建议:“增加大学研发(R&D)向市场的技术转移”,“促进人工智能(AI)研发的公私合作”,“坚持由美国制定标准的做法”,“使国家人工智能战略与更广泛的美国技术战略保持一致”,以及“联邦科学机构应促进其计算资源的访问并促进其数据的更大可用性。”
公民权利
发现:“不当使用人工智能可能违反法律,剥夺我们最重要的权利”,“理解人工智能模型可能存在的缺陷和不足可以减轻人工智能的潜在有害用途”,“核心考虑因素应该是减轻对美国公民权利和公民自由造成有害影响的后果。”
建议:“在人工智能应用于高度重要的决策时,让人类参与其中,积极识别和纠正潜在缺陷”,“机构必须理解和防范在歧视性决策中使用人工智能”,以及“提高私营部门在行业主导的技术标准制定和发展中的参与度,有助于为人工智能系统在决策中的正确使用提供严格的技术基础。”
知识产权(IP)
发现:“在某些情况下,是否需要立法行动尚不明确,目前有许多知识产权问题正在法庭上审理”,“虽然一些用例是合法且受保护的表述形式,但深度伪造和有害数字复制品的泛滥是一个重大且持续的挑战”,以及“避免过度干预并尽可能了解潜在的成本和收益至关重要。任何新的与知识产权相关的立法或法规都应针对已知的具体问题或问题;狭义地调整定义、要求和后果;减少不确定性而不是增加它;并关注提高私营部门创新能力和创作者的繁荣。”
建议:“明确知识产权法律法规及机构活动”和“适当地应对 AI 生成深度伪造带来的日益增长的危害。”
内容真实性
发现:目前尚无单一、最优的技术解决方案用于内容认证,“数字身份技术使网络中的人能够验证自己的身份,并减少欺诈。”
建议:“解决可证实的合成内容的危害,而非推测性的危害”,“确定 AI 开发者、内容制作者和内容分发者在合成内容方面的责任”,“审查与有害合成内容相关的现有法律”,“确保受害者拥有必要的工具”,“国会应与行业合作,支持一个针对合成内容技术解决方案的标准化生态系统,例如通过预标准化研究、公私合作伙伴关系、直接参与国际标准制定或制定自愿标准和指南来解决合成内容”,“国会还应探讨是否授权支持政府采用和跨部门协调特定内容认证技术解决方案的活动。”
开放系统和封闭系统
发现:“开放模型提供了许多好处,包括定制化、透明度和可访问性。然而,恶意行为者利用开放模型造成伤害的风险增加,包括实施金融欺诈、威胁国家安全或大规模身份盗窃。”
建议:“关注可证明的危害和物理威胁”,“根据人工智能能力评估化学、生物、辐射或核(CBRN)威胁”,以及“继续监测开源模型的风险。”
能源使用与数据中心
发现:“人工智能需求的增长正在给电网带来挑战”,“美国在人工智能领域的持续创新需要能源领域的创新”,“为新的发电和输电进行适当的规划对于人工智能的创新和采用至关重要”,“人工智能工具将在能源领域的创新和现代化中发挥作用”,“尽管前景看好,但由于需要长时间来许可和建设首座核电站,新核能的广泛应用并非短期内可行的解决方案。”
建议:“支持并增加联邦对能够促进人工智能硬件创新、算法效率、能源技术开发和能源基础设施的投资”,“加强追踪和预测人工智能数据中心电力使用的工作”,“制定新的标准、指标和定义分类法,以沟通相关的能源使用和效率指标”,“确保人工智能和能源电网成为关于电网现代化和安全的更广泛讨论的一部分”,“确保新基础设施的成本主要由那些获得相关利益的患者承担”,以及“推广人工智能的更广泛应用,以提升能源基础设施、能源生产和能源效率。”
小微企业
发现:“小型企业可能缺乏足够的资本和人工智能资源,”以及“小型企业在满足人工智能监管合规方面面临过度的挑战。”
建议:“为小型企业采用人工智能提供资源”,“减轻小型企业的合规负担”,以及“国家人工智能研究资源(NAIRR)试点可以通过提供难以获取的数据和计算资源,促进小型企业的人工智能采用。”
农业
发现:“农村和农业社区缺乏可靠的网络连接阻碍了农业领域的 AI 应用”,“美国农业部(USDA)对 AI 的更大采用可以提高众多农业项目的交付效率并降低农民和其他人的成本”,以及“尽管精准农业技术自 20 世纪 90 年代以来就已可用,但只有 27%的美国农场或牧场使用此类技术。”
建议:“直接指示美国农业部更好地利用人工智能进行项目交付”和“继续审查商品期货交易委员会(CFTC)基于原则的框架在金融市场中捕捉由人工智能带来的独特风险的应用。”
医疗保健
发现:“缺乏普遍统一的标准来规范医疗数据和算法,阻碍了系统互操作性和数据共享”,以及“一个需要改进指导或监管的关键领域是行业上市后监督和健康人工智能工具的自我验证。”
建议:“在多种部署条件下,创建激励措施和指导方针,以鼓励对医疗保健中的人工智能技术的风险管理,以支持人工智能的采用,提高隐私性,增强安全性,并防止不同的健康结果”,“支持与人工智能问题相关的责任标准的制定”,“支持适当的支付机制,同时不扼杀创新”,以及“国会应探讨是否需要新的法律来支持 FDA 对健康人工智能工具的市场后评估过程。”
金融服务
发现:“人工智能技术已在金融服务领域得到应用”,“一些监管机构利用人工智能识别违规行为”,以及“小型金融服务公司可能在人工智能采用方面处于不利地位”。
建议:“鼓励并支持监管机构提高其在人工智能领域的专业知识”,“在金融服务和住房领域使用人工智能时,维持消费者和投资者的保护措施”,“考虑监管‘沙盒’的益处,这可能允许监管机构对人工智能应用进行实验”,以及“确保监管措施不会阻碍小型企业采用人工智能工具”
这份报告提供了一个全面的视角,涵盖了AI技术在不同领域的应用、挑战和政策建议,旨在为美国在AI领域的未来发展提供指导和政策框架。
三、社会人士对这份报告的评论
Tech Policy Press 从不同专家和组织收集了数份对该报告的反应: