2024年10月24日,基于美国为推动人工智能的安全、可靠和可信发展所采取的关键步骤,美国政府发布了首个关于人工智能(AI)的国家安全备忘录(NSM)。随NSM发布的还有一份相关的配套文件《国家安全领域人工智能治理与风险管理框架》(Framework to Advance AI Governance and Risk Management in National Security),进一步细化了美国在国家安全领域的人工智能治理措施。本文摘取《前沿人工智能:发展与治理》一书中关于美国前沿人工智能治理模式的主要特点,供读者参考。 美国是人工智能技术发展最迅速、应用最前沿的国家之一,在人工智能治理中更加鼓励发展和创新。综合前沿人工智能的治理进程来看,美国人工智能的治理模式主要呈现强调发展、去中心化、以“软法”为主等特点。 第一,美国在人工智能发展和安全的平衡中更加重视发展问题。具体来说,美国主张“有益的人工智能”,认为“负责任的人工智能应用”可以帮助人类应对一系列紧迫挑战,使世界更加繁荣、高效、创新和安全。其人工智能治理理念更加关注收益与风险、发展和安全的平衡,强调在“公平”的竞争环境中通过市场化、灵活性治理方式兼顾人工智能的创新与安全。相比之下,美国人工智能治理原则涉及安全问题之外的发展问题,关注的范围比欧洲更广。第二,美国的人工智能治理模式呈现典型的分散化特征。美国人工智能治理的具体实施仍基于现有机制,依靠各政府部门对各自职能范围内的人工智能应用场景进行管理。例如,美国联邦贸易委员会(Federal Trade Commission,FTC)在2023年5月发布的指南中将人工智能在商业实践中产生的深度伪造、过度推荐等有关消费者保护的内容纳入自身管辖范围;美国电信和信息管理局(National Telecommunications and Information Administration,NTIA)在 2023年4月出台的《AI问责政策(征求意见稿)》中针对人工智能系统的数据访问权限、问责机制等进行布局。第三,美国的人工治理以非强制性的“软法”为主,希望通过市场化的手段治理人工智能。具体来说,白宫管理和预算办公室、科学和技术政策办公室、国内政策委员会、国家经济委员会在2020年联合发布《人工智能应用规范指南》。该指南不但明确要求“为了加强美国在人工智能领域的创新优势,各主管部门应确保美国企业不受美国监管制度的不利影响”,还提出“欧洲及美国盟友应避免采用过度干预、扼杀创新的人工智能监管方式”。受此影响,美国在联邦政府层面的人工智能治理手段以行政令、白皮书、政策指南等不具备强制性的“软法”为主,倾向于通过行业准则、企业自治等市场化的方式控制人工智能风险。只有加利福尼亚、伊利诺伊、印第安纳、康涅狄格、得克萨斯等少部分地区通过州内立法对人工智能的隐私保护、透明度等问题提出了明确要求。(整理/杨智童)