如何用生成式 AI 定义我们的未来?看看微软怎么说

学术   2024-10-06 10:52   河南  

ScienceAI 设为星标

第一时间掌握

新鲜的 AI for Science 资讯



编辑 | 紫罗
人工智能(AI)当下及未来的进步,意味着它在解决先前被视为棘手难题的能力上实现了阶段性的转变。
鉴于这一巨大的技术飞跃,现在是我们必须定义未来轨迹的时候了。随着公司继续创新人工智能系统并将其集成到当前产品中,我们有责任问自己:我们想要构建的未来是什么?
作为一个社会,我们必须采取立场并定义我们想要的人与人工智能系统之间的关系。我们仍处于人工智能革命的早期阶段,因此现在将我们的轨迹设定在一条认真负责的道路上比以后纠正我们的路线更容易。
我们可以有意识地设计、构建和使用人工智能系统,使其成为社会中的一种平衡力量,或者我们可以无意识地使用人工智能,在这种情况下,人工智能可能会成为加剧不平等的力量,或者两者兼而有之。社会有权决定我们朝着哪个结果前进。

一种潜在的平衡力

在生成式人工智能中,大型语言模型 (LLM) 是近期取得许多进展的原因。最近的一项研究表明,LLM 上所做的大部分工作都是知识工作,即任何涉及处理或使用信息的工作。最近还有一系列实验论文表明,人工智能提高了各种知识工作环境中参与者的生产力,例如编程、写作、咨询和客户支持。重要的是,这些论文表明使用生成式人工智能具有经济效益。
值得注意的是,生产力的提高在参与者之间并不均匀分布。事实上,人工智能更多地帮助了那些最需要它的人。也就是说,生成式人工智能对新手和低技能工人的帮助,比对经验丰富和熟练的工人的帮助更大。在生产力与收入相关的范围内,生成式人工智能可以让经验较少或技能较差的工人缩小差距。如果这些结果具有普遍性,则结果表明,在知识工作领域,人工智能正在充当一种平衡力量。

技术获取不平等

每当出现生成式人工智能规模的技术创新时,首先要了解谁可以使用该创新,这一点很重要,因为只有接触过人工智能的人才能利用它来获得生产力和经济效益。
Pew 研究中心最近的一项调查显示,了解 ChatGPT 的美国人更有可能拥有更高的家庭收入和更正规的教育。例如,79% 拥有研究生学位的成年人听说过 ChatGPT,而高中或以下学历的人中只有 41% 听说过。同样,76% 的高收入阶层(家庭收入超过 131,500 美元)的人听说过 ChatGPT,而低收入阶层(家庭收入低于 43,800 美元)的人只有 44%。最后,男性比女性更有可能听说过 ChatGPT(67% 对 49%)。
根据 Pew 研究中心的另一项调查,在听说过 ChatGPT 的人中,33% 的研究生学历的人使用过它,而高中或以下学历的人只有 15%,而且男性使用过它的可能性比女性更大(29% 对 19%)。
在美国,教育、收入和性别之间的不平等已经非常严重。例如,平均而言,男性每挣 1 美元,女性只能挣 82 美分。全世界范围内,经济不平等是一个如此重要的问题,以至于它是联合国 17 个发展目标之一。从劳动力来看,鉴于生成式人工智能可以带来经济效益,而且在了解和使用人工智能的人之间存在差异,人们担心人工智能可能会加剧现有的经济不平等。
为了抵消这种影响,那些构建人工智能系统的人应该有意针对那些不太可能使用人工智能的人,通过了解他们的用例并定制人工智能系统来为这些人群带来价值,从而帮助减少其中一些不平等现象。无论是否通过基于社区的参与式设计,从事生成式人工智能工作的工程师都应该与他们目前未服务的社区成员合作,以了解人工智能如何为这些社区提供价值。

对劳动力的影响

人工智能还可以深刻影响任务、工作和职业。任何时候,都有一组机器可以解决的问题。任何时候,都有一些问题是机器可以解决的。任何超出这个范围的问题都需要人类来解决,至少部分需要人类来解决。
当出现技术创新(如生成式人工智能)时,机器可以解决的问题集会增长,涵盖人类过去解决的一些问题。因此,一些过去从事新任务的人类被取代,出现了需要解决的新问题。我们称这个想法为「自动化最后一英里悖论」,但这个想法并不新鲜。
例如,经济学家假设工作是由任务组成的。当出现技术创新时,其中一些任务可以实现自动化。当自动化的任务是工作的核心时,这项工作将发生巨大变化。当自动化的任务与工作无关时,影响会较小。尽管如此,工作确实会发生变化,人与人工智能关系的动态也会发生变化。这一悖论是我们与人工智能关系的基本组成部分之一。
关于自动化最后一英里悖论,首先要理解的是,总体而言,我们不会很快失业。事实上,这种动态是创造我们目前大部分工作岗位的原因。根据 David Autor 的说法,「当代大多数工作岗位并不是迄今为止逃脱自动化的历史职业的残余。相反,它们是与特定技术创新密不可分的新工作专业。」第二点是,工作受到自动化影响的人不一定是新工作岗位的创造者。
例如,如果自动化影响了一个城市工人的工作,但在另一个城市创造了就业机会,那么拥有更多资源的人可以更轻松地移动、提升技能或重新学习技能,从而适应新经济,而资源较少的人则更难做到这一点。随着人类与人工智能之间的动态发生变化,必须记住,人们的职业往往与他们自己的个人身份和自我价值交织在一起。我们如何对待那些工作受到人工智能影响的人,将成为我们最终走向什么样的未来的关键决定因素。过去,自动化是美国许多中产阶级工作岗位工资损失的约一半原因,而这次我们有机会避免这种结果。
我们至少可以通过两种方式来定义未来与人工智能的更积极的关系。首先,好莱坞就是这种悖论的一个例子,也是如何保护那些工作受到人工智能影响的人的一个例子。制作电影和电视剧本的任务曾经是只有人类才能解决的问题,但现在 LLM 可以为小说写作生成文本和对话。
作为回应,美国编剧协会 (WGA) 与美国电影电视制片人联盟达成协议,以确保「编剧在写作时可以选择使用人工智能……但公司不能要求编剧在写作时使用人工智能软件(例如 ChatGPT)」。这只是协议中对编剧的众多保护措施之一,其他保护措施包括禁止公司使用编剧的输出来训练人工智能系统或将素材归功于人工智能。该协议有意指定了编剧希望与人工智能系统建立的关系。这些保护措施使编剧能够使用人工智能,而不是被人工智能取代。这样的劳动协议很重要,因为尽管它保护了协会中的所有作家,但资源较少的作家往往会受到自动化的不成比例的影响。
更广泛地说,WGA 协议可以为未来劳工团体定义他们与人工智能的关系提供蓝图。在各个行业中制定这些协议,可以通过指定该行业工人与人工智能之间的生产关系,预先帮助那些原本会被人工智能取代的人。从这个例子中可以学到的一个教训是,需要各种机构(如科技公司、作家、工作室、工会等)共同引导社会走上富有成效的道路。
其次,在决定积极的人类与人工智能关系时,我们还必须考虑双方可以承担的角色类型。Hofman 及其同事指出,人工智能可以扮演三种不同的角色:(1)它可以是提高我们能力的教练;(2)它可以像运动鞋一样增强我们的技能,帮助我们完成任务;(3)它可以像类固醇一样,我们可以在短期内依赖它,但从长远来看会削弱我们。
如果我们有意设计充当教练的人工智能,当用户没有必要的专业知识或无法获得必要的专业知识时,生成式人工智能就可以介入,它甚至可以帮助我们更好地完成工作。事实上,如果我们将「人工智能作为教练」的理念应用于各个工作和行业,Autor 认为,人工智能可以通过「为更多工人提供人类专业知识的相关性、影响力和价值」,帮助「恢复太多工人和工作已经失去的素质、地位和能动性」。由于以前的自动化类型对中产阶级和工人阶级的工作影响尤为严重,因此人工智能有机会帮助那些受到以前自动化类型影响的人,从而有可能减轻以前的不平等现象。

生成式人工智能背后的人力劳动

在这种情况下,尤其重要的是要考虑到那些拥有权力或自主权,来决定他们与人工智能系统的关系的人之间存在不平等。例如,许多 LLM 用户没有意识到他们使用的人工智能系统部分是由人类训练的。LLM (尤其是早期版本) 可能会输出不正确、不具信息性或在某些情况下有害的文本。为了帮助微调这些模型,人类会得到示例提示,并被要求写出他们想要收到的输出,并对这些模型的不同可能输出进行排名。
事实上,十多年来,人类一直在通过 Mechanical Turk、Upwork 和 Scale AI 等在线劳动力平台为机器学习算法提供训练数据,从事所谓的「幽灵工作」。
随着人工智能系统的覆盖范围和普及度不断扩大,这种类型的训练将更频繁地发生,并变得更加重要。这些工人处于收入分配的低端,而且他们经常在一美元能买到比美国更多的劳动力的国家工作。此外,这些工人还处于这样的位置:科技公司向他们付费(直接或通过第三方平台)以提供 AI 系统的训练数据。由于这些工人通常依靠自己赚到的钱来满足基本需求,他们可能没有权力定义他们与所训练的 AI 系统的关系,但他们为社会上每个有互联网接入的成员提供服务。因此,AI 公司应该承认和重视他们的贡献,并为他们提供公平和道德的工作实践。前进的一种方式是,让社会就 AI 系统训练者的道德待遇标准达成一致,并为 AI 系统颁发「公平贸易」印章。
对于训练 AI 系统的工人来说,至少有三种前进的方式。第一种是成立工会或至少聚集在一起,对他们所做的重要工作发表集体意见,并倡导公平和公正的工作条件。如果公司和工人能够达成一致,工人将获得公平和公正的工作条件,公司也可以放心,因为他们知道他们正在以道德的方式对待训练 AI 系统的工人。
第二是改变有关公平公正工作实践的法律,以便训练人工智能系统的工人能够享受通常只为美国全职工作者保留的社会保障网。这不仅可以提供更公平的工作实践,还可以提高生活质量。最后,在在线劳动力市场中,工人的数量多于工作量。因此,在特定平台上提供工作的公司可以利用他们拥有的权力迫使平台确保工人得到公平对待。无论我们用什么方法来影响变革,社会都有责任确保这些工人得到公平和合乎道德的对待。

技术开发中的不平等

重要的是不仅要考虑谁有权访问这些模型以及谁提供数据来训练它们,还要考虑谁可以构建这些模型,以确保每个人在设计中都有发言权。生成式人工智能的使用正在全球范围内发生,但开发 LLM 需要价值数亿美元的资源,例如 GPU 和电力。
此外,这些模型使用从互联网上收集的尽可能多的数据以及人工标记的数据进行训练。构建和训练这些模型所需的资源可能会使大多数人和机构无法获得它们,例如,这将不成比例地将 Global South 的机构排除在外。因此,许多人和机构被排除在如何定义我们与所构建的人工智能系统的关系的讨论之外,尽管他们的参与对于实现公平进步至关重要。

朝着正确的方向前进

我们只能改进我们衡量的东西。全球社会的所有部门,包括工人、非政府组织、政府和科技公司,都需要基础设施来衡量社会在人工智能方面是否走在正确的轨道上。我们应该建立一个全球仪表板,来衡量谁受到了人工智能的影响以及如何影响。这样做将使我们能够监控我们与人工智能系统的关系,并在需要时推动它们朝着正确的方向发展。
没有人知道我们将走向什么样的未来。事实上,即使是最好的预测者也很难预测两年以上的情况。与其关注人工智能将把社会带向何方,不如关注当下,并以此指导我们朝着令我们满意的结果前进。这样,无论社会最终走向何方,我们都可以确保我们对目前所取得的成就感到满意。
参考内容:https://www.nature.com/articles/s43588-024-00694-5

人工智能 × [ 生物 神经科学 数学 物理 化学 材料 ]

「ScienceAI」关注人工智能与其他前沿技术及基础科学的交叉研究与融合发展

欢迎注标星,并点击右下角点赞在看

点击读原文,加入专业从业者社区,以获得更多交流合作机会及服务。

ScienceAI
机器之心旗下媒体,关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展。
 最新文章