AI 2B应用悖论:直觉型 AI 与理性型人类?

文摘   职场   2024-07-11 14:06   广东  


点击上方图标关注我们,抓住你的灵感💡瞬间


 这是一篇2018年的旧文,放在今日却依然相当能打。它是我在了解前段时间AI梗图应用Glif的团队背景时找到的,没错,它正是创始人Fabian Harmik Stelzer的博文。从数据驱动到数智化,看似不断演进的技术路线,却正在走向分叉入口,特别是生成式AI这类大模型,对于人类仍是个黑盒。特别在2B领域,决策主体的转移带来的问题值得我们提前思考和讨论。


来自即友刘飞Lufy

人类知识工作者被要求越来越理性、数据导向,并且在决策过程中保持透明。那么,直觉型且不透明的 AI 同事的出现,又如何融入这样的环境呢?
新的团队成员有时可能会引发新的冲突,尤其当这些成员来自不同的“物种”并且被区别对待时。
考虑到,基于机器学习的软件系统被引入来帮助知识工作者做出更好的决策。我们可以暂时不纠结于是否称之为“AI”,或者是否相信“AGI”的可能性。
我们以麦肯锡的预测是正确的作为这次思考的基础假设,在报告中麦肯锡声称“60%的职业中有30%的活动可以被自动化”,这意味着“大多数职场工作者——从焊工到按揭经纪人再到 CEO——将与快速发展的AI并肩工作。


现在,对于知识工作者来说,大体上有两种决策方法:

  1. 一种是缓慢、清晰、有条理的,通过深思熟虑和数据驱动来做决策,最终能够解释清楚。在理想情况下,决策形成的过程由于其逻辑和实证基础,本身就等同于其解释。

  2. 另一种是快速、复杂、基于直觉和经验的决策法,通常不容易(甚至不可能)立即解释——即决策者无法立即理解、解释或证明他们的决定确实是正确和合理的。
在关于“如何让企业员工成功”的各种理念历史中,马尔科姆·格拉德威尔 (Malcolm Gladwell) 在 2005 年出版的畅销书《Blink》也许是对后者,即基于直觉的决策方法的最后一次辩护。
如今,企业和管理层决策的理想模式与《Blink》提出的方式大相径庭(至少在中高层管理中,高管通常更依赖基于直觉的决策)。也就是说,绝大多数知识工作者必须严格基于透明的数据和逻辑来做出决策(而且往往过于注重数据层面),并且过去大约十年来,整个组织都致力于“变得更加数据驱动”。
实际上,这意味着一个人类决策者,比如营销部门的 Sally,不仅需要基于数据做出决策,还必须能够展示和解释她的决策过程以及所用的数据。即使 Sally 的老板和董事会偶尔可能会凭直觉行事,他们也不会接受“相信我的培训和经验,这感觉是对的”这样的答案。
有趣的是,对于 Sally 的新同事“AI”来说,情况正好相反。现在,AI 可以给出业务建议,而不需要解释这些结论是如何得出的。
这并不是说让 AI 系统解释其输出结果没有用处(参见下面关于“可解释 AI”的说明),而是因为它们目前根本做不到:表现最佳的机器学习系统无法提供具体结论是如何得出的详细解释。这点在基于卷积神经网络(“深度学习”)的系统中尤为明显,这些系统并不是为了提供详细的决策过程而设计的(或者可能根本无法设计成这样)。
相反,这些AI系统纯粹依靠过去的统计表现来评估。比如,我们已经广泛评估了系统的输出,与实际数据进行了对比,发现其性能足够好(也就是比 Sally 更好或一样好),因而可以用于预测尚未见到的结果。
需要明确的是,确实有一些值得赞扬的努力在研究“可解释 AI (Explainable AI)”,旨在寻找方法使基于机器学习的系统更详细地解释或证明其输出。然而,这些努力是否会成功仍然未知,同时这些机器学习方法在工业和政府中的应用却在全面展开。
假设越来越多的不透明但表现优秀的机器学习系统将与人类工人一同工作,我们可能需要为这种“歧视性”做法引发的新型职场冲突做好准备——特别是如果人机合作的前景如预测的那样重要的话(请参见上文提到的世界经济论坛报告)。

鉴于许多知识工作者已经从他们的上级那里体验到了这种决策上的差异,因此,类似豁免的 AI 同事的出现可能会被视为一种不幸的权力攫取,这将影响到 AI 的广泛成功应用。


麦肯锡的2018年的预测AI, automation, and the future of work: Ten things to solve for (Tech4Good) | McKinsey


🔗 原文链接: Trouble in the workplace: Intuitive Machines vs Rational Humans? – fabian.ai







 

长按扫码关注公众号     保持你对AI优质内容的敏感度






AI趋势全天候
以AI之名,探索未知。 🧠观察行业,关照本心,时常好奇,时常喜欢猫。随缘私信交流
 最新文章