康乃尔大学的电脑屏幕上显示“他开始祈祷”这句文字,被OpenAI的Whisper转录后,渲染的是 “我感觉我要跌倒了,我感觉我要跌倒了......”。(美联社)
科技巨头OpenAI宣称其Whisper人工智能(AI)转录工具的稳健程度和准确性“接近人类等级”; 但十多位美联社采访的专家指Whisper有重大缺陷:它会轻易拼凑出被科技界称为“幻觉”的大量文字甚至整串字句,部分虚构内容可能包括种族歧视评论、暴力言论,甚至还有纯属想像的医疗方法。
包括软件工程师、开发人员和学术研究人员在内的专家指出,这类捏造行为很有问题,因为全球许多行业开始使用Whisper进行翻译和将访问转换成文字、生成文本或为影片加入字幕。更令人担忧的是,尽管OpenAI警告该工具不应用于“高风险领域”,但不少医疗中心已急着利用Whisper记录病患与医生的谘询内容。
研究人员和工程师表示,他们在工作中经常遇到 Whisper 生成出来的“幻觉”内容,但这些问题内容的真伪很难辨识。
一名密歇根大学研究人员发现,在改进Whisper工具模型之前,每10个音频转录就有8个出现《幻觉》; 一名机器学习工程师表示,他分析的100多小时Whisper转录内容有一半存在“幻觉”; 一位研发人员表示,他用Whisper创建的2.6万份纪录,几乎每份都有“幻觉”内容。照此趋势发展下去,数百万份录音档转录会出现数以万计的错误内容。
去年开始领导白宫科技政策办公室的新泽西州普林斯顿高级研究所教授尼尔森(Alondra Nelson)表示,此类错误可能造成极严重后果,特别是在医院环境中。他说:“没人希望误诊,应订定更高标准才行。”
目前,Whisper也被用来为聋哑和听力障碍人士创建隐藏式字幕,聋哑人士、加劳德特大学科技扩展计划负责人沃格勒(Christian Vogler)表示,这样的转录错误风险特别高,因为聋人和听力障碍者无法识别出“隐藏”在文本中的捏造内容。
由于这类“幻觉”普遍存在,专家、倡议者和前OpenAI员工纷纷呼吁联邦政府考虑订定AI法规; 至少,OpenAI有必要尽快解决此缺陷。OpenAI发言人表示,该公司正不断研究如何减少幻觉,他们也赞许研究人员的相关发现。
可直接点击以下公号名称进行关注: