因为ChatGPT为代表的通用人工智能在普通人中的可及性,2023年也许是我们人类发展历史上一个转折点。我对这方面的认识了解 与计算机专业人士无法相比,甚至可能与多数理科背景的人士都差十万八千里。我仅仅是在工作中使用常规的数据分析软件,简单编程分析数据,对劳动力市场进行分析,所以必然片面,不准确。唯一班门弄斧的可能好处,也许就剩下也许可以给真正的专家以触动,避免“不识庐山真面目,只缘身在此山中”。希望大家不要见笑,多多指导,让我进步,不要掉队太多。
现有人工智能的“追责”属性缺失对使用者心理产生影响,特别常见的无助感的增加。
无论是医疗、客服这些领域,作为患者以及客户,当我们明确知道给出建议、答复的是和我们一样的人类的时候,潜在的安全感来自于服务方是被雇佣、拿工资、需要养家糊口的,所以他们一旦犯错,是需要承担后果的。可是,如果我们面对的是基于人工智能的机器人,就会很无助。因为“人工智能”如果出问题,我们作为个体,怎么追责,难道要对其庞大而复杂的算法进行审计么,不说对普通人而言提供这样的证据技术上是否可行,但成本就无法承担。
个人被算法“碾压”带来的权力的事实不平等,以及算法的能力与责任的不对等,因为人工智能的大规模、无死角的覆盖,可不可以说是人类无意识的自我矮化。
从我的专业劳动经济学来看,任何没有被满足的需求都可以是新的劳动需求。也就是说,在人工智能大规模应用的情况下,帮助 人 与 人工智能互动必然就成为一个可能的任务。这应该有点类似于Sommelier (侍酒师)。当然,这个问题也许不是一个新职业就可以处理好的。
2. 现有ChatGPT这类人工智能的优势除了算法,算力,很大程度是建立在数据量上。
a. 那凡事有一利必有一弊,超大数据量是有上限的,或者说超大数据量内包含的有效信息是有上限的。而当所有这些数据都供养一个算法,那么意味着算法层面的多样性缺失,确定性增加。
b. 换而言之,我们整个人类在某种意义上以自身进行一个没有对比组的实验。我们不清楚这个实验对我们这个群体的效果如何,甚至评估哪些指标“合适”。算法本身是理工科范畴,但算法的目的 现在看 是对人产生影响,无论是帮助人完成某些任务还是替代人。那么如果医学中新药都需要几十年反复评估检验,通用人工智能有没有类似需要?
c. 前一阵澳洲一个电信公司出问题,政府部门、急救电话都没办法打。这就是一个没有备份的系统的脆弱性。
d. 显然,审视通用人工智能应用对社会运行稳健性的影响不仅仅,也不可能,是计算机专家的业务范畴。
3. 相比较人工智能,人的特点(不一定是弱点)是随机性,流动性。
a. 比如假期,我们随着心态可能想出去走走,或者在家休息。我们随着年龄增加,生活境遇变化,可能兴趣爱好也发生变化。哪怕是非常熟悉的人也可能变得不熟悉。这种流动性、非确定性可能又有一定的确定性,最终形成模糊性ambiguity(对不起,各位经济理论学者,我可能概念使用不严谨)。
b. 与直觉相反。有时候模糊性可能正是我们社会运行需要的。记得有统计大师曾经评价我们经济学,今天说是圆的,明天说是方的。潜台词认为经济学不是科学。经济学研究的经济社会是由人组成的,我们的目的是不断刻画这样一个不断演变的社会,目的绝不是为了找到几个永恒不变的“定理”。70后与00后不同,哪些变化了,哪些没有变,为什么。
c. 一个没有模糊性的人工智能似乎与一个不断变化的经济社会并不完全兼容。举一个我做家长中遇到的小例子。小朋友小的时候咳嗽喝糖浆。我发现有一次,他一整天都活泼可爱很健康,但在晚饭时跑我跟前“咳咳”几声。我关心地问,你是不是嗓子不舒服,要不喝点咳嗽糖浆?他点头。但我比较警惕,感觉我的识别有问题,在追问下,我确定他仅仅是因为想喝咳嗽糖浆而咳嗽。
d. 当我们很明确知道一个行为可以触发系统的特定反应,那么这个系统就可能被滥用。也许这也是为什么领导都要保持点神秘性:) 虽然我们都希望规章制度能保持稳定。
e. 虽然不是所有的人工智能都有必要保持模糊性,但是人工智能怎么保持模糊性呢?要保持多大程度的模糊性呢?代价是什么?
随着人工智能的发展,我想我们需要思考的绝不仅仅是更强大的算力,更多的数据。也绝不仅仅是用新方法解决原有问题。更应该是反思审视随着这个技术而来的新情况、新问题,更应该意识到通用人工智能可能仅仅是一个时代的序章。
其他:我还在想技术进步的方向是不是也有人的因素,如果使得大量女性失业的交换机的发明是因为发明家不想自己的生意被竞争对手的老婆(镇上唯一的接线员)破坏,那么又有多少发明是为了避免人性的恶。