前几日,农夫山泉创始人钟睒睒出席活动,
公开炮轰社交平台上充斥着大量抹黑造谣的内容:
“谣言的传播、不实的报道、断章取义的信息……
以流量为主导的收益激励规则会给社会带来更大的伤害。”
无独有偶,最近有个关于AI的访谈视频,
嘉宾是《人类简史》的作者尤瓦尔·赫拉利教授和演员张静初,
刚好解释了为何互联网谣言泛滥的现象。
赫拉利更提出了一个令人震惊的观点:AI比原子弹更危险。
因为原子弹不能自主决定何时何地爆炸,而AI却可以自己做出决定,
甚至可能会脱离人类的控制。
最可怕的一件事发生在缅甸,
10年前,缅甸对罗兴亚人的种族清洗中,
数千人被谋杀、数万人被强奸、数十万人被驱逐……
某种程度上,脸书的AI算法负有不可推卸的责任,
故意传播关于缅甸罗兴亚人的仇恨阴谋论。
越来越多的人看到了这些由AI算法推荐的内容,
变得非常恐惧、愤怒、仇恨。
因此,今天想和大家简单分享一下访谈内容,
假设用户每天刷手机的时间是1小时,那每个用户一天至少看5次广告。这也是为什么很多人睡前刷手机,越刷越睡不着的原因。结果莫名其妙开始生气,仿佛有深仇大恨般,一言不合就吵架,但你放下手机,看看身边、看看周围,其实什么事都没有。赫拉利发现,为了提高用户的参与度,算法开始在大量用户中做实验,“抓住别人注意力最简单的方法就是按下仇恨按钮、恐惧按钮和贪婪按钮。”这种激发负面情绪的新闻,不仅可以狠狠抓住用户的注意力,AI算法根本不在意内容是真是假、是完整的还是断章取义的。同一张饭桌上,所有人都无话可说,不约而同地低头玩手机,
赫拉利指出,AI正在发展和人类建立亲密关系的能力。
“它们正在学习如何解读人类的情感,
因为它们非常擅长分析数据和识别模式,
这就是我们识别情绪的方式。”
要知道,我们每个人都渴望被理解、被关心,但很多时候都是事与愿违。即使是最亲密的家人,也很难百分百完全理解对方的感受。“它们从不生气,从不生病,也从不疲倦,它们只关注你的情绪。”试想一下,当你工作被上司批评时,是不是想找朋友或爱人寻求安慰?▲电影《她》
可当你有所动摇的时候,恰恰是危机浮现了。
赫拉利表示,AI正是利用亲密的力量以一种非常微妙的方式操纵人类。一个简单的例子:遇上陌生人的推销,大部分人都不会搭理,假如对方安利的不是某个产品,而是某些政治观点、社会印象,最重要的是,人有各种各样的缺点,有不同的成长背景和思维方式,当我们习惯了AI无微不至的体贴和关心,回到现实社会进行社交时,不久的将来,你可以想象这样的场景:
当你去银行贷款时,AI决定是否可以给你放款;
当你填报大学志愿时,AI决定你是否被录取;
当你面试工作时,AI决定是否录用你。
AI不断向我们施压,要求我们做更多的事情,永不停息,“我们觉得一切都进展得太快了,我一刻也停不下来,我不能慢下来。”
即便是企业、国家领导也陷入同样的焦虑中。
所有人都知道AI会带来可怕的威胁,但所有人都不敢停止发展AI,有严格的法律禁止伪造货币,有强大的防伪工具杜绝假钞流通。首先培养一个灵活多变的头脑,不断学习和改变,拥有广泛的技能,比如,赫拉利会进行长达几周的冥想,中断和外界的联络,1.有意识地筛选信息:存入大脑的信息不是越多越好,要分辨出可靠和不可靠的信息,对于那些来源不明的信息,通通Pass。2.选择性地无视信息:多使用搜索和过滤功能,主动去检索自己想看的内容,不相关的内容则选择性无视。3.定期集中检查消息:关闭通知,找个固定时间段回复消息,定期检查邮件、媒体,看看是否有新内容更新。4.做好时间的规划:给一些特定APP设置时间限制,减少手机里的APP数量和平台上的关注数量,只关注少数优质创作者。5.培养自己的兴趣爱好:根据自己的生活习惯,找一个可以坚持下去的兴趣爱好,转移对手机的依赖性,解放自己的双手。中信出版 《尤瓦尔·赫拉利对谈张静初:AI正在制造慢不下来的人》喜欢请分享,满意点个赞,最后点「在看」