今天被RT的新闻逗笑了,很久没有看到有人能这么一本正经的说话了,上一个这么说话的人叫胡锡进,最近他也闭嘴了。
其实对于语言本身,并不存在什么禁区,语言文字作为人们描述理解世界的工具,只要信源可靠有条件交叉验证加上点批判思维逻辑思考,人们就能查证真相。
但作为我个人日常的观察,多数人选择语言表达观点,主要有两个考量,一个是自身的安全性,第二是对方的接收程度,其次才是语言内容的真实性和准确性。
人会根据自身的利益考虑到接收信息对象的情绪和理解力,给出一个相对委婉的说法,但是AI不会,它们只会比对大数据,然后给出一个相对确切的答案,当然这种表达本身没什么问题,因为这个答案如果是参考大数据做出的择选,一定是有人提问过且得到众多人点赞认可的回答,当然这种的回答未必正确,但于我个人而言可以作为比对参考的对象。
其实有些问题本身就很欺骗性,比如你问我甲乙两个人谁更聪明,在一个没有明确测试标准的情况下,如果我对他们两个又缺乏长期观察,我是无法给出答案的,但是在很多情况下我又不得不给出一个评价。这就可能伤害到其中一个人。
也有可能我确实知道答案,我个人会因为跟甲乙两个人的关系的亲密程度给出一个可能并不准确和真实的答案,但是如果我不告诉你,你是不可能知道的。
更多时候一个人选择是否诚实其实很大程度上取决于接受对象本身,更多时候,人们并不在乎信息的真实程度,仅仅需要的是信息能带给自己爽感。
我知道你说的是真的,但是我不爽,不也不想听,所以请你不要这么诚实。
苏格拉底说,我唯一知道的就是我一无所知。每个人都非全知全能,在这种情况下,无知有时候并不是什么过错,知道的越多,烦恼也会越多,有时候在知道太多真相后,你不得不面对一个血淋淋残酷的世界。
这个时候爽感就消失了,痛苦随之而来。
这个时候就不得不做取舍了,是追求可能让价值观崩塌的诚实,还是回归不晓得那么多带来爽感。
我想每个人在有条件的情况下,都可以做出自己的选择,毕竟最终承担选择成本的,还是做出选择的自己。
当然,如果对于问题有怀疑,不妨一个问题多问几次,问几个不同的AI。或者换一种表达方式,或许能得到你想要的答案。