报名开放|说人话,笑哈哈——关于大模型与人类表达差异的实验

学术   2024-10-08 17:00   北京  

亲爱的朋友,你是否好奇,当机器尝试模仿人类语言时,我们能否分辨出它们的真实身份?我们是否能在机器生成的文字中捕捉到那一丝“人味儿”?

接下来,我们即将揭开一个引人入胜的谜题:在大模型拟人能力快速发展的今天,人类能否准确区分真人回答与AI生成的内容?


为什么要探究
大模型与人类的表达差异?

今年1月,腾讯研究院发布了《调教最暖大模型:通过prompt调试并比较国内外大模型“人情味”的小实验》报告,探讨了“什么是人情味?”,还有不同大模型、不同场景下的多次精彩PK。8月,腾讯研究院进一步发布《大模型的“老朋友”们:关于老年人与大模型聊天儿的循证研究》,并启动了“AI向善语料库”社会共创项目,旨在提升大模型的人文关怀与人情味儿。

无论是研究,还是社会共创项目,我们都感受到用户对大模型语言表达有多元的需求和敏锐的感知。当用户感到孤独,需要倾诉、陪伴、精神支持时,他们常常希望大模型的语言风格上更能模拟人类。所以腾讯研究院、腾讯SSV技术生态部正在设计一个趣味游戏,想与更多的朋友一起来探讨,那些更容易给人“亲切拟人”感受的语言有哪些共性?


【说人话,笑哈哈】
实验具体研究什么?

具体来说,包括三个层面:

1.哪些被认为是“人类写的”语言,而哪些又被认为是“机器写的”语言,它们之间究竟有何不同?

2. 对于那些由大模型生成的回答,哪些能够成功骗过我们的眼睛被误认为是“人类写的”,而哪些又明显暴露了自己的“机器身份”?

3.真正的“真人”回答与“机器”回答之间,又存在着怎样的细微差别?

通过研究,我们期望能够为人工智能领域提供有关人机语言交互的新见解,并推动相关技术在更贴近人类自然交流的方向上取得进步。


如何参与到
「说人话,笑哈哈」的实验中来?

我们诚挚邀请对这一话题感兴趣的朋友们参与实验!

作为实验参与者,你将有机会体验一场真实的辨别挑战!我们会为你提供一系列回答选项,这些回答部分来自真人、部门由大模型生成。你的任务就是凭借自己的直觉和判断,选出那个最有可能是“真人回答”的选项。

扫描海报上的二维码,简单几步即可即加入我们的实验大家庭! 

您的每一次选择和判断,都可能成为改变未来的关键节点哦!

期待您的加入,让我们一起揭开人类与AI表达差异的神秘面纱!


推荐阅读

腾讯研究院:《重磅发布|调教最暖大模型:通过prompt调试并比较国内外大模型“人情味”的小实验》

👇 点个“在看”分享洞见

腾讯研究院
腾讯公司设立的社会科学研究机构,依托腾讯公司多元的产品、丰富的案例和海量的数据,围绕产业发展的焦点问题,通过开放合作的研究平台,汇集各界智慧,共同推动互联网产业健康、有序的发展,致力于成为现代科技与社会人文交叉汇聚的研究平台。\x0d\x0a
 最新文章