昨晚,马斯克的xAI发布官方公告:Grok现在速度更快,响应更灵敏,并且提高了多语言支持能力。它在𝕏平台上对所有人开放。
自八月份推出Grok-2以来,xAI技术团队一直在努力改进𝕏平台上的Grok,增加了新功能,如网络搜索、引用以及最近推出的图像生成器Aurora。本次免费开放给所有人的是Grok-2模型的新版本,这个新版本的速度提高了三倍,并且在准确性、指令遵循和多语言能力方面都有了改进。
最先版本的Grok-2在中文能力上也有提升,指令遵循能力已经超过最新的GPT-4o:
Grok的一个优势是可以利用𝕏平台实时了解最新的动态,这个主要是靠Grok新增的两个功能:网络搜索和引用。现在,Grok不仅可以利用𝕏上的帖子,还可以利用更广泛的互联网内容,来提供及时准确的回答。而且,这里还添加了引用功能,方面深入到来源中去了解更多信息或验证Grok提供的信息。
下面是一个实测的例子,这里我是问Sora的最新消息,Grok可以通过𝕏上的帖子和互联网信息得到OpenAI最新发布的Sora信息,看起来输出的信息也是准确的:
再来问一下llya Sutskever在NeurIPS2024会议上的演讲,回答的也不错:
𝕏平台的信息都是非常实时的,感觉Grok在回答实时性问题的优势非常大,所以想快速地了解一些实时信息,直接问Grok省去了自己去搜索总结的麻烦。
另外,目前的Grok也已经集成了自研的自回归图像生成模型Aurora,而且这里还有一个有趣的功能:画我。“画我”允许用户使用他们的𝕏档案中的信息生成自己的重新构想版本。下面是一个例子:
简单测试了一下,还挺有趣,不过看起来主要是参考了自己的头像。
之前的文章说过,Grok上的Aurora特别擅长生成名人的图像,这个也可以在Grok上直接体验到(第一张把我的头像也给带进去了):
另外一个功能是𝕏平台的帖子上的“Grok按钮”:
只需要点击这个Grok按钮,就可以直接用Grok来分析这个帖子的内容,也是一个很方便有用的功能:
另外,Grok也支持了多模态理解,这里用llya Sutskever在NeurIPS2024的一张研究图片测试了一下,效果也还可以:
最后再补两个经典测试问题,还是一对一错: