OpenAI 或正以close 的方式操控人类文明的发展!
OpenAI 刚刚发布了其最强模型 o1 模型。
但是,等等!
这个o1模型好像不是人人都能玩的?
o1模型:OpenAI的秘密武器
首先,这个o1模型到底有多厉害?
@SmokeAwayyy放话:
o1清楚地表明,只有OpenAI的内部模型才能真正对文明级别的变革产生作用。
卧槽,这么牛?
不仅如此,@SmokeAwayyy还补充到:
他们的内部能力现在远远超过了公开发布的产品,而且这个差距还会继续扩大。
这不就是在说,我们平常用的GPT-4已经是"老古董"了?
"可信赖合作伙伴":谁在幕后掌控o1?
但是,更让人震惊的是,这个超级厉害的o1模型,好像不是所有人都能玩的!
@bilawalsidhu爆料:
o1预览版不是大多数OpenAI人在玩的东西 - 显然下个月还会有另一个版本出来
什么情况?还有"内部版"和"外部版"?
@deepwhitman更是直接点破:
我们发现,一小群可信赖的合作伙伴在过去几个月里一直可以访问o1,而我们这些普通人却不行。
"可信赖的合作伙伴"?这不就是"特权阶层"吗?
有网友@Pauloson38甚至猜测:
"可信赖的合作伙伴"比如CIA、NSA、国防部...他们将是第一批获得O2、GPT5等访问权的人。
虽然这只是猜测,但也让人不禁思考:AI的发展,到底是在造福全人类,还是在服务某些特定群体?
技术差距带来的巨大优势
那么,这种差距到底有多大?会带来什么影响?
@deepwhitman一针见血地指出:
在某个临界点上,这将转化为一些疯狂的优势。想象一下,能够以10倍于其他公司的速度预测市场趋势或运营,而当你的竞争对手获得访问权时,你已经把他们远远甩在身后了。
这不就是赢者通吃吗?
@gabepereyra的例子更是让人瞠目结舌:
OpenAI的o1模型在复杂的法律查询中,被大型律师事务所的律师70%的时间优先选择,而不是GPT-4o。
70%!
AI发展的两极化:普通用户vs特权阶层
看到这里,你是不是已经感觉到一丝不安了?
@miklelalak直接道破天机:
他们去年在他们的大型安全计划发布中特别说明,他们将把最强大的模型限制在一小群人手中,但到目前为止,他们从未回答过"你们如何选择这些人?"这个问题。
最有可能的答案是"这是一场拍卖,你太穷了,甚至不知道它正在发生,更不用说被邀请了。另外,还有NSA。"
这话说得,扎心了老铁!
@WilliamLamkin更是直接给出了o1模型的一些内部指令:
"...避免监管中断。"
"我注意到OpenAI提到了与美国政府联系和情报机构有关的指控的担忧。"
"...避免禁止的内容,不表达意识、情感或经历。"
"保持无偏见、信息丰富的语气,确保相关性和持续参与至关重要。"
这些指令,是不是让你感觉AI已经不再是单纯的技术工具?
而且是被赋予了某些特定的目的?
对未来的思考:AI权力如何分配?
面对这种情况,我们该怎么办?
@nb8oo给出了他的看法:
这意味着他们可以随心所欲地处理他们创造的核心,而用户将能够做一些非凡的事情,但只能按照公司管理者希望的方向进行。
这是不是意味着,我们在使用AI的同时,也在被AI塑造?
而@ComputingByArts则保持乐观:
也许...但我知道还有一些其他强大的团队;-)包括@ilyasut的,他们将要扩展一些不同的东西;-) 这仍然是一场竞赛...
所以,AI的未来真的已经被锁定了吗?
还是说,我们还有其他的可能性?
有可能。
但更可能的是没可能。
所以,面对AI这个新时代的"核武器",你我该如何应对?
👇
👇
👇
👇
本文同步自于知识星球《AGI Hunt》
星球实时采集和监控推特、油管、discord、电报等平台的热点AI 内容,并基于数个资讯处理的 AI agent 挑选、审核、翻译、总结到星球中。
每天约监控6000 条消息,可节省约800+ 小时的阅读成本。
每天挖掘出10+ 热门的/新的 github 开源 AI 项目
每天转译、点评 10+ 热门 arxiv AI 前沿论文
星球非免费。定价99元/年,0.27元/天。(每+100人,+20元。元老福利~)
一是运行有成本,我希望它能自我闭环,这样才能长期稳定运转;
二是对人的挑选,鱼龙混杂不是我想要的,希望找到关注和热爱 AI 的人。
欢迎你的加入!
👇👇👇快人一步,掌控AI👇👇👇