↑点击蓝字 关注我们
欢迎阅读 OSCHINA 编辑部出品的开源日报——您探索和理解开源世界的日常指南。在这里,我们每天从宏观到微观,全面展现开源技术和文化的动态图景。
每日一更,风雨无阻。
OpenSource Daily # 2024.12.31
省流概览
- IBM 计划收购 HashiCorp,遭英国反垄断监管机构审查
- 阿里云再度降价:Qwen-VL 大模型全面降价
- 智谱深度推理模型 GLM-Zero 预览版上线
- Altman 公布 OpenAI 2025 年将发布的技术产品
- 华为轮值董事长孟晚舟新年致辞
- “全球互联网上中文内容比例很低”是一个误读
- 一个大模型需要多大 GPU 内存才能跑起来的计算公式
- 国产 AI 舞台,站满了“90后天才”
- “国产英伟达”们,扎堆上市
- 冷眼与嘲讽之后,谷歌的 AI 大模型翻盘之路
今日要闻
IBM 计划收购 HashiCorp,遭英国反垄断监管机构审查
阿里云再度降价:Qwen-VL 大模型全面降价
智谱深度推理模型 GLM-Zero 预览版上线
Altman 公布 OpenAI 2025 年将发布的技术产品
AGI(通用人工智能)
Agents(智能体)
更好的 GPT-4o 升级版
更好的记忆存储
更长的上下文窗口
“Grow up mode”(成人模式)
深度研究特色功能
更好的 Sora 以及更好的个性化定制
华为轮值董事长孟晚舟新年致辞:2024 年是原生鸿蒙关键一年,一年走过其它操作系统十多年发展之路
今日观察
社交观察
“全球互联网上中文内容比例很低”是一个误读
有人用图一来说明全球互联网上中文内容比例很低,只占 1.4%,实际上这是一个误读。我以前说过一次,这个数据统计方法并不是计算文字量或者网页数量,而是计算使用某种语言的网站数量。
举个例子,微博网站在这个统计中,只能将样本数字 + 1,别管微博上边有多少中文内容,在这个统计方法中,微博跟万年没人看的某些个人站没有区别,都只算一个网站。同样是 W3Techs 提供的数据,图二就很能解释这个问题,只是中文网站数量少,并不是中文内容少。
- 微博 BugOS技术组
一个大模型需要多大 GPU 内存才能跑起来的计算公式
一个大模型需要多大 GPU 内存才能跑起来的计算公式:M = ((P * 4B) / (32 / Q) ) * 1.2
M: 所需的 GPU 显存,单位是 GB。
P: 模型的参数数量。例如,7B 模型有 70 亿个参数。
4B: 每个参数占用的字节数,这里假设每个参数占用 4 个字节(通常指 FP32 或 Float32 格式)。
32: 4 个字节等于 32 位。
Q: 加载模型时使用的位数。例如,16 位 (FP16/BF16),8 位 (INT8) 或 4 位 (INT4)。这通常称为量化。
1.2: 表示额外开销的系数,通常为 20%。这考虑了除了模型权重之外还需要加载到 GPU 显存中的其他数据,例如优化器状态、梯度等。
如使用 FP16 量化加载 Llama 70B 模型,计算过程就是
M = ( (70,000,000,000 * 4) / (32 / 16) )* 1.2 = 168 GB
- 微博 蚁工厂
大模型导航资源
分享个大模型导航资源,里面收集了几乎全部的模型,具有里程碑意义的论文,排行榜,测试集,训练框架,部署,应用,书籍等
github.com/Hannibal046/Awesome-LLM
- 微博 karminski-牙医
英伟达虽然欠下来了大量的“技术债务”,但在他看来“技术债务就像是幸存者的战斗伤痕。”
关于先做个垃圾出来,读《英伟达之芯》又看到了一个好例子:
3dfx 破产之后,一个加入英伟达的员工被英伟达的代码库震惊到了,“简直就像是癌症”“代码写得一塌糊涂,开发工具链也是一团乱麻,最重要的是,他们对此毫不在意”“他们一心只想着下一块芯片流片,其他什么都不顾。”
而之前 3dfx 的工作方式则是追求完美,他在那里写出的程序优雅,开发的系统条理清晰、注释详尽,但结果却是一败涂地。
他给的总结相当精辟,英伟达虽然欠下来了大量的 “技术债务”,但在他看来 “技术债务就像是幸存者的战斗伤痕。”
- 微博 i陆三金
媒体观察
AI 发展:训练数据即将遭遇瓶颈
训练数据即将遭遇的瓶颈已悄然浮现。有研究机构预测,到 2028 年左右,用于训练 AI 模型的数据集典型规模将达到公共在线文本总估计量的规模。换句话说,AI 可能会在大约 4 年内耗尽训练数据。与此同时,数据所有者(如报纸出版商)开始打击对其内容的滥用行为,进一步收紧了访问权限,这将引发 “数据共享” 规模上的危机。为此,开发人员必须寻找变通之道。
- 科技日报
全面拥抱人工智能 —— 访 360 集团创始人周鸿祎
我国人工智能大模型具有广阔发展前景,但要在全球大模型产业竞争中赢得主动,一是要充分发挥我国制度优势,与国外通用大模型展开竞争;二是充分用好我国工业种类齐全、场景众多的优势,将大模型和各种应用场景结合,推动一场新型工业革命,这是实现发展 “弯道超车” 的关键。
- 经济日报
国产 AI 舞台,站满了“90后天才”
从资本到产业对人才的大手笔抢先押注现状来看,有关 AI 的比拼,无疑不止算力,而更在于人才。
- 科创板日报
“国产英伟达”们,扎堆上市
因此,GPU 企业想要快速发展,必然离不开资本的助力,冲击上市仍是 “国产英伟达” 们获取资金弹药的重要途径。
而在等待资本市场的大门开启之前,它们也需要直面生存的考验。张建中曾直言,“摩尔线程目标为至少先存活 10 年”。在这场 “国产替代” 光荣而艰辛的征途中,中国算力企业的竞逐才刚刚开始。
- 财经天下WEEKLY
冷眼与嘲讽之后,谷歌的 AI 大模型翻盘之路
谷歌正在逐渐夺回大模型竞赛的行业关注度和开发者认同,反垄断大锤还尚未真正落下,谷歌获得了一个难得的发展窗口来在新的技术革新潮流中暂时站稳脚跟,为下一个人工智能时代真正到来前做好准备。
- 锦缎研究院
AI “爆改”快递行业的第二年
从简单的寄件、查件入手,到面向快递小哥打造 “知识库”、再到帮助完成业务信息的汇总整理,甚至到供应链的智慧控制,大模型在快递行业的能力正在被逐步释放。选择私有化部署模型、自研大模型的快递公司们都相信一点:大模型是值得的长期投资,它在快递行业的应用上限仍然有一个广阔空间等待发掘。
- 光锥智能
今日推荐
liriliri/aya
https://github.com/liriliri/aya
AYA 是一款内置 ADB 并基于其功能编写用户界面的桌面应用。相比于原始的 ADB 命令行输入,AYA 安装傻瓜,功能齐全,全图形化界面,一键操作,极大地提高用户效率。
开源之声
用户观点
最强开源终端模拟器 Ghostty 正式发布 1.0:原生 UI 体验、采用 Zig 编写、速度飞快、支持 Mac 和 Linux、支持 GPU 加速
观点 1:什么玩意?不支持 windows?我今晚就去提 issue,炮轰作者
观点 2:不至于,README 里有写是有计划支持 Windows 的。终端模拟器不支持 Windows 是非常常见的情况
观点 3:zig 比 rust 吹实在
观点 4:只要 C ABⅠ 在行业上占大头,zig 就永远实在。zig 直接调用 C 真的很爽!
观点 5:完全可以理解,等下就去试试。Who care Windows?
观点 6:和 Rust 写的 Warp 比如何?Zig 应用越来越多,好事。
观点 7:Warp 性能不太行,输出多了卡, 不知道后续的版本会不会优化
观点 8:目前在用 wezterm,感觉真正的 killer feature 是 multiplexing,tmux 快捷键记不住。目前看 ghost 没有 multiplexing,也没有 tmux integration,期待。
观点 9:好吧,我还是用 WinTerm 吧
观点 11:我看不懂源代码,所以不存在放心与否~
观点 10:你不觉得这玩意反应要慢半拍么,而且伪开源不让人放心。
观点 12:不知道跟 wezterm 比起来怎么样
观点 13:用上了,之前用 wezterm,个人感觉比 wezterm 更简洁高效。两个都很好。
观点 14:可以替换掉 iTerm2 了
观点 15:我用 powershell7.5
程序员梗图
References
http://www.ce.cn/cysc/tech/gd2012/202412/30/t20241230_39251115.shtml
https://baijiahao.baidu.com/s?id=1819927511172343210&wfr=spider&for=pc
https://baijiahao.baidu.com/s?id=1819926514777138655&wfr=spider&for=pc
https://baijiahao.baidu.com/s?id=1819915034550649526&wfr=spider&for=pc
https://tech.ifeng.com/c/8fjJTSFA8ou
https://github.com/liriliri/aya
https://mp.weixin.qq.com/s/jS984AtnzvXfNwjPVFakZg
END
↓分享、在看与点赞~Orz