01 我国科学家建立生成式模型为医学AI训练提供技术支持
从北京大学未来技术学院获悉,北京大学与温州医科大学的研究团队建立一种生成式多模态跨器官医学影像基础模型(MINIM),可基于文本指令以及多器官的多种成像方式,合成海量的高质量医学影像数据,为医学影像大模型的训练、精准医疗及个性化诊疗等提供有力技术支持。该成果已于近期在国际权威期刊《自然·医学》上在线发表。
医学影像大模型是利用深度学习和大规模数据训练的AI通用模型,可自动分析医学影像以辅助诊断和治疗规划。但要提升大模型的性能,就需要大量数据不断进行训练。然而,由于患者隐私保护、高昂的数据标注成本等多种因素,要获得高质量、多样化的医学影像数据往往存在障碍。为此,近年来,研究者们开始探索使用生成式AI技术合成医学影像数据,以此来扩充数据。
图为由MINIM生成的高质量医学合成图像(受访者供图)
“目前公开的医学影像数据非常有限,我们建立的生成式模型有望解决训练数据不够的问题。”北京大学未来技术学院助理研究员王劲卓说,研究团队利用多种器官在CT、X光、磁共振等不同成像方式下的高质量影像文本配对数据进行训练,最终生成海量的医学合成影像,其在图像特征、细节呈现等多方面都与真实医学图像高度一致。
实验结果显示,MINIM生成的合成数据在医生主观评测指标和多项客观检验标准方面达国际领先水平,在临床应用中具有重要参考价值。在真实数据基础上,使用20倍合成数据在眼科、胸科、脑科和乳腺科的多个医学任务准确率平均可提升12%至17%。
王劲卓表示,MINIM产生的合成数据具有广泛应用前景,可单独作为训练集来构建医学影像大模型,也可与真实数据结合使用,提高模型在实际任务中的性能,推动AI在医学和健康领域更广泛应用。目前,在疾病诊断、医学报告生成和自监督学习等关键领域,利用MINIM合成数据进行训练已展现出显著的性能提升。(来源:新华网)
02 联想或将带来全新的卷轴屏 PC
12 月 17 日,联想集团官方宣布,将在 CES 2025 上带来一款全新形态的笔记本电脑。
预告中,联想打出「这样才是「卷」的正确姿势」的口号。通过预告消息预测,联想或将带来全新卷轴屏 PC。
联想近年来,在笔记本电脑领域不断设计创新,带来多种颠覆性的全新设计语言。在今年内,联想展示了多款创意设计型笔记本电脑:
2024 CES 上,展示了笔记本电脑和平板电脑两种模式无缝切换的 ThinkBook Plus Gen 5 Hybrid;
2024 MWC 上,展示了旗下 ThinkBook 透明屏笔记本的概念机;
今年 9 月,展示了全球首款自动旋转屏 AI PC—ThinkBook Auto Twist。(来源:爱范儿)
03 英伟达 RTX50 系列首批显卡曝光
近日,videocardz 使用谷歌等 CSI 工具定期检查泄露信息时,在索泰官网发现了首批 RTX 50 系列显卡的踪迹,共 5 个型号。具体型号为:
GeForce RTX 5090(32GB GDDR7 显存)
GeForce RTX 5090D(国内特供)
GeForce RTX 5080
GeForce RTX 5070 Ti
GeForce RTX 5070
目前,英伟达已确定在 2025 年 1 月 7 日 CES 2025 上举行主题演讲活动,届时将推出新一代显卡,RTX 50 系列或将登场。曝光信息中获悉,RTX 5060 系列将会稍晚发布。(来源:爱范儿)
04 英特尔锐炫 B580 显卡获普遍好评,上市即售罄
12 月 18 日消息,今年对于英特尔而言是充满挑战的一年,但其独立显卡业务近期传来好消息。售价 2049 元的 Arc(锐炫)B580“Battlemage”(战斗法师)显卡于本月 13 日上市,收获了普遍好评,且已迅速售罄。英特尔方面向 The Verge 表示,正努力每周补充库存。
英特尔发言人 Mark Anthony Ramirez 表示:“市场对 Arc B580 显卡的需求非常高,许多零售商的首批库存已经售罄。我们预计每周都会补充英特尔 Arc B580 限量版显卡的库存,并与合作伙伴合作,以确保市场上稳定的产品供应。”
众多评测媒体对这款显卡给予了高度评价,以下是一些标题示例:
在某种程度上,B580 是 GPU 市场中的一股清流。其主要竞争对手 —— 英伟达 RTX 4060 和 AMD RX 7600—— 在过去一年里的表现未能达到预期,而此前 GPU 市场又经历了多年价格虚高。“Linus Tech Tips”曾将售价 300 美元的 4060 形容为“令人失望的产品”,现在却认为 B580“物美价廉”。
评测显示,B580 并非在所有游戏中都优于 4060 和 7600,尤其是在 1080p 分辨率下。但总体而言,B580 的平均表现更胜一筹,驱动程序也更加成熟,更低的售价和 12GB 的大容量显存使其更具吸引力。(来源:IT之家)
05 小型语言模型:AI领域的新热点
多年来,谷歌等科技巨头和OpenAI等初创公司,一直在不遗余力地利用海量在线数据,打造更大、更昂贵的人工智能(AI)模型。这些大型语言模型(LLM)被广泛应用于ChatGPT等聊天机器人中,帮助用户处理各种各样的任务,从编写代码、规划行程,到创作诗歌等。
自ChatGPT面世以来,AI模型便在变大、变强之路上“狂奔”。但喧嚣过后,科技公司也越来越关注更小、更精简的小型语言模型(SLM)。他们认为,这些小巧玲珑的模型不仅“术业有专攻”,而且部署成本更低廉、更节能。
未来,这些规模不一的AI模型将协同工作,成为人类的左膀右臂。
小型语言模型在简单的专业领域可能更有优势
小型模型独具优势
随着AI技术突飞猛进,AI模型的“块头”与日俱增。ChatGPT的缔造者OpenAI去年夸耀称,其GPT-4模型拥有约2万亿个参数。参数表示AI模型的大小,一般参数越多,AI模型的能力越强,庞大的参数量使GPT-4成为迄今最强大的AI模型之一,能回答从天体物理学到动物学等多领域包罗万象的问题。
但是,如果某家公司只想借助AI模型解决特定领域(如医学)的问题,或者一家广告公司只需一款AI模型来分析消费者行为,以便他们更精准地推送广告,GPT-4这类模型就有点“大材小用”了,SLM反而更能满足用户们的要求。
美国《福布斯》双周刊网站在11月的报道中,将SLM称为AI领域的“下一个大事件”。
微软公司生成式AI副总裁塞巴斯蒂安·布贝克表示,虽然SLM的参数量目前并没有统一标准,但大约在3亿到40亿个之间,小巧到可以安装在智能手机上。
专家声称,SLM更胜任简单的任务,如总结和索引文档、搜索内部数据库等。
法国初创公司LightOn的负责人劳伦特·都德认为,与LLM相比,SLM拥有诸多优势:首先,这些模型的反应速度更快,能同时响应更多查询,回复更多用户;其次,SLM部署成本更低,能源消耗也更少。
都德解释道,目前很多LLM需要大量服务器来进行训练,然后处理查询。这些服务器由尖端芯片组成,需要大量电力来运行,并进行冷却。而训练SLM所需芯片更少,运行耗费的能源也更少,这使其更便宜、更节能。
SLM还可直接安装在设备上,在不依赖数据中心的情况下运行,这能进一步确保数据的安全性。《福布斯》表示,SLM能以最少的计算资源执行各种任务,使其成为移动设备、边缘设备等的理想选择。
AI模型掀起“极简风”
谷歌、微软、元宇宙平台公司以及OpenAI等公司闻风而动,推出了各种SLM。
去年12月底,微软公司正式发布了只有27亿个参数的语言模型Phi-2。微软研究院在其X平台官方账号上表示,Phi-2的性能优于现有其他SLM,且能在笔记本电脑或移动设备上运行。今年4月,微软又推出了只有38亿个参数的Phi-3系列模型。
今年8月,微软公司再接再厉,推出了最新的Phi-3.5-mini-instruct。这款SLM为高效、先进的自然语言处理任务量身打造。9月,英伟达公司开源了Nemotron-Mini-4B-Instruct。该公司表示,这款SLM特别适合边缘计算和设备端的应用。报道称,这两款SLM在计算资源使用和功能表现之间实现了良好平衡。在某些方面,其性能甚至可媲美LLM。
OpenAI也不甘示弱。今年7月,OpenAI公司发布了GPT-4o mini,称其是该公司最智能和最实惠的SLM。
此外,亚马逊公司还允许在其云平台上使用各种规模的AI模型。
其他公司也纷纷开发更适合自身需求的SLM。例如,美国制药巨头默克公司正与波士顿咨询集团(BCG)合作开发一款SLM,旨在探究某些疾病对基因的影响。这将是一款参数介于几亿到几十亿之间的AI模型。
大小模型作用互补
虽然SLM在效率等方面具有独特优势,但LLM在解决复杂问题、提供更广泛的数据访问方面仍然具有极大优势。
展望未来,LLM和SLM两种模型将“是朋友而非对手”,它们之间的协作交流将成为主流趋势。
当遇到用户提出的某个问题时,一款SLM会“一马当先”,理解这个问题,再根据问题的复杂性,将相关信息发送给几个大小不一的AI模型。这些模型“群策群力”“并肩携手”为用户解决难题。
目前市面上的AI模型要么太大、太贵,要么处理速度太慢。两者合作,或是最佳解决方案。(来源:科技日报)