资讯速递!2024年1—11月我国集成电路产量同比增长23.1%

科技   2025-01-09 14:21   北京  
将「芯果」设为星标”,第一时间收获最新推送

【通讯转载自网络|本文末尾注明出处】

2024年1—11月

我国集成电路产量同比增长23.1%

近日,工信部运行监测协调局公布了2024年1—11月份我国电子信息制造业运行情况。数据显示,2024年1—11月份,我国集成电路产量3953亿块,同比增长23.1%。

在生产方面,2024年1—11月份,规模以上电子信息制造业增加值同比增长12.2%,增速分别比同期工业、高技术制造业高6.4个和3.2个百分点。2024年11月份,规模以上电子信息制造业增加值同比增长9.3%。在主要产品中,2024年1—11月份,手机产量15.04亿部,同比增长8.9%,其中智能手机产量11.17亿部,同比增长9.3%;微型计算机设备产量3.06亿台,同比增长2.1%;集成电路产量3953亿块,同比增长23.1%。

在出口方面,2024年1—11月份,规模以上电子信息制造业累计实现出口交货值同比增长1.3%,较2024年1—10月份提高0.6个百分点。2024年11月份,规模以上电子信息制造业实现出口交货值同比增长6.9%。据海关统计,2024年1—11月份,我国出口笔记本电脑1.3亿台,同比增长1.5%;出口手机7.43亿部,同比增长2.7%;出口集成电路2717亿块,同比增长11.4%。

在效益方面,2024年1—11月份,规模以上电子信息制造业实现营业收入14.45万亿元,同比增长7.2%;营业成本12.65万亿元,同比增长7.3%;实现利润总额5653亿元,同比增长2.9%;营业收入利润率为3.9%。2024年11月份,规模以上电子信息制造业营业收入1.49万亿元,同比增长7.2%。

在投资方面,2024年1—11月份,电子信息制造业固定资产投资同比增长12.6%,较2024年1—10月份回落0.6个百分点,比同期工业、高技术制造业投资增速分别高0.5个和4.4个百分点。

来源:中国电子报 原文链接:https://laoyaoba.com/n/928869

工信部人工智能标准化技术委员会成立

近日,工业和信息化部人工智能标准化技术委员会(以下简称“人工智能标委会”)在京召开成立大会。工业和信息化部总工程师谢少锋出席,工业和信息化部科技司、北京市经济和信息化局、北京市海淀区政府负责同志,人工智能标委会主任委员郑志明院士,委员代表,以及相关行业专家参加会议。

为深入贯彻落实党中央、国务院有关决策部署,进一步发挥标准的基础性、战略性、引领性作用,推动人工智能高质量发展和高水平赋能新型工业化,工业和信息化部探索标准机制改革,成立部人工智能标准化技术委员会,编号MIIT/TC1,主要负责人工智能相关领域行业标准制修订工作,秘书处设在中国信息通信研究院。这是工业和信息化部成立的第一个标准化技术委员会,标志着人工智能行业标准化工作迈入新阶段。谢少锋和郑志明共同见证人工智能标委会揭牌。工业和信息化部科技司司长魏巍宣读了人工智能标委会成立公告。

同期,召开了人工智能标准化技术委员会第一次全体委员会议,审议通过了标委会章程、秘书处工作细则、标准制修订工作程序,以及2025年工作要点等文件。

来源:人民邮电报  原文链接:https://laoyaoba.com/n/928949


芯片设计行业转单中国台湾,联电急单涌入

在美国总统当选人特朗普正式就任前,半导体厂商担忧后续禁令可能扩大,IC设计公司转回中国台湾投片的转单效应显现,近期向晶圆代工厂联电投片量加大,在急单报到下,有助于提高联电产能利用率,降低传统淡季影响。

美国拜登政府启动对中国制造的成熟制程芯片展开贸易调查,可能会对来自中国大陆的芯片征收更多关税,这些芯片广泛用于汽车、洗衣机和电信设备等日常用品。

特朗普将在今年1月20日重返白宫,IC设计公司开始积极储备,陆续转单回中国台湾,降低后续高关税的冲击。

业界表示,联电近期迎来IC设计公司的转单、急单,主要以28nm/22nm制程为主,应用包括Wi-Fi、网络通讯等需求。

以联电28nm HPC/HPC+技术来说,广泛支持各种组件选项,以提升弹性及符合性能需求,同时针对多样的产品系列,例如应用产品处理器、手机基频、WLAN、平板电脑、FPGA及网络通信IC等。

至于联电的22nm制程技术,与28nm HKMG制程相比,具有将芯片面积减少10%的优势,同时具备更高的功率性能比和增强的RF性能。

联电日前预估,2025年晶圆产业显现复苏,产业库存经过几个季度调整后已恢复正常,但车用需要更多时间,预计要到第二季才会恢复正常,虽然现阶段客户保守,但研判全年晶圆出货会增加。

至于在定价方面,联电认为即使市场供过于求,公司价格策略会保持弹性,和客户共同提升市占率,着重在高端智能手机显示器、智能手机射频前端模块及产品组合优化。

来源:爱集微  原文链接:https://laoyaoba.com/n/929013

联发科、REDMI强强合作,Turbo 4首发搭载天玑8400-Ultra芯片


1月2日下午,REDMI Turbo 4智能手机正式发布,该手机全球首发搭载联发科天玑8400-Ultra旗舰芯片,既有旗舰性能,更有超级能效!

REDMI、联发科、Arm三方已达成合作,推出定制天玑8400-Ultra旗舰平台,升级全大核架构,以超高能效,重塑中高端性能格局。

通过三方强强合作,REDMI Turbo 4智能手机及天玑8400芯片将改变消费者对轻旗舰智能手机的期望。全大核架构的普及,将使得更多的用户能够享受到高性能、低功耗的智能手机体验。

随着生成式AI、5G等技术深入发展,全球智能手机市场呈现出新一轮发展动能,并驱动手机芯片不断进行技术架构等革新升级。天玑8400不仅首次采用全大核架构,还在CPU、GPU、NPU、影像和通信等方面进行一系列软硬件创新升级,成为联发科有史以来最“舍得”堆料的轻旗舰平台。

据介绍,天玑8400-Ultra芯片定位“全大核能效芯”,堪称天玑8系列史无前例的巨大升级,本次REDMI Turbo 4手机搭载的天玑8400-Ultra使用4nm工艺制程打造,首次采用全大核架构,首发新一代能效大核Arm A725,采用旗舰L2/L3/SLC超大缓存,以及旗舰同代GPU、NPU、ISP架构,实测主流游戏、重载游戏满帧畅玩,日常10大高频使用场景持久流畅。

具体来说,天玑8400-Ultra芯片的全大核CPU包含8个主频至高可达3.25GHz的Arm Cortex-A725大核,采用“1*3.25GHz + 3*3.0GHz + 4*2.1GHz”的架构设计,CPU单核性能提升10%,功耗相比上一代降低35%;CPU多核性能大幅提升41%,借助精准的能效调控技术,多核功耗相较上一代降低44%,适用于各种日常使用场景,包括游戏、音乐播放、视频录制和社交互动,为用户提供更持久、更可靠的设备体验。

天玑8400芯片搭载旗舰同级的Mali-G720 MC7 GPU,GPU峰值性能相较上一代芯片提升24%,功耗降低42%。该GPU支持硬件光线追踪,优化触控延迟,这将为用户带来更丰富、更身临其境的视觉体验,能够轻松应对复杂的游戏场景和高帧率的需求,进一步提升图形处理效果。

除了搭载天玑8400芯片等核心组件外,REDMI Turbo 4手机硬件上还配置了3D冰封循环冷泵,1.5K高光屏,6550mAh小米金沙江电池,升级双增压耐寒芯片,2.5D微弧边框,磨砂柔雾玻璃后盖,IP68级防尘防水等新特性功能。

来源:爱集微 原文链接:https://laoyaoba.com/n/928830







AI发展:训练数据即将遭遇瓶颈


得益于神经网络规模的扩大以及海量数据的训练,人工智能(AI)在过去10年间突飞猛进。“做大做强”的策略,在构建大型语言模型(LLM)上取得了显著成果,ChatGPT就是一个典型的例子。然而,《自然》《麻省理工科技评论》等多家杂志网站指出,AI扩展正逼近极限。一方面,AI“吞噬”着越来越多的能源;另一方面,滋养无数模型成长的传统数据集,正被LLM开发人员过度开垦。

训练数据即将遭遇的瓶颈已悄然浮现。有研究机构预测,到2028年左右,用于训练AI模型的数据集典型规模将达到公共在线文本总估计量的规模。换句话说,AI可能会在大约4年内耗尽训练数据。与此同时,数据所有者(如报纸出版商)开始打击对其内容的滥用行为,进一步收紧了访问权限,这将引发“数据共享”规模上的危机。为此,开发人员必须寻找变通之道。

数据集供需失衡

过去10年间,LLM的发展显示出了对数据的巨大需求。自2020年以来,用于训练LLM的“标记”(或单词)数量已增长100倍,从数百亿增加到数万亿。一个常见的数据集RedPajama,包含数万亿个单词。这些数据会被一些公司或研究人员抓取和清洗,成为训练LLM的定制数据集。

然而,可用互联网内容的增长速度出乎意料的缓慢。据估计,其年增长率不到10%,而AI训练数据集的大小每年增长超过一倍。预测显示,这两条曲线将在2028年左右交汇。

与此同时,内容供应商越来越多地加入软件代码或修改条款,阻止爬虫及AI抓取其数据。在这些内容中,被明确标记为限制爬虫访问的数量,从2023年的不足3%猛增到了2024年的20%至33%之间。

当前,围绕AI训练中数据使用的合法性,试图为数据提供商争取应有赔偿的多起诉讼正在进行。2023年12月,《纽约时报》向OpenAI及其合作伙伴微软提起了诉讼,指控其侵犯了版权;今年4月,纽约市Alden全球资本旗下的8家报纸联合发起了一起类似的诉讼。对此,OpenAI表示,《纽约时报》的诉讼“毫无根据”。若法院最终站在内容提供商一方,支持其获得经济赔偿,那么对于AI开发人员,尤其是那些资金紧张的学者而言,获取所需数据无疑将变得更加艰难。

新方法有待印证

寻找更多数据的一个途径是收集非公开数据,如社交媒体消息或视频文字记录。然而,这种做法的合法性尚存争议。一些公司选择使用自己的数据来训练AI模型,如Meta利用虚拟现实头显收集的音频和图像进行训练。但各公司政策不同,包括Zoom在内的一些公司则明确表示不会使用客户内容训练AI。

另一种选择可能是专注于快速增长的专业数据集,如天文学或基因组学数据,但其对训练LLM的可用性和实用性尚不清楚。如果AI接受除文本之外的多种类型的数据训练,可能会为丰富数据的涌入打开闸门。Meta首席AI科学家勒丘恩强调,人类通过观察物体而“吸收”的数据远超用于训练LLM的数据量,机器人形态的AI系统或许能从中获取经验。

此外,制造数据也是解决之道。一些AI公司付费让人们生成训练内容,或使用AI生成的合成数据来训练AI。这已成为一个潜在的巨大数据源。然而,合成数据也存在问题,如递归循环可能巩固错误、放大误解,并降低学习质量。

小模型更专更精

另一种策略是摒弃模型“越大越好”的开发观念。一些开发者已在追求更高效、专注于单一任务的小型语言模型。这些模型需要更精细、更专业的数据以及更好的训练技术。

12月5日,OpenAI发布了新的OpenAI o1模型。尽管该公司未透露模型的规模或训练数据集大小,但o1采用了新方法:在强化学习上投入更多时间,让模型对每个回答进行更深入的思考。这标志着一种转变,即从依赖大规模数据集进行预训练,转向更注重训练和推理。

当前,LLM可能已饱览互联网大部分内容,或许无需更多数据即可变得更智能。美国斯坦福大学一项研究表明,模型从多次读取给定数据集中学到的内容,与从相同数量的唯一数据中学习到的内容一样丰富。

来源:科技日报  原文链接:https://laoyaoba.com/n/928961



END







往期精彩回顾




欢迎关注






--- 关于我们 ---

芯果成立于2023年12月,是科技成果转化、科技领域投资投行服务的专业媒体平台。芯果团队是一群朝气蓬勃的超级小伙伴,依托教育背景,包括清华大学、北京大学、中国传媒大学、北京交通大学、河北大学等深厚的科研学术、科技产业积淀,以及管理团队过往在产业、资本领域积累的丰富资本市场案例经验,聚焦科技投资投行领域,重点关注人工智能、半导体及集成电路、新能源、智能汽车等各类创新。


转载、合作、加入粉丝群请联系小助理

(微信号:globalfinance007)

随手点赞👍,戳个在看

芯果
匠芯注入!链接科技成果与产业发展的有趣灵魂。
 最新文章