01 “清朗·网络平台算法典型问题治理”专项行动启动
24日从中央网信办获悉,为进一步深化互联网信息服务算法综合治理,自即日起至2025年2月14日,将开展“清朗·网络平台算法典型问题治理”专项行动。
根据通知,专项行动重点整治同质化推送营造“信息茧房”、违规操纵干预榜单炒作热点、盲目追求利益侵害新就业形态劳动者权益、利用算法实施大数据“杀熟”、算法向上向善服务缺失侵害用户合法权益等问题。
根据通知要求,网络平台要构建“信息茧房”防范机制,提升推送内容多样性丰富性;严禁推送高度同质化内容诱导用户沉迷;不得强制要求用户选择兴趣标签,不得将违法和不良信息记入用户标签并据以推送信息,不得超范围收集用户个人信息用于内容推送。
平台要全面公示热搜榜单算法原理,提升榜单透明度和可解释性;完善榜单日志留存,提高榜单算法原理可验证性;健全水军刷榜、水军账号等违规行为、账号检测识别技术手段,严管不法分子恶意利用榜单排序规则操纵榜单、炒作热点行为。
通知明确,严防一味压缩配送时间导致配送超时率、交通违章率、事故发生率上升等问题;详细公示时间预估、费用计算、路线规划等算法规则。严禁利用用户年龄、职业、消费水平等特征,对相同商品实施差异化定价行为。
通知提出,健全算法机制机理审核、数据安全的管理制度和技术措施。确保算法的训练数据具有合法来源,及时检测修复代码安全漏洞和算法逻辑缺陷,定期对算法模型的可用性、可控性、可解释性以及数据处理、模型训练、部署运行等环节开展安全评估。
专项行动还提出算法导向正确、公平公正、公开透明、自主可控、责任落实等工作目标,以及抓好组织落实、依法依规处置、压实平台责任、推动长效治理等工作要求。(来源:科技日报)
02 旧手机流通如何更放心?
中国物资再生协会数据显示,在我国平均每年产生的6亿至7亿部废旧手机中,回收处理量为2亿至3亿部。随着手机更新周期逐渐缩短,手机的报废量越来越大。根据行业数据测算,“十四五”时期,我国手机闲置总量将达到60亿部,二手手机潜藏价值超6000亿元。
国务院印发的《推动大规模设备更新和消费品以旧换新行动方案》提出,“支持二手商品流通交易”。如今,许多消费者通过二手平台或线下门店交易闲置手机,实现变“废”为宝,让旧手机循环再利用。
总体来看,当前旧手机流通的规范化、标准化、便利化水平在不断提升,但同时,数据泄露风险、价格不透明、分级评定体系不健全、售后保障不足等问题依然存在,成为旧机流通中的痛点和难点。如何让二手手机流通更顺畅、交易更放心?
选择正规平台,确保交易可靠
当前,不少消费者选择互联网平台交易旧手机。中国消费者协会有关负责人表示,如果广大消费者通过平台或网络进行交易,建议尽量选择正规的、有一定知名度的,以及有相对完善的售前、售中、售后及退赔服务流程的平台进行交易。这些平台通常有严格的物品审核查验机制,并提供交易保障服务,且具备较强的技术实力,以确保交易的安全与可靠。
在售前和售中环节,正规平台都有较为完善的线上线下回收网络,便于消费者快捷、高效地让手机“转”起来。
闲鱼首席技术官陈举锋介绍,依托“互联网+回收”模式,闲鱼为手机数码用户提供上门回收、门店回收、邮寄回收等多种形式的服务,其中上门回收覆盖100个城市,可做到当面质检、当面收款。同时,闲鱼也开设了线下循环商店来提供更便捷的线下回收服务,并运用人工智能算法提升门店运营效率,通过大模型智能估价和发布,缩短用户排队、商品上架的时间,提升商品估价的精准性。
再者,正规平台对二手手机有着完整明确的质检、定级标准和流程,确保平台根据商品状况的不同公允定价。另外,正规平台对商品情况会有详细的展示页,将商品完整情况及定价诚实地告知消费者,相关客服人员也会快速响应消费者需求和问询。
“二手循环行业是天然的信任经济,只有高标准才有高质量。”转转集团首席执行官黄炜介绍,公司研发出一套二手手机回收鉴定标准,设立404道工序。质检后会根据功能、新旧、成色等,对手机进行“分类分级”,比如九九新、九五新、九成新、八成新等,最后再重新上架。
在售后及退赔环节,若消费者对交易不满意,或者商品出现问题和瑕疵,可以和正规平台协商退换货或者快速维修。
强化科技赋能,保障数据信息安全
全国多家消协组织调研发现,数据信息安全成为影响用户处置废旧手机的最大因素,担忧个人信息泄露往往导致许多人对旧手机“不敢卖”。中消协有关负责人建议,消费者在流转旧手机时,应选择具有良好旧机数据清除服务能力的流通平台与企业,以保障信息安全。
中国再生资源回收利用协会秘书长唐艳菊表示,当前,不少龙头平台与企业在做好隐私保护上狠下功夫,相关经营主体持续加强科技创新,使用深度清除软件多次清除设备数据,将回收的旧机恢复到出厂设置状态。这样不仅可以保护原机主用户的隐私,同时也尽量让设备在出售前达到数据清洁的状态,确保用户的隐私数据不可被恢复。
万物新生(爱回收)集团执行总裁王永良介绍,为保护用户数据安全,公司除了为用户面对面做隐私数据清除外,还会在后端运营中心,通过自主研发的数据清除技术对旧手机进行深度数据清除。在这之后,用户会收到一份隐私清除报告,较好保障消费者知情权与公平交易权。(来源:人民日报)
03 黄仁勋:AI 的开放研究是全球性的
近期,英伟达 CEO 黄仁勋访中国香港,参加了香港科技大学的荣誉博士学位颁授典礼及博士毕业典礼,同时还被授予港科大的工程学荣誉博士。
在致辞中,黄仁勋表示,AI 时代已经开启了一个全新的计算纪元,这一纪元将深刻影响各种行业和科学的每一个领域。他认为,「AI 无疑是我们这个时代最重要的技术,也可能是所有时代最重要的技术。」
在采访环节时,黄仁勋还强调,AI 的开放科学和开放研究绝对是全球性的,未来没有什么能够阻止这一点。(来源:爱范儿)
04 AMD 被曝明年 1 月末推出锐龙 9 9000X3D 处理器,仍单颗 3D 缓存
11 月 25 日消息,X 平台消息人士 Hoang Anh Phu (@AnhPhuH) 本月 23 日表示,AMD 将于 2025 年 1 月下旬推出 12 核及 16 核设计的新 X3D 处理器,应分别对应锐龙 9 9900X3D 和锐龙 9 9950X3D。
这两颗锐龙 99000X3D 处理器预计将于 2025 年一月初的 CES 行业展会上发布;此外锐龙 9 9950X3D 对应的移动端平台型号也有望同期公开。
Hoang Anh Phu 还提到,AMD 在锐龙 9 9000X3D 上将沿用上代的“不对称” 3D V-Cache 配置,即仅单一 CCD 拥有额外 64MB 的 3D 缓存,另一颗 CCD 维持 32MB L3。
AMD 在锐龙 7 9800X3D 处理器上采用了有利于 CPU 核心散热与超频的 CCD 在上、3D V-Cache 在下立体设计,两颗锐龙 9 9000X3D 预计也将采用这一经改进的物理布局。
(来源:IT之家)
05 如何构建可信赖的AI系统
当前,人工智能发展方兴未艾,大幅提升了人类认识世界和改造世界的能力,同时也带来一系列难以预知的风险挑战。为帮助读者更好了解人工智能,本版今起推出“解读人工智能前沿技术趋势”系列报道,分析技术变革深层逻辑,凝聚智能向善共识。
近期,国内外一些人工智能(AI)产品问答内容价值导向错误的新闻频上热搜。随着AI技术的发展,AI的价值导向问题逐渐引发广泛关注,“构建可信赖的AI系统”的呼声越来越高。日前在2024年世界科技与发展论坛期间发布的《2024年人工智能十大前沿技术趋势展望》,就列入了“人机对齐:构建可信赖的AI系统”。2024年世界互联网大会乌镇峰会也聚焦AI,释放清晰信号——拥抱以人为本、智能向善的数字未来。
什么是可信赖的AI系统?构建可信赖的AI系统有哪些路径?记者就以上问题采访了相关专家。
可靠稳定是关键
随着AI在社会生活和各个行业中渗透程度的加深,其决策和行为的影响范围也日益扩大。例如,在医疗、交通、金融等高风险领域,AI系统的决策影响着人们的生命、财产与福祉,一些错误决策可能直接威胁到人类生命或财产安全。康奈尔大学约翰逊商学院讲席教授丛林介绍,AI在金融领域的应用主要包括资产管理、资产回报预测、资产定价等。“我们希望金融领域的AI要准确。我们并不需要它有发散思维或特别有创造力,而是希望它能给我们准确的答案,或是具有一定的稳健性。”他说。
“确保AI系统可信赖,已经成为AI发展不可忽视的要求。这不仅是技术层面的改进,更是社会伦理与责任的体现。”中国科学技术大学人工智能与数据科学学院教授王翔认为,可信赖AI系统不仅能让技术更好地满足人类需求,还能有效防范AI误判和偏见可能引发的负面效应。可信赖的AI系统不但要有优秀的预测、生成、决策等业务能力,而且在透明度、公平性、可解释性、安全性等方面也要符合用户预期。
其中,可解释性是指用户应能够理解AI的行为和决策流程,以便增强用户对AI的信任,并更好地加以利用。公平性要求AI的决策不应受到偏见影响,避免形成对不同群体的歧视。安全性则是指AI系统在运行过程中不会带来安全隐患,并能在一定范围内控制自身行为,特别是在极端或意外情况下要能保护人类安全。“AI系统还需要具备可靠性和稳定性,这要求它的表现在复杂和变化的开发环境中也要始终如一,不轻易受到外部因素干扰。”王翔说。
人机对齐是前提
那么,如何确保AI系统可信赖?王翔认为,人机对齐与构建可信赖的AI系统之间关系密切。“只有具备人机对齐特质的AI系统,才能进一步实现可信赖的特性。”他说。
从概念上看,人机对齐是指确保AI系统在执行任务、进行决策时,其行为、目标和价值观能够与人类保持一致。“这就是说,AI系统在自我优化和执行任务过程中,不仅要高效完成任务,还要符合人类的伦理和价值体系,不能偏离人类设定的目标或带来不良的社会影响。”王翔进一步解释,“尤其是在涉及社会伦理和安全的场景中,确保AI输出内容与人类的价值观和道德准则相符,是人机对齐的核心意义。”
如果AI系统没有经过人机对齐的过程,即使具备强大的功能和智能,也可能因不符合人类的期望和价值观而导致信任危机或负面影响。“因此,确保AI系统在目标和行为上与人类保持一致是构建可信赖AI系统的重要前提。两者的结合不仅能提升AI的表现,还可为未来AI在各领域的广泛应用奠定基础。”王翔说。
确保AI以人为本、智能向善,完善伦理和法律框架是重要发力方向。王翔认为,技术的进步往往伴随着新问题的发生,因此需要设立法律边界和伦理准则,为AI的发展提供指导与约束。这不仅可以减少AI应用中潜在的伦理风险,还能使AI应用更加规范和安全。此外,建设可信赖的AI系统需要跨学科合作,哲学、伦理学、社会学等学科的参与能为AI的设计与发展提供更全面的视角。
技术优化是手段
构建可信赖的AI系统,还需要在技术层面和应用实践中不断探索和完善。王翔介绍了三种主要的技术路径。
一是数据驱动路径。王翔认为,数据质量和多样性是实现可信赖AI的基础。训练数据的多样性可以有效减少模型中的偏见问题,确保系统决策更加公平、全面。“只有在庞大的优质数据基础上构建的AI模型才能适应广泛的应用场景,降低在特殊或极端条件下出现偏见的可能性。”王翔说,数据的安全性也至关重要,尤其是在涉及个人隐私的领域,保障数据安全可以提高用户信任度。
二是算法驱动路径。王翔说,算法的优化与控制是实现可信赖AI的关键手段。在模型的设计阶段,开发者可以通过设置伦理规则、嵌入人类价值观等约束条件,确保系统在实际运行中符合社会准则。同时,设计透明的算法结构有助于提升模型的可解释性,便于用户理解其运行机制,并为未来的模型更新和优化打下基础。
三是奖惩引导路径。王翔说,通过合理设计奖惩机制,可以让AI在不断试错和学习过程中,逐渐形成符合人类价值观的行为方式。例如,可以在奖惩系统中设置反馈机制,当AI的行为偏离预期时施加相应惩罚,引导其在自我训练过程中符合人类期望。同时,奖惩机制需具备时代适应性,确保AI系统能在运行中持续更新并优化自身。
这三种技术路径的侧重点各有不同。王翔解释,数据驱动路径主要聚焦于通过高质量、多样化的数据源减少AI系统的偏见,提升系统的适用性;算法驱动路径更注重模型的设计和透明性,使系统在行为逻辑上更符合人类预期;奖惩引导路径则侧重于在AI自我学习和优化过程中提供有效指引和反馈,让系统逐渐趋向人类认可的方向。“不同路径相结合,可以为实现可信赖的AI提供更加丰富的技术支持。”王翔说。
要构建可信赖的AI系统,还需在实际应用中不断进行迭代和优化。“通过多次评估和测试,可以在不同环境和条件下验证AI系统的性能,确保其在现实应用中的表现符合人类预期。”王翔说。(来源:科技日报)