欢迎来到WO们的科技世界!本文涵盖了多方面的科技动态,阅读正文约4000字,总阅读时间约为 14 至 16 分钟。
首先,我们深入探讨汽车自动驾驶现状,从 “萝卜快跑” 出发,剖析自动驾驶等级,着重探讨特斯拉技术的优势与问题,强调在反干扰方案成熟前,驾驶员无法完全解放双手,同时指出国内自动驾驶处于 L3 - L4 阶段,迈向全自动驾驶任重道远。接着介绍 Meta 创新的 AR 眼镜 “Orion”,详述其组成、工作原理及独特的大脑控制方式。最后剖析 2024 年诺贝尔物理学奖颁给人工智能学者的原因,回顾其在人工神经网络和机器学习方面的卓越贡献。此外,还有丰富的资源分享,包括经典好书和实用工具。
快来和我们来一同探索科技的奥秘吧!
PART1 科技新闻
Meta 发布创新 AR 眼镜。
Meta 推出了代号为 “Orion” 的 AR 眼镜。这款眼镜在继承了其他友商 AR 眼镜技术功能的基础上,有其独特的创新之处。它能够无线连接到一个小型 “冰球”,并且通过腕带组件来捕捉用户的神经信号,从而实现用户用大脑控制猎户座眼镜。
AR 眼镜简介
什么是AR眼镜?AR是advance reality的简写,意味增强现实,AR眼镜主要由光源(显示器)、接收器(眼睛)和光学元件(透镜)组成。其工作原理是将显示器上的图像投影到用户前方,与现实环境叠加。AR眼镜通常配有两个显示器,提供立体效果,增强3D感知。光学元件将眼镜中微型显示器的光与现实世界的光融合,将增强信息投射到现实中。通过光束整形透镜、耦合棱镜和光学透镜,微型显示器发出的光线在一定距离处成像,使用户的眼睛看到真实场景与虚拟图像融合后的画面。
新的 AI 模型可以实时产生 1993 年《毁灭战士》游戏的图像(参考新闻https://arstechnica.com/information-technology/2024/08/new-ai-model-can-hallucinate-a-game-of-1993s-doom-in-real-time/)
上周,来自谷歌和特拉维夫大学的研究人员推出了 GameNGen,这是一种新的 AI 模型,可以使用从 Stable Diffusion (一个文生图算法)借来的 AI 图像生成技术实时交互式模拟 1993 年的经典第一人称射击游戏 Doom。它是一个神经网络系统,可以用作有限的游戏引擎,有可能为未来的实时视频游戏合成开辟新的可能性。其中一位研究人员Dobos:“当 AI 可以为你思考每个像素时,为什么还要手动为软件编写规则呢?下图为生成画面:
图源:https://arstechnica.com/information-technology/2024/08/new-ai-model-can-hallucinate-a-game-of-1993s-doom-in-real-time/
汽车自动驾驶现状探讨:
今年8月,国产自动驾驶出租车“萝卜快跑”登录武汉等多地,一时间,自动驾驶一词再次爆火。汽车自动驾驶,这个一度作为未来代名词的技术,似乎就快要实现了,本专题浅显讨论一下自动驾驶。
图为目前公认的自动驾驶等级图,我们一般认为,达到L5即为实现了真正的自动驾驶。目前最为领先的量产车企是tesla,在今年4月,特斯拉在北美推送了FSD(特斯拉完全自动驾驶)V12,据国内媒体报道:无论是乡间小路,甚至小区,停车场都可以自动驾驶,几乎不需要人为接管,完全达到了“全自动驾驶”L5级别。但是笔者个人认为尚且不能这么认为,目前的自动驾驶方案,由于使用纯视觉方案,抗干扰能力不足,特斯拉Autopilot系统通过识别道路交通标线,实现对车道的识别和辅助控制。腾讯科恩实验室通过研究发现,在路面部署干扰信息后,可导致车辆经过时对车道线做出错误判断,致使车辆驶入反向车道。同时也有研究人员在速限号志贴上一截电工绝缘胶带,结果成功骗过特斯拉(Tesla)的电动车加速,突显出目前自驾系统面临的各种潜在漏洞。McAfee 的研究报告显示,技术人员用胶带横贴在时速「35」英里限速标志「3」数字正中间,这小小改变导致车辆误判速限为「85」英里,随即车子的巡航定速控制系统(Cruise Control System)自动加速。注:上述两实验均已经是只是2年前的实验,据传特斯拉已经解决这几个问题,但是事实上如果有不法分子干扰,视觉方案仍有很大可能性失效
综上,在开发出成熟的反干扰方案前,尚且不能认为驾驶员已经可以完全解放双手脱离监管。
另提一嘴,国内自动驾驶,包括萝卜快跑,一般认为处在L3-L4之间,萝卜快跑虽然车上没人,仍有安全监管人员在后台实时监控。在迈向全自动驾驶的这条路上,仍然道阻且长。
2024 为什么诺贝尔物理学奖颁给了人工智能?
2024年的诺贝尔物理学奖颁给了两位人工智能学者,约翰·霍普菲尔德(John Hopfield)(图1左)和杰弗里·辛顿(Geoffrey Hinton)(图1右),因为他们通过人工神经网络对机器学习方面形成的奠基性贡献。我相信这结果让大多数物理学家大失所望,毕竟物理学方面的成就也不少。自1901年首次颁奖开始,历届的物理学奖也从未给过其它专业的科学家,倒是反过来的有,比如居里夫人,1911年因发现元素钋(Polonium,对她出生国波兰的纪念)和镭获得诺贝尔化学奖,成为第一个两获诺贝尔奖的人。
图片来源:诺贝尔奖官方社交媒体
辛顿是大家熟悉的,他的成名作是与Rumelhart以及Williams于1986年在《Nature》上发表的误差反向传播算法。该算法让神经网络经历第一波寒冬后,重新走向人工智能的舞台。尽管该算法在数学界很早就有相关的研究,但应用于神经网络则是从1986年开始。只是,反向传播算法引发的热潮,在1995年左右很快又被统计机器学习盖过去,因为后者在当时既有严格的理论保证,也有比当时的神经网络更为出色的性能。结果,有将近20年的时间,人工智能的主流研究者都在统计机器学习方面深耕。即使2006年辛顿在《Science》上首次提出深度学习的概念,学者们仍然将信将疑,跟进的不多。
直到2012年,辛顿带着他的学生Alex在李飞飞构建的ImageNet图像大数据上,用提出的Alex网络将识别性能比前一届一次性提高将近10个百分点,这才让大部分的人工智能学者真正转向深度学习,因为以之前每届用统计机器学习方法较上一届提升性能的速度估计,这次的提高需要用20多年时间。
自此以后,人工智能开始相信,大数据、算力、深度模型,是走向通用人工智能的关键三要素。科学家们想到了各种各样的方式来增广数据,从对图像本身的旋转、平移、变形来生成数据、利用生成对抗网来生成、利用扩散模型来生成;从人工标注到半人工到全自动机器标注。而对算力的渴望也促进了GPU显卡性能的快速提升,因为它是极为方便并行计算的。但它也导致了对我国人工智能研究的卡脖子,因为目前几乎绝大多数学者和人工智能相关企业都认为硬件是对大数据学习的核心保障。深度模型的发展也从最早的卷积神经网络,经历了若干次的迭代,如递归神经网络、长短时记忆网络、生成对抗网、转换器(Transformer)、扩散模型,到基于Transformer发展而来的预训练生成式转换器(GPT),以及各种GPT的变体。
再说说霍普菲尔德。他的主要贡献是1982年提出的Hopfield
网络,如果从发表的时间节点来看,当时没有反向传播算法,这个网络的初期版本自然是无法通过误差反向来调优的。但这个网络当时发表在PNAS期刊上,文章的标题里有一个与物理相关的单词“Physical Systems”。网络的主要想法是,如果按物理学讲的能量函数最小化来构造网络,这个网络一定会有若干最终会随能量波动稳定到最小能量函数的状态点,而这些点能帮助网络形成记忆。同时,通过学习神经元之间的联接权值和让网络进行工作状态,该网络又具备一定的学习记忆和联想回忆能力。另一个与物理相关的是,构造该网络的设计思路模拟了电路结构,假定网络每个单元均由运算放大器和电容电阻组成,而每一个单元就是一个神经元。不过,这个网络从当时看,还是存在诸多不足的。比如只能找到局部最小值。但更严重的问题是:
尽管从神经生理学角度来看,这个网络的记忆能对应于原型说,每个神经元可以看成是一个具有某个固定记忆的离散吸引子(Discrete Attractor),但它的记忆是有限的,且不具备良好的几何或拓扑结构。
所以,便有了很多在此基础上的新方法的提出。比如1989年的Kohonen网络在设计时就假设有一张网来与数据云进行匹配,通过算法的迭代最终可以将网络完好地拟合到数据上,而网上的每个节点便可以认为是一个记忆元,或离散吸引子。这样的网络有更好的拓扑或几何表征。
另外,关于人的记忆是不是应该是离散吸引子,至今也没有终结的答案,比如2000年左右就有一系列的流形学习文章发表(Manifold learning)。这些文章在神经生理学方面的一个重要假设是,人的记忆可能是以连续吸引子形式存在的。比如一个人不同角度的脸,在大脑记忆时,吸引子可能是一条曲线的形式,或者曲面、或者更高维度的超曲面。人在还原不同角度的人脸时,可以在曲面上自由滑动来生成,从而实现更有效的记忆。在此理念下,仅考虑离散吸引子的Hopfield网络及其变体,自然就少了很多跟进的研究者。
随着深度学习的兴起,大家发现通过提高数据量、加强算力建设、扩大深度模型的规模,足以保证深度学习能实现好的预测性能,而预测性能才是保证人工智能落地的关键要素。至于是否一定要与大脑建立某种关联性,是否一定要有好的可解释性,在当前阶段并不是人工智能考虑的重心。也许,等现有的大模型出现类似计算机一样的摩尔定律时,人工智能会回归到寻找和建立与大脑更为一致、更加节能、更加智能的理论和模型上。
再回到人工智能与诺奖的关系。从今年诺贝尔物理学奖的得奖情况,和人工智能近年来对几乎全学科、所有领域的融入程度来看,也许,未来学好人工智能,很有可能会比拒绝人工智能的人,能更有效的工作、生活、形成新的重要发现,甚至争夺各个方向的诺贝尔奖。
注:文章来源: PRESS RELEASE, The Royal Swedish Academy of Sciences
https://www.nobelprize.org
PART2 每周工具
本周推荐一个本地段代码辅助工具Cursor,笔者评价伟大无需多言,附上下载连接,可以自行摸索:
https://www.cursor.com
具体原理以及其对比其他人工智能助手的优势见这篇公众号文章:
https://mp.weixin.qq.com/s/shmpkeH_FmZ53GZDpKimQw
PART3 每周资源分享
鉴于很多人似乎对人工智能很感兴趣,有一份很火的斯坦福机器学习自查表,大家可以作为机器学习入门教程,附上github链接:
https://github.com/afshinea/stanford-cs-229-machine-learning/blob/master/zh/cheatsheet-supervised-learning.pdf
好书推荐
《计算机网络:自顶向下方法》---计算机网络领域的经典之作。
推荐指数
这是一本近年来在计算机领域备受关注且广受欢迎的专业书籍,在计算机类书籍中具有较高的知名度和影响力,许多计算机相关领域的专业人士都对其高度认可并将其作为重要的学习参考资料。这本书以独特的视角,引领读者深入探索计算机网络的世界。
它按照从应用层到物理层的顺序进行阐述,恰似呈现了计算机网络的 “发展脉络”。展示了网络技术如何从满足基础的应用需求起步,逐步演进为如今复杂而高效的全球网络基础设施。从早期仅能实现简单文件传输的应用场景,发展到如今能够有力支撑云计算、物联网等大规模复杂应用的网络架构,清晰地揭示了计算机网络是怎样一步步奠定现代信息社会的基础地位的。
作者在书中并非单纯地罗列网络知识,更侧重于探究计算机网络背后的原理和发展规律。在网络技术不断演变的过程中,见证了从简单的有线连接发展到复杂多样的无线网络,从相对封闭的局域网扩展到覆盖全球的互联网。这究竟是技术的稳步进化,还是在复杂架构下迎来了新的挑战?人类在网络发展进程中是真正掌控了方向,还是在一定程度上受到网络复杂性的制约,例如网络安全等问题就日益凸显。
该书运用通俗易懂的语言和创新的讲解模式,将网络技术的各个细节置于计算机网络的整体发展历程中加以分析,让读者不再困惑于纷繁复杂且抽象的网络概念,能够准确把握计算机网络发展过程中最为核心、最具吸引力的部分。
这本书的内容广泛涉及计算机科学、通信工程、网络安全、软件工程等众多领域。同时,也涵盖了网络性能优化、数据传输效率、网络应用开发等诸多关键话题,不少读者认为它既是一部计算机网络技术的实用宝典,也是对网络技术深入探索的佳作。
本周科技新闻分享就到这里啦,我们下期再见~
·END·
资料整理:沃特福德学院科协
部分图文:源自网络
编辑:徐炜杰
审核:童磊 郑晓坤 丁媛媛
Waterford