01
AI与诺贝尔奖
王一:今年揭晓的诺贝尔物理学奖和化学奖得主都与AI有关。物理学奖得主是霍普菲尔德(John Hopfield)和辛顿(Geoffrey Hinton),表彰他们使用人工神经网络实现了机器学习的基础发现,这两位获奖者从20世纪80年代以来就已经开展了物理学和人工神经网络相关的交叉学科研究。而化学奖则是一分为二,一半是表彰贝克(David Baker)在蛋白质计算设计方面的共享。贝克花了十几年的时间,使用计算方法解析蛋白质折叠。而另一半则是颁给了哈萨比斯(Demis Hassabis)和江珀(John Jumper),表彰两位在蛋白质结构预测方面的贡献,也就是大家耳熟能详的AlphaFold。那么,请问本届诺贝尔奖和AI之间的联系有多紧密呢?
周熠:我觉得AI值得科学界的最高奖项,目前公认的便是诺贝尔奖。不过从狭义的物理学角度来看,据我个人以前的物理学学习经验,对于诺贝尔物理学奖似乎不是特别合理,包括霍普菲尔德本人都可能会觉得奇怪。但这可能有所预示,我想背后隐藏着深刻的意义,也是我们今天讨论的意义所在。而诺贝尔化学奖颁给AlphaFold,可谓实至名归。
黄海平:从AI对物理学本身的贡献来说,今年的物理学奖确实让人大跌眼镜,但如果我们好好解读的话,其实物理学本身的一些思想催生出了现在的AI概念、构架以及各种算法。得主之一的辛顿最开始研究的是波兹曼机,物理学家长期以来写哈密顿量以及原子的相互作用,而辛顿采用数据驱动的方法来学习原子间的相互作用。发展至今,当代的AI思想就是连接矩阵,通过数据来驱动。这一模式自1985年辛顿创立以来都没有发生变化,虽然我们的网络结构、各种算法一直在迭代,但基本思想始终如一。总结来说,辛顿使用物理学的基本概念,开创了神经网络的基本思想,由此催生了AI领域日后的发展。所以辛顿被誉为深度学习之父。
而霍普菲尔德和辛顿是同一时期的,他们实际上在思考同一问题:人脑的运作原理。辛顿运用物理学概念,比如能量、曲面、能量势能,来解决人类记忆形成的过程,把物理学概念引入脑科学研究之中,从而在神经生物中发展出一个全新的学科,我们如今称之为计算神经科学或者理论神经科学,在神经生物学领域形成了现象级的集体运动。
我们会追问,AI与大脑有什么关系?大脑与AI如何彼此促进?要回答这些问题,就离不开霍普菲尔德做出的科研贡献。正是霍普菲尔德从数学的角度去描述大脑,他的思想也奠基了一门与大脑有关的大学科。所以今年的诺贝尔物理学奖强调的不是AI对物理的贡献,而是物理学的思想可以用来研究本世界最重要的两个研究对象:AI和大脑。研究大脑,能够推动AI工具的研发,而研究AI反过来也有助于理解我们人类本身,从而大大扩展了物理学的研究边界。所以,只要物理学思想深入别的学科,做出有利于其他学科发展的创新,那也应当给与物理学的认可。所以,我认为可以从这一角度来理解今年诺贝尔物理学奖的意义。
周熠:我想发表一些不同的观点。物理学思想对AI有帮助,霍普菲尔德的机器学习网路从物理学中得到启发,但AI也从很多其他科学,诸如您刚才提到的神经科学、脑科学,还有逻辑学、社会学、心理学也得到了很多启发。所以说,AI是很多学科的孩子,不仅限于物理学。
叶盛:几年前AI新技术刚刚兴起的时候,我就预言过AI迟早会得诺贝尔奖,但放在哪个领域内比较合适呢?我曾猜测会属于生物领域,因为涉及到神经网络。所谓神经网络,尤其是卷积神经网络早期的很多架构和我们视觉皮层的工作原理高度关联。我们大脑后部枕叶区域是我们的视觉皮层,视觉皮层上下分了很多层神经网络。所以,对于图像处理,首先会提取出非常小的图元信息,比如某一小块图元里面是不是一条垂直线还是一条斜线。而且我们不同的视觉神经元对于不同角度的线都会产生敏感的视觉信号。随后,通过这些小的斜向线段,再往上传递一层,就能提取出相对完整的信息。接下来,这个信息再继续往上提取一层,才最终获得了一般意义上所理解的图像,比如出现轮胎还是汽车这样的概念。
所以,从AI的角度看待程序中的神经网络,运作原理也非常类似,使用卷积的小块,一点一点提取出图像中的信息,再层层向上汇总。所以,人工神经网络与我们人体内的神经网络有着非常切实的联系。最早的架构的确从视觉神经的工作原理中得到灵感。无论AI归属诺贝尔奖的哪一个方向,都值得一个诺贝尔奖。
王一:叶老师介绍了神经网路的工作原理,但您之前也提过蛋白质结构也应该得奖。
叶盛:的确如此。这些年,其他的科学奖项成为了诺贝尔奖的风向标,例如著名的拉斯克奖,这一个奖项主要关注医学相关领域内的科研成就,也包括了生物学领域。去年,拉斯克奖就颁给了DeepMind公司开发AlphaFold的两位科学家。
另一方面,我本人也利用AI展开蛋白质设计。蛋白质设计获得诺贝尔奖主要出于以下两个原因:首先,蛋白质的结构及其复杂,而蛋白质的序列空间又很大。具体来说,蛋白质需要经过复杂的折叠过程,形成一个明确的三维结构,才能进一步行使蛋白质分子功能。所以涉及分子结构与功能,自然属于化学领域。
以前,科学家使用X射线晶体学方法,后来出现了冷冻电镜,这也是前几年获得诺贝尔奖的成果。但无论使用哪种方法来检测蛋白质结构,都是一件非常困难的事情,而且还不一定能给出结果。许多科学家研究了几十年的蛋白质结构,最终都无法给出明确的解析。这时候,就有人想到说,能不能通过计算方法,从化学的一维序列开始,直接计算推导出最终的三维结构,也就是如今的蛋白质结构预测。
另外一件事情就是蛋白质设计。天然蛋白质无法直接当做药物来使用,也不能直接当疫苗。为了能够得到可以治疗某种疾病的蛋白,我们就必须要改造天然蛋白,进行整体上的重新设计。如此一来,我们就面临着一个巨大的数据空间探索问题,因为氨基酸链上的每一个位点上都有20中氨基酸可供选择,这就会出现多少种可能的序列组合呢?结果就会是20 x 20 x 20 x …… 那对于有50个残基的蛋白质,其实是非常微小的蛋白质,但可能的序列空间已经达到2050了,大概是1065,我们全部已知化学小分子的化学空间、药物化学小分子的化学空间是1060,我们整个银河系里全部原子的数量是1067,所以如此微小的蛋白质的序列空间已经如此浩瀚。如果想找出哪一条序列能够满足我所需要的功能,就几乎相当于在宇宙里捞针。
当我们有大量的数据,有巨大的空间去探索,而且还不知道其中的规律,这恰恰是非常适合AI发挥功能的场景。贝克这两年在使用AI之后,他的蛋白质设计如虎添翼,经常在《自然》、《科学》等顶级期刊上发表文章。
王一:那么AI的学习能力是如何形成的?要学习多少蛋白质结构才能做出比较准确的预测?
叶盛:我们现在谈论的AI主要是基于语言大模型的通用模型,实际上这样的AI很难解决科学问题。在科学领域中,我们运用到的AI首先有一个非常明确的科学内核,所以数据之间也有着非常明确的对应关系。无论是蛋白质设计还是蛋白质结构预测,对于三维结构,需要对应的数据组就可以了。但是,科学研究中的数据和一般意义上语言模型的训练数据相差甚远。我们已经有一个数据库,包含着整个人类已知的蛋白质结构,就是国际蛋白质数据库(protein data bank),直到今天,全部加起来只有个22万多个结构坐标。听上去和那几十亿好像没法儿比,但是AlphaFold的确能预测蛋白质结构,因为蛋白质折叠中所蕴含的模式(pattern)其实有限,而且这有限的模式已经在这22万个甚至更少的结构中得到了充分揭示。那么只要训练数据,而且模型架构合理,结果就有机会发现折叠模式。
数据的多与少并不是看数字本身的问题,并不是说几十亿就算多,22万就是少,真正要解决的是背后模式的复杂程度。如果模式非常复杂,那么确实需要非常多的数据和参数才能完成预测。反之,可能并不需要这么多数据和参数的模型网络。
王一:机器学习和人的学习是一样的吗?机器学习是如何进行的?
周熠:首先,机器学习和人的学习很不一样,不过也有借鉴之处。而通用的机器学习可以用同一的方式来表示,因为绝大部分事情我们可以表示成函数关系:有输入,有输出。比如说,人脸识别输入的就是人脸,输出的是它的ID;下围棋输入的是棋盘,输出的就每一步棋的走法;对话也是如此。函数通过输入和输出,从而组成数据对。那么,机器学习通过怎样的原理来学习呢?当这些输入-输入对跟我们真实的输入-输出对产生不一致的时候,就会产生反馈,我们随后根据反馈来调整函数本身的结构。
于是就产生以下两个问题:首先,函数长什么样?这涉及到机器学习不同的方法。我们现在所熟知的,包括这次获得诺贝尔奖的,都是用神经网络方法,它借鉴了人类生物的神经系统。但实际上,除了神经网络,还有很多方法来表示函数,比如说统计学方法;逻辑方法。所以问题就是我们用什么来表征函数,神经网络是一个通用模拟器,而且在很多实践中都做得很好。
第二个问题是机器如何通过反馈来改变函数参数?也是大家主要讨论的问题,目前机器学习的主要参数改变方式是反向传播。我们把输入-输出对和真实的输入-输出对误差传递给函数,然后通过各种方式把同样的误差传递到函数的很多参数里面,就形成了学习过程。所以,从理论上来讲,只要我们有足够的数据,我们传递的方法足够好,那么这个函数就越来越学得像我们,这就是大致的工作原理。
黄海平:从物理学角度来看如何理解学习,我们到底需要多少数据量。其实,AI基本上可以算作是矩阵计算,通过矩阵,每个函数里面都一层套着一层的矩阵,然后在微观层面把矩阵拆开,展开成向量,这像高维空间的粒子一样。对于三维空间,我们普遍都能感受到亲切感,而高维空间几乎想象不到,其实,AI就是在高维空间运算的机器,可以把它现象成一个粒子。
而对于矩阵的学习,一般都要初始化,给它目标函数,相当于告诉它你要到哪里去。然后,如果有目标函数,同时又有初始化,那就相当于对应着物理学的语言。给粒子一个位置,我要让它跑到比较好的位置,可以设定一个能量最低点,让它滚到最低点里面去。这是,你施加一个初速度去驱动粒子,它就会在能量面中,往势能最低的方向走,一直在滚动。当滚动到最低点的时候,你再测试它的模式,就觉得可以了。所以,我们的学习实际上是粒子在势能面上滚动或者说梯度下降的过程。我们可以称为布朗运动也好、随机行走也好,总之有各种各样的技巧。用物理学的语言可以这样来翻译机器学习的过程。但大脑是不是这样的,目前普遍认为不是的。因为大脑很多计算都是局部的(local),不是全局的(global),大脑这么大,并没有一个全局函数在控制它,没有一个额外的控制信号。所以,科学家仍争议不断。
另外一个关键之处就是数据量,为什么呢?我们从研究神经网络或者物理学的角度去看,根据过往的研究经验,当数据量增大到一定程度的时候,整个网络的性能会发生连续相变。所谓连续相变,我们可以以磁体为例,磁体是具有磁性的物质,当我们把温度升高的时候,它的磁性会消失;而当我们降低温度,磁性又会连续出现。神经网络也类似,当我们不断投喂数据,到了一定程度之后,突然之间神经网络好像就顿悟了,能理解其中的联系,于是我们就确定它能运作了。但是,具体哪个数据会让神经网络发生相变呢?这可能没有统一的回答,可能这个问题特别难,需要大量数据;也有可能这个问题稍微简单一些,需要的数据量就相对少一点。但无论如何,都存在发生相变的临界点。
从理论角度来看,我们必须先假设一个玩具模型。以tranformer模型为例,我们要假设知道transformer所有的矩阵,然后只给它投喂数据,看它能不能猜出那个矩阵,所以它的序参量就很好定义。因为存在两个矩阵:一个是猜测的,一个是真实存在的,所以比对一下或者计算一下欧几里得距离,当距离便零,我们可以认为它完全不知道;当距离开始变成非零,我们就可以认为它顿悟了。但对于真实的情况,我们不知道模型去描述了它的真实解是怎样的,对现实世界我们是完全不知道,那个时候就只能拿一些东西去测试它,看它表现,那就很难定义一个序参量。所以,我们没有办法对真实的东西展开理论研究,理论研究只是抽象出一个模型,来定性地给与描述。
周熠:另外,我补充一下,相变不仅在AI领域很重要,在计算机科学,对诸如命题逻辑的可满足性也很重要。事实上,我们经常会看到对某一个问题发生急剧的改变(sharp change)。当然,在物理中相变一般是一个点,比如冰点是0度,水蒸气沸点是100度,不是一个区间。但在实验科学,尤其是AI工程科学,可能会有一个区间,我们会经常看到这样一个现象:一开始这个AI很不行,但到了某个临界区间的时候,它的性能表现突然上升得很快,然后再投喂更多的资源或数据,它反而没有更大的变化了。所以,相变这一点对于人工智能也是很重要的研究方向。
02
AI的研究方向
王一:这样一个蓬勃发展的时代给刚入行的研究人员提供了巨大机会。那么,未来AI研究会呈现出怎样的特点?AI科研的关注方向有哪些呢?
周熠:我们一直在探索AI各种乱七八糟搞笑的问题,发表了很多研究论文。最近苹果在《自然》上发文表明大模型的边界推理能力不行,提供一些合成数据反而会产生好的效果。争议不断,AI学科中的一个重点在于现在每一项AI技术都有自己的能力边界,包括大模型,AlphaFold等。我们研究的目的之一就是搞清楚并拓展AI的边界,难度不小。例如大模型的推理能力到底如何?大模型“幻觉”到底是怎么回事儿?如何减轻?
另外,作为应用学科,AI一定会应用于更多更广泛的行业,以展现自己的价值,例如像AlphaFold这样的优秀应用实例,以后还会有更多,除了AlphaGo之外,DeepMind还研发除了AlphaMaths,能够做IMO的题目,据说能够拿到银牌水准。
最后,我也认同AI理论方向也值得深入,拉近理论与现实,做到真正像空气动力学之于飞机一样,产生真正的帮助,目前还没有特别巨大、直接的影响,所以值得探索。
叶盛:根据我这两年使用AI做蛋白质相关工作中的一些发现和体会,大模型“幻觉”一直是为大家所诟病的问题,但在我所研究的领域内,我们最近恰恰发现它是可以做出贡献的。天然细胞只会使用20种基本氨基酸,极少情况下使用21种,只出现在极个别生物,所以我们在设计蛋白质的时候反而束缚了我们的手脚,也只能始终这20种氨基酸,但实际上药物分子中需要插入一些非天然氨基酸,例如减肥神药司美格鲁肽,里面由两个残基属于非天然氨基酸,结果我们发现我们使用的蛋白质设计算法出现幻觉事实的时候,恰好对应于一些20种基本氨基酸之外的氨基酸,我们就完全可以把它作为非天然氨基酸加入药物设计中。而且设计合理,非天然氨基酸能够加强链接,加强相互作用,发挥好的效果。
其次,在密码子设计过程中,一般认为稀有密码子对蛋白质来说不是件好事,但我们最终生成的密码子设计模型,在生成过程中特别喜欢用稀有密码子,有时同一序列中出现多达5%的稀有密码子。我们随后抱着将信将疑的态度将序列合成出来,放到细胞里面,结果发现整个编码蛋白质的表达量有了五倍甚至十倍的提高。
这就是AI对于科学的另外一个贡献,让AI帮助我们发现先前科学探索过程中人类的盲区。我们曾经基于少量事实,过于自信,认为某一地方是错误的,但AI没有偏见,它全面探索之后告诉我们那个地方是好的,我们转过头来再去研究。例如,我们最近就在研究为什么稀有密码子放在编码里面反而会提高蛋白质表达量。
所以,我们不是把AI当做概率模型统计工具来使用,它可能会对科学范式产生革命。
对于AI的未来,如果我们对于人类大脑的运作原理认知取得进展,对于大脑的高级思维活动背后的神经工作原理能够产生更加透彻的理解,我相信就一定能帮助到AI。
黄海平:从理论角度来说,我们关心两个问题:AI的局限和边界;即便强调AI边界的存在,那么要超越边界需要做什么。
我相信未来AI的趋势有以下两方面,第一方面已经越来越明显,在AI助推之下,对于开创性研究的呼吁和需求会越来越高,而渐进式研究,即围绕一个新科学概念进行的渐进式研究可能会被AI所“蚕食”,当然,这也是AI能力之所在,是必然。但对于开创性研究,AI目前还做不到。因为在训练AI的时候我们总是要提供一些例子,要运行量,要有数据库,但是开创性研究是从无到有,想到他人之所未想,反直觉的,而AI的计算原理是通过统计关联,通过打分实现,对于反直觉的小概率事件AI打分是很低的。而且AI在哪里打分取决于人的品味、审美、生活经历,但AI既没有生活经历,也没有社会体验,反而成为了AI的短板。所以AI可能会对教育和渐进式科研产生巨大冲击,例如刷题式教育,依靠在已有概念下不断训练思维能力,无论人训练到什么程度,都无法打败AI,也许以后会出现高考满分的AI。
但是,对人类来说,好处是我们终于可以迎来开创性研究暴发的时代。
周熠:虽然现在AI做开创性研究,创造新的概念和体系可能不行,但不代表未来的AI也做不到。另外,AI肯定还是由边界的,现在以及将来我们人类还是有很多事情可做,而且AI在很多人类看上去很容易的事情上做得反而不好,比如说水管工,AI还需要很大的努力。
另一方面,幻觉和头脑风暴,有时候我们需要头脑风暴去触类旁通,看上去和幻觉很像,但本质上有区别。幻觉是有基准真相(ground truth),而我们人类平常的一些认知还不算是基准真相。所以,幻觉和头脑风暴的联系与区别,以及它们分别能够对我们另辟蹊径有什么帮助,我觉得都值得探索。
03
AI的未来挑战和畅想
王一:未来AI对整个世界产生怎样的影响?
叶盛:在科幻领域中,关于AI的幻想数不胜数,其中有一些可能距离我们已经不那么遥远了。在近未来,我觉得AI能够成为我们真正的助手,是那种在我们生活中方方面面给与我们全面帮助,处理一些琐事。就像我们今天人手一部智能手机,未来我们可能人人都有一个专属于你的定制化AI小助手。
黄海平:回顾几千年前的古希腊哲学家,他们天天聊天,反观我们今天一直在处理各种杂事,好像就没有时间停下来好好思考,如何放飞自己的思想,也许未来在AI助手的帮助下,我们有更多时间可以畅想还有什么事情可以去做,这是我希望的以后AI时代的理想状况。
周熠:辛顿说过:“我们感到害怕。”AI发展太快了,我预想中ChatGPT这样的工作可能需要到2030年左右,但进展太快了,让我难免有些害怕。而且现在AI已经能够从某种程度上成为我们的助手,比如一些非专业文稿,图片生成,都可以用AI实现,而且可能会涉及诈骗等犯罪行为,所以我觉得可以用恐怖来形容。
智能革命在未来三到五年,甚至五到十年,我想就类似于当年个人电脑和互联网革命一样,会以难以想象的方式来影响生活,这一波还会面对我们人类最重要的能力:智力。我们要未雨绸缪,做好心理准备:拥抱这样一个时代可能会付出的代价。
另一方面,人总是会找到自己的舒适区,找到自己想要做的事情。虽然现在还不明朗,但哪怕AI未来足够发达强大,逼迫人类的反而可能还是人类自己,需要学习更多的东西。我对这方面反而有点悲观,技术的发展好像让大家变得越来越累,但希望AI能够反转这样的情况。
黄海平:我也听过这样的观点,虽然现在的AI可能一方面给我们解决了很多问题,但如果大家太依赖于它的文本和创作,那是否会在某种程度上扭曲人类原有的文明?甚至把新生代的人类大脑塑造成数字大脑(digital brain)而不是生物大脑(biological brain)?因为大脑接触到的信息一旦发生改变,大脑就会调整自己的突触、学习和连接,最后人人都变成数字计算机。那原有的文明是否就消失了,这是一个巨大的担忧,所以AI的治理和安全管控这一方面也需要非常严格,而非放任AI在互联网上肆意侵蚀、污染人类原有的文明。
王一:在我们真实世界中,我们似乎并没有准别好人工智能伦理。
周熠:三年前,当大家问我AI伦理的时候,我会回答:“不着急,AI还没这么牛。”但是现在我的答案完全相反,不仅是科学家,还是整个社会都要开始严肃考虑AI与人类之间的关系了。
单体的智力游戏,除了科学、数学之外,我们已经很难找到人类打败AI的例子了,包括围棋、辩论。我们已经到了时间节点,可以用agent方法来调用各种不同AI。但与此同时,AI伦理却落后于AI发展,这个应该得到全社会的高度重视。
另外,我觉得可解释性非常重要,在神经网络中,有很多不可预测的东西会出现,可解释性就是一个重要方向。还有AI在实际使用中间的规范,当一个新技术出现的时候,总会出现负面东西,例如AI诈骗,会造成很大的社会治理问题。
黄海平:在另外一个层面,以后AI写作可能会慢慢侵入到我们严肃的科学研究和论文写作中,可能我们读到的论文说明就是AI写得,如果没有辨别能力,尤其是学生,没有经过严格学术训练的人,可能大家就都相信了。思想等各方面就被AI给带走了,这对于社会来说,对科研工作者来说,我们是否做好了准备,这也是一个非常重要的问题。
叶盛:我是一个技术乐观主义者,我认为任何科学也好、技术也好,它的最终使用结果还是在于人类怎样去驱动,我举一个可能不太恰当的例子,但我觉得有一些共通性:人类发明了刀具,即是可以伤害其他人的凶器,但也是我们日常生活中非常常用的重要工具。无论是在工业生产中,还是日常生活中,家家户户都离不开刀。如果我们看到有人用刀伤人,那我们就可以说当初发明刀就是错误的决定吗?我想从来没有人这样去想过,但我们会加强安检,加强刀具购买过程中的登记制度,总而言之,我们会在人的层面上想办法构建法律、法规和制度,解决安全使用的问题。所以,我认为AI工具也会如此,在科学领域我看到AI显然已经带来了帮助,让我们做出了以前做不到的进展。那它肯定也会给我们带来问题,一方面,我们需要看AI本身有没有什么技术手段限制被用于不好的方面。另一方面,我们也要在人类社会制度中寻找一些方向和方法,限制工具的不良用途。
周熠:截至去年为止,人工智能生成的图片已经超过了人类历史上所有图片的总和。我们现在已经是处于信息爆炸时代,以后AI生成的信息数量可能指数级的超级信息爆炸,甚至会变成信息垃圾海的时代。
另外一方面,AI可能也会给教育造成冲击,以怎样的方式教育儿童,也值得思考。AI发展滚滚向前,如何让AI成为好的工具,而不是反过来我们成为AI的工具,挑战很大。
黄海平:对,AI规范特别重要。今年年初《自然》上发表了一篇文章,研究用AI生成的东西再去训练AI,发现后来AI的性能还比不上用人类的数据去训练,所以大家都在质疑AI生成信息的质量,或者说它所包含的信息含量远远低于人类生成文本或者数据。例如我们在阅读AI论文的时候,会发现虽然标题特别好,但通篇内容都是形式主义,没有什么特别值得重视,日后可以进一步探索的实质性内容。那么,面对AI生成信息愈发泛滥的情况下,如果不采取规范,放任自流,对人类本身就是极大的伤害。
叶盛:我想要补充一个可能相反的信息,在AlphaFold出来之后,研究蛋白质结构预测的其他科学家并没有停止脚步,其中有一个流派猜想,如果我们使用AlphaFold造出来的预测结构数据,再拿回去以某种形式丰富它原来的数据,是否能够提高结构预测准确性呢?结果真的可以。所以,大家现在想各种各样的办法去玩数据,用来进一步提升性能,现在也是有相关研究成果出来的。
由于微信公众号乱序推送,您可能不再能准时收到墨子沙龙的推送。为了不与小墨失散,请将“墨子沙龙”设为星标账号,以及常点文末右下角的“在看”。
转载微信原创文章,请在文章后留言;“转载说明”在后台回复“转载”可查看。为了提供更好的服务,“墨子沙龙”有工作人员就各种事宜进行专门答复:各新媒体平台的相关事宜,请联系微信号“mozi-meiti”;线下活动、线上直播相关事宜,请联系微信号“mozi-huodong”。
墨子是我国古代著名的思想家、科学家,其思想和成就是我国早期科学萌芽的体现。墨子沙龙的建立,旨在传承、发扬科学传统,倡导、弘扬科学精神,提升公民科学素养,建设崇尚科学的社会氛围。
墨子沙龙面向热爱科学、有探索精神和好奇心的普通公众,通过面对面的公众活动和多样化的新媒体平台,希望让大家了解到当下全球最尖端的科学进展、最先进的科学思想,探寻科学之秘,感受科学之美。
墨子沙龙由中国科学技术大学上海研究院及浦东新区南七量子科技交流中心主办,受到中国科大新创校友基金会、中国科学技术大学教育基金会、浦东新区科学技术协会、中国科学技术协会及浦东新区科技和经济委员会等支持。
关于“墨子沙龙