【解放日报】蒲慕明:目前最需要的科学家,不是只顾“钓鱼之乐”,而是“要钓大鱼”

发布时间:2025-02-28

眼下,中国脑计划(2030重大科技项目“脑科学与类脑研究”)第二期的五年规划正在制订中。大语言模型在很多方面比人类大脑似乎更为强大,我们还需要研究大脑吗?当下DeepSeek的“狂飙”给中国科学界带来哪些启示?解放日报记者专访了中国脑科学领域的重要领军人物——中国科学院脑科学与智能技术卓越创新中心学术主任蒲慕明院士。

【以史无前例速度“从1走向100”】

解放日报:您如何评价DeepSeek的“横空出世”?

蒲慕明:2025年将成为近几十年来中国科学领域最值得铭记的年份之一。DeepSeek推出的推理人工智能模型R1,性能可与领域中最强的OpenAI-o1相媲美。它巧妙地运用了混合专家模型、强化学习和蒸馏方法等,实现了超乎预期的推理效率,并首次向用户展示了推理的“思维链”。令人惊讶的是,其模型预训练的成本远低于当前顶尖大语言模型。

当然,DeepSeek-R1并不像反向传播算法和Transformer(转换模型)架构那样全新的突破性技术,分别引发了深度学习和大语言模型两次人工智能革命,反向传播算法还获得2024年诺贝尔物理学奖的肯定。但我想强调的是,DeepSeek-R1虽然不是“从0到1”的原创突破,却是以史无前例的速度“从1到100”的人工智能发展。它清楚地表明,“从1到100”的发展可能比“从0到1”产生更重大的影响。

解放日报:DeepSeek的“从1到100”,带来什么思考?

蒲慕明:有两点反思。第一,中国的人工智能研究机构获得了许多来自政府的资助,近年来发表的论文数量惊人地增长,但在人工智能领域真正有影响力的发现或发明仍然稀少。DeepSeek是杭州的一家小型人工智能公司,负责人梁文峰学术背景并不突出,论文只是发在普通的《技术报告》上,也很少被邀请在人工智能学术会议上发言,但这支年轻的团队却做出如此有影响力的工作。

第二,人工智能界有一个尺度定律,认为模型愈大、参数愈多、算力愈高,性能就愈高。尽管有证据表明这条定律正在接近极限,但这依然是主流观点。而DeepSeek走了一条不同的路——算法革新。我听一些人工智能研究人员讨论,他们不敢做这么宏大的东西,因为风险太大。现在中国科学界大都做的是“从1到10”的增量研究,既不是“从0到1”的原创突破,也不具备“从1到100”的应用价值,但这类工作容易发表论文,因此渐进式的、小幅增量研究盛行。而DeepSeek的目标是致力于探索如何达到通用人工智能,其中的关键问题就是推理和泛化能力,他们专注在最重要的关键问题,在有限的资源限制下探索解决的途径。正是因为他们有热情,也有胆量去攻克重要的难题,所以实现了跳跃式发展。

【“李约瑟之问”的第二个问题】

解放日报:“从1到10”的论文盛行,背后的深层次原因是什么?

蒲慕明:究其背后,我们的科学研究太受欧美国家影响,只想着紧跟,很少有勇气去赶超。就拿神经脑科学来说,我们目前大多数都是“跟随式”研究,而不是“开创式”。

但欧美的科学研究途径不一定适合我们。我做过一个统计,1970年至今,25%的诺贝尔医学或生理奖与神经科学直接有关,但为什么没有一个大脑的疾病可以治愈呢?研发一个药物,从发现靶点到成为上市药品,必须要做“从1到100”的工作。在我看来,欧美的科学家更倾向于做可以拿诺奖的最前端“0到1”研究和可以出高档论文的“1到10”的研究,以及一些所谓原理验证的实验室成果。他们并没有真正投入后端有实际应用的“10到100”的创新研究和开发工作。

闻名遐迩的“李约瑟之问”,众人只知其一,不知其二。其实,他凝练了两个重要问题。第一个问题是,为什么现代科学没有在中国文明中出现,而只在欧洲发展出来。这个问题广为人知,他的答案是“官僚式的封建制度”。第二个问题是,为什么从公元5世纪到13世纪,在把人类的自然知识应用于人的实际需要方面,中国文明要比西方文明有效得多,而且对世界作出了独特的贡献。这个问题鲜有人知,他的答案是“实用主义的传统”。

近代以前很多中国的科技成就从实用出发,以目标为导向,科学与技术紧密结合。比如,天文、数学、化学、生物学、工程和航海技术等,都与人的实际需要直接相关。我觉得这是一个很好的科学传统。与现在鼓励的以实际应用为导向的基础研究,一脉相承。

我常常打一个比方,科学探索就像出海钓鱼,目标很重要——先要搞清楚你是要钓一条大鱼还是要钓小鱼?因为以钓大鱼为目标的话,就不会因为钓到一些小鱼就回航。还有,只为“钓鱼之乐”的探索与“要钓大鱼”的探索有本质的差别。我认为,我们社会目前最需要的不是只顾“钓鱼之乐”的科学家,而是“要钓大鱼”的科学家。

解放日报:DeepSeek的创新文化,有什么让您印象深刻的?

蒲慕明:他们鼓励自下而上的主动创新,只要有好的点子就可以提出来,然后把资源集中投入其中。这与“小团队”的结构很有关系,不管是苹果、微软,还是Meta的前身Facebook,起步的时候都是小团队,有的就是在自家车库里鼓捣。像DeepSeek这样的小团队在快速闭环互动、朝着既定目标凝聚力量以及团队成员精神联结方面更具效率。我希望DeepSeek在不断扩大队伍的过程中,初期小团队时建立的文化能持续保持下去。

而我们大多数科研单位做不到“自下而上的主动创新”,留给年轻人追求自己想法的空间也很小。

解放日报:如何才能释放年轻研究人员的创新才能?

蒲慕明:我比较欣赏麻省理工学院的怀特黑德学者计划,针对极具天赋的应届生物学博士,该计划不要求其按惯例先做博士后研究,而是直接给予三年的研究经费和独立研究实验室,在青年科学家最具创造力时期对他们进行培养。最好的例子就是张锋,他正是被聘为怀特黑德学者时,做出了可以拿诺贝尔奖的成果——首次将CRISPR-Cas9基因编辑技术应用于哺乳动物和人类细胞。

还有一个例子是杰拉尔德・莫里斯・埃德尔曼。他在美国洛克菲勒大学做研究生时,没有固定的导师,自己独立研究,此后因为发现抗体的化学结构获得诺奖。

在我的建议下,中国科学院脑科学与智能技术卓越创新中心出台了类似的青年研究员计划,3位优秀的应届博士生被聘为青年研究员,有自己独立的实验室,3年期满后工作出色可以直接转为研究员。目前来看,这一举措颇有成效。

我甚至还有一个想法,能否在应届毕业的本科生中挑选最优秀的学生,给其两三年的科研经费和资源。也不用框定导师,但他们可以去找任何需要的“导师团队”求教,这种环境特别鼓励年轻人追求自己的想法。初生牛犊不怕虎,是有道理的。

【还需研究大脑来促进人工智能吗】

解放日报:人工智能的诞生与神经科学密切相关,人工神经元模型就直接受到生物神经元启发,但为何现在大多数人工智能研究人员很少关注大脑的工作原理?

蒲慕明:当深度学习模型问世后,原本对脑科学还有一点兴趣的人工智能研究人员也不怎么关注了,因为它太方便、太强大了,它更多依赖数学优化和大规模数据,而非直接模仿大脑的机制。人工网络的深度学习和强化学习的模式都与大脑不同。

解放日报:大语言模型在很多方面比人类大脑似乎更为强大,我们还需要研究大脑来促进人工智能吗?

蒲慕明:大语言模型是一个软件,只有把这个软件融到一个物理系统,才能真正与环境交互。我认为,有高等具身智能的人形机器人,将是未来5年到10年最活跃的领域,但如何把大语言模型 与感觉系统和运动系统相结合的关键技术还没有攻克。比如说,要制作一个具有通用人工智能的人形机器人,我们需要有一个与外界世界直接互作的大语言模型。大语言模型可以作为机器人的大脑,它需要接上一个能感知外界世界的感觉系统和输出行为的运动系统。通过这两个物理系统与外界互动,大语言模型可以建立一个不断演化、因经验而异的“世界模型”,不断对外部世界进行建模和理解,从而进行合适的决策和规划。

大模型与物理系统的结合,将带来下一次人工智能的飞跃,脑科学大有作为。我们需要更加重视研究大脑如何实现高效计算,以及人类智能如何体现在一个能够与外界有效互动的系统中。比如整合多模态感觉信息正是人类大脑所擅长的。有一个“鸡尾酒会现象”,即使在嘈杂的环境中,我们仍能将注意力集中在自己感兴趣的那个人的对话上,同时过滤掉其他无关的噪音,这就需要有效的视觉和听觉的整合。人类的运动系统可以通过大脑的指令,以平行和序列的模式激活几百块肌肉,做出平滑精确的行为。大语言模型的指令如何启动这样的运动系统?脑科学可以有关键性的贡献。

解放日报:对于大模型和物理系统的结合,中国脑计划二期会有考虑吗?

蒲慕明:已经有专家提出了这个建议。中国脑计划的重点就是“脑科学与类脑研究”,有高等具身智能的人形机器人将是一个很好的平台,可以把脑科学和类脑智能技术相结合。

在类人机器人等物理系统中开发具身智能,需要软件工程师、生物工程师和神经科学家之间密切的跨学科合作。未来五年,期待看到这一幕。

来源 解放日报记者 黄海华 2025年2月28日

https://www.shobserver.com/staticsg/res/html/web/newsDetail.html?id=867175

附件下载: