Yoshua Bengio (约书亚・本吉奥)成为全球首位论文引用量突破百万的学者,Hinton 以 97 万紧随其后,标志着 AI 学术影响力进入新高峰。
刚刚,Yoshua Bengio 成为谷歌学术上首个论文引用量超过 100 万的人!
查询时间 2025 年 10 月 25 日 13:04与此同时,人工智能教父辛顿(Geoffrey Hinton)的被引次数也来到 97 万次!
有望成为全球第二个论文引用量超过 100 万的人。
查询时间 2025 年 10 月 25 日 13:04作为深度学习三巨头之一,图灵奖得主 Bengio,不仅在计算机领域被引最高,而且还是世界第一。
早在 2018 年,他曾以「单日最高引用量」摘得计算机研究者桂冠,并与 Geoffrey Hinton、Yann LeCun 同年拿下图灵奖。
排名平台 AD Scientific Index作为深度学习、自然语言领域的先驱,Yoshua Bengio 的引用增长曲线,在 2018 年获得图灵奖以后开始了爆发性增长。

而 Hinton 老爷子的引用增长曲线,则动人的展示了他是如何度过冰冷的「人工智能寒冬」。

同为图灵奖三巨头的 Yann LeCun 也有 43 万 + 的引用。
但比何恺明、Ilya Sutskever 等人还要低上不少。

AI 论文引用为何爆发?
如果仔细盘点,全球高被引 TOP 10 中,计算机大牛占据 4 席,而这些大佬也可以说都是 AI 领域的!
四位大牛分别是:Yoshua Bengio、Geoffrey Hinton、何恺明、Ilya Sutskever。

他们中:
Yoshua Bengio 和 Geoffrey Hinton 是深度学习领域的先驱;
Geoffrey Hinton 和 Ilya Sutskever 是师徒关系,Hinton 无需多言;Ilya 则是 OpenAI 和 ChatGPT 缔造者;
何恺明是深度残差网络(ResNets)之父。
深度学习领域的论文引用呈现爆发式增长,正好暗合了我们所处的 AI 时代。
2012 年 AlexNet 在 ImageNet 上大幅领先,并首次把大规模 GPU 训练写进论文方法学,被视为深度学习的「引爆点」。

从 1986 年的反向传播,到 Nature 在 2015 年发表了 LeCun、Bengio、Hinton 的综述《 深度学习 》,再到 Bengio 团队关于「表示学习」的综述,这些大牛们的论文成了后来论文写作中的标准理论与背景引用来源。

而 Transformer 与大模型 AI 带来二次爆发!
2017 年,Transformer 提出、2018 年 BERT 证明预训练 / 微调范式通吃自然语言处理,随后多模态与生成式 AI 全面开花。

新论文几乎都会回溯到更早的神经网络与表征学习文献链条上。
当 AI 成为新的全世界增长点,AI 论文总体数量激增,放大了「被引母集」。

AI Index 指出,2010–2022 年全球 AI 论文总量近乎三倍增长(约 8.8 万 → 24 万 +)。
到 2023 年,AI 占计算机科学论文的比例也从 2013 年的 21.6% 升至 41.8%。
可以说,几乎计算机科学领域一半的论文都和 AI 相关,而 AI 则和深度学习不分家。
因此,研究母集越大,奠基者的累积引用增长就越快。
从 AI 领域的顶会论文投稿也可佐证这个潮流。
ICLR 2024:共 7262 投稿,2260 接收,相较 2023 年投稿 + 2324。
NeurIPS 2024:17491 总投稿(主会 15671 + 数据集 / 基准 1820),4497 接收。
CVPR 2024:11532 投稿,2719 接收,23.6% 录用率。
AI 成为这个时代的主旋律。
而 AI 领域的核心论文也成为这个时代学术界的主旋律。
AI 领域高被引作者
Yoshua Bengio
Yoshua BengioYoshua Bengio 是全球公认的人工智能领域顶尖专家,他以在深度学习方面的开创性研究而享有盛誉。
Bengio 与 Geoffrey Hinton、Yann LeCun 一起荣获 2018 年图灵奖,并被视作推动深度学习发展最为重要的「三巨头」。
Bengio 是蒙特利尔大学正教授,同时也是 Mila(魁北克人工智能研究院)的创始人和科学顾问。他还是 CIFAR 高级研究员,担任 IVADO 特别顾问、加拿大 CIFAR AI 讲座教授等职。
2019 年,Bengio 获得 Killam 奖。
2022 年,他成为 h-index 全球引用次数最高的计算机科学家之一。
早年生活与教育背景
Yoshua Bengio1964 年出生于法国巴黎,他在加拿大蒙特利尔度过了少年时期。
Bengio 来自于一个犹太家庭,他的父母从摩洛哥移民至法国,后移居加拿大。
他在 McGill 大学获得了工程学士、计算机科学硕士、计算机科学博士学位。
1991 年,Bengio 从 McGill 大学博士毕业后,在 MIT 和 AT&T 贝尔实验室担任博士后研究员。
Bengio 是英国皇家学会院士、加拿大皇家学会院士、法国荣誉军团骑士,以及加拿大勋章军官。
2023 年,他被任命为联合国科学咨询委员会成员,为科学与技术突破提供独立建议。
出于对人工智能社会影响的深切关注,Bengio 参与起草了《蒙特利尔负责任人工智能发展宣言》,并持续倡导减轻未来人工智能系统可能带来的潜在灾难性风险。
何恺明
何恺明的论文总被引次数超过 75 万次。

目前,他是麻省理工学院(MIT)电子工程与计算机科学系(EECS)的终身副教授,并兼任谷歌 DeepMind 的杰出科学家。研究方向为计算机视觉与深度学习。
他于 2016 至 2024 年在 Facebook AI 研究院(FAIR)担任研究科学家,2011 至 2016 年在微软亚洲研究院(MSRA)担任研究员,2011 年获香港中文大学博士学位,2007 年获清华大学学士学位。
根据 Nature 的一篇文章,他代表性工作深度残差网络(ResNets)是二十一世纪被引用次数最多的论文。
残差连接结构已被广泛应用于当今各种先进的深度学习模型中,包括 Transformer(如 ChatGPT)、AlphaGo Zero、AlphaFold 以及几乎所有的生成式 AI 模型。
此外,他在视觉感知(如 Faster R-CNN、Mask R-CNN)和自监督学习(如 MoCo、MAE)领域的研究也广为人知。
他曾荣获多个重要奖项,包括 2025 年 ICCV Helmholtz Prize(时间检验奖)、2018 年 PAMI 青年研究员奖、ICCV 2017、CVPR 2016 及 CVPR 2009 的最佳论文奖、ICCV 2017 最佳学生论文奖、CVPR 2021 和 ECCV 2018 的最佳论文荣誉提名奖,以及 2021 年 ICCV Everingham Prize。
Ilya Sutskever
Ilya Sutskever 的论文总被引次数超过 70 万次。

目前,他是 Safe Superintelligence Inc.的联合创始人兼首席科学家。
他于 2005 年获得多伦多大学数学学士学位,2007 年获得多伦多大学计算机科学硕士学位,并于 2013 年获得多伦多大学计算机科学博士学位。
2012 年,他与自己的博导 Geoffrey Hinton,以及 Alex Krizhevsky 共同发明了卷积神经网络 AlexNet。
随后,他在斯坦福大学作为 Andrew Ng 的博士后工作了大约两个月。接着便回到多伦多大学,加入了 Hinton 的新研究公司 DNNResearch。2013 年,谷歌收购了 DNNResearch,并聘请他为谷歌大脑的研究科学家。
在谷歌大脑,他与 Oriol Vinyals 和 Quoc Viet Le 合作创建了序列到序列学习算法,并参与了 TensorFlow 的开发工作。他也是 AlphaGo 论文的众多共同作者之一。
2015 年底,他离开谷歌,成为 OpenAI 的联合创始人兼首席科学家。
2024 年 5 月,他宣布离开 OpenAI;同年 6 月,他与 Daniel Gross 和 Daniel Levy 共同成立了新公司 Safe Superintelligence Inc.
其他
其他高被引还有:
GAN 之父 Ian Goodfellow(38 万 +)
谷歌人工智能负责人 Jeff Dean(37 万 +)
创造 ImageNet 的李飞飞(32 万 +)
LSTM 之父 Juergen Schmidhuber(29 万 +)
Coursera 创始人吴恩达(29 万 +)
Gemini 的技术负责人 Noam Shazeer(28 万 +)







参考资料:HXB
https://scholar.google.com/citations?user=kukA0LcAAAAJ&hl=en
https://www.adscientificindex.com/citation-ranking/
本文来自微信公众号:新智元(ID:AI_era)
]article_adlist–>
<!-- 非定向300*250按钮 17/09 wenjing begin -->
<!-- 非定向300*250按钮 end -->
</div>