26位华人学者霸榜亚马逊研究奖,占名单近一半


来源:DeepTech深科技

近日,亚马逊研究奖(Amazon Research Awards,简称 ARA)公布最新一届获奖名单:全球 8 个国家、41 所高校与科研机构共有 63 位学者上榜, 其中 26 位为华人学者, 覆盖 AI 信息安全、广告技术、智能体 AI、云端 AI 基础设施以及“Think Big”前沿探索等多个方向。

亚马逊研究奖成立于 2015 年,并在 2020 年与 AWS 机器学习研究奖(MLRA)合并,至今已成为大型科技公司中影响力最大的开放学术资助项目之一。 

该计划为高校和非营利机构的研究者提供:

  • 一次性、不附带约束的科研经费

  • 一定额度的 AWS 云资源抵扣

  • 访问数百个亚马逊公开数据集的权限,以及与亚马逊内部科学家长期合作的机会 

2025 年春季这一轮,ARA 在原有“AI for Information Security”“Amazon Ads”的基础上,重点扩展了  AWS Agentic AI (智能体 AI)和  Build on Trainium (基于亚马逊自研 AI 芯片 Trainium 的系统与算法)等方向,外加鼓励大胆设想的  Think Big  赛道。

以下这 26 位华人学者的简要介绍:

AI 信息安全

Zhou Li(李洲) 现任加州大学欧文分校电气工程与计算机科学系副教授,此前曾在 RSA Laboratories 担任首席研究科学家,长期深耕系统安全与隐私方向。李洲本次获奖项目围绕“利用大语言模型在审计日志中实现精确且分析人员友好的攻击溯源”,试图用 LLM 自动从海量日志中还原攻击链路,并以安全分析师易于理解的方式呈现,从而缓解企业在安全运维中“日志太多、人员太少”的长期痛点。 

Yu Meng(孟瑜) 是弗吉尼亚大学计算机科学系助理教授,2023 年在伊利诺伊大学厄巴纳-香槟分校(UIUC)获博士学位,曾获谷歌博士奖学金和 ACM SIGKDD 优秀博士论文奖,博士期间与数据挖掘大师 Jiawei Han 合作紧密。孟瑜此次 ARA 项目主题为“弱监督 RLHF:建模人类偏好中的模糊性与不确定性”,聚焦在现实世界反馈往往含噪、含歧义的情况下,如何更稳健地训练对齐人类偏好的大模型,有望在推荐、助手类产品中显著提升模型在复杂场景下的可靠性。 

Ziming Zhao(赵子铭) 任职于美国东北大学 Khoury 计算机科学学院副教授,研究领域涵盖系统与软件安全、网络与 Web 安全以及人因安全,多次在 USENIX Security、ACM AsiaCCS 等安全顶会上获得最佳或杰出论文奖。赵子铭的 ARA 项目聚焦“理解大语言模型的攻击方式:可解释的漏洞检测与修复”,一方面系统性刻画 LLM 参与攻击与渗透测试的能力边界,另一方面尝试设计可解释的自动化工具,帮助开发者借助 LLM 更高效地发现并修补软件漏洞。 

Amazon Ads

Xiaojing Liao  是伊利诺伊大学厄巴纳—香槟分校计算机科学系副教授,博士毕业于佐治亚理工学院电子与计算机工程专业,长期通过大规模数据分析研究互联网滥用行为与安全问题。她此次在 Amazon Ads 方向获奖的课题是“大语言模型在数字广告中的对抗性滥用:基准测试与缓解措施”,目标是系统梳理 LLM 在广告内容生成、点击欺诈、垃圾信息扩散等场景里的潜在攻击方式,提出一套可操作的评测基准,并探索面向广告平台的防御策略。

Tianhao Wang  现为弗吉尼亚大学助理教授,本科毕业于复旦大学,博士毕业于普渡大学,主要研究差分隐私与机器学习隐私保护,强调算法在真实系统中的可落地性。本次 ARA 中,他与 Xiaojing Liao 合作同一项目,围绕“大型语言模型在数字广告中的对抗性滥用”展开研究,从隐私和安全的双重视角评估 LLM 带来的新攻击面,并探索在不牺牲广告效果的前提下,引入隐私约束和鲁棒机制,以降低平台和用户的整体风险。 

AWS Agentic AI:智能体时代的系统化探索

Cong Chen  是达特茅斯学院工程学院助理教授,她本科毕业于武汉大学,硕士毕业于清华大学,并于 2024 年获得康奈尔大学电气工程博士学位。她的 ARA 项目“用行为生成智能体赋能电力系统与市场运营”尝试将生成式智能体引入电网调度与电力市场建模,通过模拟和学习各类市场主体与设备的行为,推动高比例可再生能源接入、电力价格形成以及储能调度等关键问题的智能化升级。 

Chunyang Chen(陈春阳) 现为德国慕尼黑工业大学(TUM)软件工程与人工智能教授,本科毕业于北京邮电大学,博士毕业于新加坡南洋理工大学,曾在澳大利亚蒙纳士大学任教多年。他的研究横跨软件工程、人机交互和 AI 安全,尤其关注如何用 LLM 改造开发流程。本次获奖课题“基于智能计算机使用智能体的功能性缺陷感知软件测试”,旨在打造能够像真实开发者一样“使用电脑”的智能体,让其自动操作 GUI、运行程序、观察系统反馈,从而更接近真实用户场景地发现功能缺陷。 

Sidong Feng  是本次榜单中少有的在读博士生获奖者,目前就读于澳大利亚莫纳什大学(Monash University)信息技术学院,导师团队包括陈春阳、Aldeida Aleti、Yuan-Fang Li 和 Bohan Zhuang,本科就读于澳大利亚国立大学软件工程专业。Feng 的研究兴趣集中在软件工程、人机交互与大模型的交叉领域,特别是 GUI 自动化测试。Feng 此次与导师合作的 ARA 项目延续“智能电脑使用代理”的思路,进一步探索如何通过人机协作式的 Agent 设计,让自动化测试不再局限于传统脚本,而是更灵活地理解界面语义和任务目标,自动生成高价值测试用例。 

Bang Liu(刘邦) 目前在蒙特利尔大学和 Mila 研究所担任副教授,同时是加拿大 CIFAR AI 讲席教授,本科毕业于中国科学技术大学,后在阿尔伯塔大学获得硕博学位,近年来在多模态与具身智能体、AI for Science 等领域成果频出。刘邦的项目主题是“协作式智能体人工智能的基础智能体与协议”,试图从底层通信协议和协作机制设计入手,为多智能体系统构建统一的“语言”和协作规则,并将其应用到包括新材料设计等科学发现场景,延续他在 Foundation Agents 等开源项目中的探索。 

Irwin King  是香港中文大学(CUHK)计算机科学与工程学系教授,并担任副校长(教育)。他本科毕业于加州理工学院,1993 年在南加州大学获得计算机科学博士学位。金教授是 ACM 和 IEEE 会士,在机器学习、社会计算和数据挖掘领域拥有深厚造诣,曾领导开发 VeriGuide 抄袭检测系统。他此次获奖的“WebAGI”项目,致力于利用视觉语言模型构建鲁棒的 Web 自动化与规划框架,推动智能体向通用人工智能迈进。

Lianhui Qin(覃莲卉) 是加州大学圣地亚哥分校(UCSD)计算机科学系助理教授,博士毕业于华盛顿大学,师从 Yejin Choi,长期研究可控生成与复杂自然语言推理。她的 ReaL-Agent 项目聚焦“用于深度跨模态检索的检索与推理智能体”,尝试把检索、推理和多模态理解整合进一个统一的智能体框架,使得 Agent 能够在包含文本、图像等多模态的大规模知识库中,自主规划检索路径并完成复杂的信息查询与决策任务。 

Jindong Wang(王晋东) 现任威廉与玛丽学院数据科学系助理教授,曾在微软亚洲研究院担任高级研究员,是迁移学习和大模型领域的高被引学者之一,其著作《迁移学习导论》在业界颇具影响力。王晋东此次获得 ARA 的项目题为“结构至关重要:针对 LLM 智能体的任务优化拓扑”,重点研究在多智能体系统中,不同 Agent 之间的连边方式、信息流向和分工结构如何影响整体性能,从而为实际部署“多 Agent 协作大模型”提供设计理论和工程经验。 

Xiaolong Wang  是 UCSD 电气与计算机工程系副教授,分布别再于华南农业大学和中山大学取得本硕学位,博士毕业于卡内基梅隆大学机器人研究所,曾与伯克利 AI 研究、Facebook AI 研究和艾伦研究院等机构合作,主要研究视频理解、三维场景和具身智能。本次获得资助的“智能体世界表征(Agentic World Representation)”项目,强调让智能体在长期交互中学习结构化的世界模型,使其不仅能在视觉上“看到”环境,还能内化时空结构和语义关系,为后续的规划、操作和协作打下基础。 

Zhi-Li Zhang(张志力) 是明尼苏达大学双城分校 McKnight 杰出教授和 Qwest 通信讲席教授,在网络系统、边缘与云计算、网络物理系统等方向拥有长期积累。张志力的 ARA 项目“NetGenius:用于下一代无线网络自主配置和智能运维的 Agentic AI”旨在构建一套面向 5G/下一代网络的智能体体系,让网络设备和控制系统具备自配置、自诊断和自优化能力,以支撑车联网、工业物联网、元宇宙等新型业务对网络弹性与智能化的需求。 

Jiawei (Joe) Zhou  于 2024 年加入石溪大学,现为石溪大学应用数学与统计及数据科学系的助理教授。他曾在清华大学获得电子工程学士学位,博士毕业于哈佛大学,研究横跨自然语言处理与机器学习,在序列到序列生成、语义理解等领域有不少代表性工作。此次获奖的课题“交互式 LLM 智能体的高效且有效的长程推理”聚焦一个核心问题:当智能体需要在长时间、多轮交互中持续规划和记忆时,如何设计既高效又不牺牲推理质量的模型结构与训练方法,以支撑复杂任务中的长期决策。

Build on Trainium

Kuan Fang  是康奈尔大学计算机科学系助理教授,曾在斯坦福大学师从李飞飞和 Silvio Savarese 完成硕博研究,也在伯克利从事博士后工作,专注机器人感知与控制以及强化学习。这次入选的项目“机器人感知与控制的多模态基础模型快速适应”依托 AWS Trainium 芯片,探索如何让预训练的大模型快速适配具体机器人的传感器和控制任务,缩短从通用多模态模型到实际机器人系统之间的“最后一公里”。 

Shizhong Han  现任 Lieber 大脑发育研究所首席研究员、约翰霍普金斯大学医学院精神病学与行为科学副教授,主要研究脑部疾病的遗传基础,通过多组学数据和深度学习方法寻找新型治疗靶点。Han 的 ARA 项目“优化和扩展大型化学模型的预训练及基于偏好的微调”基于 Trainium 平台,致力于构建规模更大、分辨率更高的化学和生物分子模型,并通过人类偏好对齐使模型更适用于药物发现与机制研究。 

Sitao Huang(黄思陶) 是加州大学欧文分校电气与计算机工程系助理教授,本科毕业于清华大学电子工程系,随后在 UIUC 获得硕士与博士学位,在硬件加速器与高效计算领域获奖颇多。他此次获得 ARA 资助的课题“通过基于配置文件的图拓扑优化在 AWS Trainium 上实现自动内核合成与调优”,意在根据实际工作负载的性能 profile 自动生成和优化硬件内核,使大模型训练在 Trainium 上获得更高吞吐和能效。 

Dong Li  现为加州大学默塞德分校副教授,兼任平行架构、系统与算法实验室(PASA)主任,是高性能计算与大规模 AI 系统领域的重要学者,也曾在橡树岭国家实验室从事研究工作。Li 的项目“基于自适应专家并行的高效稀疏训练”聚焦于 MoE 等稀疏大模型在 Trainium 上的训练,通过更细粒度的专家并行策略,提升模型规模与硬件资源之间的匹配效率,降低训练成本。 

Xiaoxiao Li  是不列颠哥伦比亚大学电气与计算机工程系副教授,同时在计算机科学系和病理与实验医学系任职,也是 Vector 研究所教员,担任加拿大“负责任人工智能”二级研究主席和 CIFAR AI 讲席教授。Li 多年来深耕 AI 与医疗的交叉,本次 ARA 项目“在 AWS Trainium 上通过剪枝和套娃量化实现高效 MoE LLM“从模型剪枝与层次化量化入手,探索在保证精度的情况下显著压缩 MoE 模型计算与存储开销,为在医疗等高风险场景部署大型模型铺路。 

Jiang Liu  日本早稻田大学全球科学与工程中心教授,无线通信专家。刘江本科毕业于中国重庆理工大学,后赴日本早稻田大学攻读通信工程,分别于 2006 年和 2012 年获得早稻田大学全球信息与通信研究科硕士、博士学位。她的研究兴趣包括无线通信与传感、无线网络系统以及光无线通信等方向。她的课题“使用 AWS Trainium 加速视觉-语言自动驾驶”试图将视觉-语言模型与自动驾驶系统结合,并利用 Trainium 的算力优势加速训练与推理,希望在复杂交通环境下实现更可靠的感知和决策,同时探索车载和云端协同推理的新架构。 

Xiaoyi Lu  现任 UC Merced 计算机科学与工程系副教授,领导平行与分布式系统实验室(PADSYS Lab),是 HPC 通信与 I/O、云计算和大数据分析方向的活跃学者,其多项开源软件在全球被广泛使用。他于 2006 年在华中科技大学获得学士学位,2012 年在中国科学院计算技术研究所获得博士学位。他的研究致力于优化底层通信与 I/O,此次 ARA 项目“使用 AWS Trainium 加速大型语言和推理模型工作负载”侧重于系统层优化,从通信栈、内存管理到调度策略多层入手,探索如何在 Trainium 集群上高效运行推理与训练混合负载,支撑企业级生成式 AI 应用。 

苗旭鹏(Xupeng Miao) 是普渡大学西拉法叶分校计算机科学系助理教授,他本科毕业于(中国)东北大学,2022 年在北京大学获得计算机科学博士学位,师从崔斌教授。苗旭鹏是高性能深度学习系统 Hetu(河图)的主要作者之一,曾在 CMU 进行博士后研究。苗旭鹏的项目“通过数据流感知优化实现大型基础模型的通信高效分布式训练”试图从数据流模式出发,对分布式训练中的通信进行整体重构,使得基础模型在大规模集群上的训练更具伸缩性和资源利用效率。 

沈彦宁(Yanning Shen) 博士毕业于明尼苏达大学,目前在加州大学欧文分校任教,她的研究结合机器学习、网络科学与统计信号处理,关注复杂网络上的智能算法。她是 2022 年度《麻省理工科技评论》亚太区“35 岁以下创新 35 人”入选者。在本轮 ARA 中,她与 Sitao Huang 等人共同探索“通过基于配置文件的图拓扑优化在 AWS Trainium 上实现自动内核合成与调优”,从图结构建模的角度为底层系统优化提供理论和算法支持,力图让自动化性能调优更加“智能化”。 

Minjia Zhang  是 UIUC 计算机科学系终身教职助理教授,博士毕业于俄亥俄州立大学,曾在微软研究院担任首席研究员多年,在模型压缩和高效深度学习系统方面具有丰富的工业与学术经验。本次获奖的“Trainium 原生 MoE:开发用于高效可扩展 MoE 训练的内核与系统优化”项目,将针对 MoE 模型在 Trainium 上的算子实现、调度以及跨设备通信等关键环节进行端到端定制优化,力图在保证模型性能的同时,将训练成本压到更低。 

Think Big

Tianlong Chen  于 2024 年秋季加入北卡罗来纳大学教堂山分校计算机科学系,担任助理教授。他本科毕业于中国科学技术大学应用数学系,2023 年在德克萨斯大学奥斯汀分校获得电子与计算机工程博士学位,近年在高效、可信机器学习系统方面成果颇丰,获得包括 Amazon Research Award(连续两届)、IBM 与 Adobe 博士奖学金在内的一系列奖项。他在 Think Big 方向的项目“利用分子动力学赋能蛋白质 AI 模型”聚焦于 AI 与生命科学交叉,计划在 Trainium 等算力支撑下,将分子动力学模拟生成的精细物理信息融入蛋白质 AI 模型训练中,以同时提升结构预测和功能理解的准确性与可解释性。

            <!-- 非定向300*250按钮    17/09  wenjing  begin -->
            <!-- 非定向300*250按钮  end -->
        </div>



Source link

未经允许不得转载:紫竹林-程序员中文网 » 26位华人学者霸榜亚马逊研究奖,占名单近一半

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址
关于我们 免责申明 意见反馈 隐私政策
程序员中文网:公益在线网站,帮助学习者快速成长!
关注微信 技术交流
推荐文章
每天精选资源文章推送
推荐文章
随时随地碎片化学习
推荐文章
发现有趣的