迈向自适应语义推理:动态大概念模型(DLCM)的架构创新与缩放法则
2026/4/17 19:06:51 网站建设 项目流程

主题

迈向自适应语义推理:动态大概念模型(DLCM)的架构创新与缩放法则

时间

2026.01.24 周六 22:00 北京时间
2026.01.24 周六 09:00 美东时间
2026.01.24 周六 06:00 美西时间

直播平台

🎙本次分享为全英文讲座!🌍

微信视频号:

b站直播间:

Youtube直播间:

https://www.youtube.com/live/U0rDRX7ZkYM

内容介绍

现有的大语言模型普遍采用 Token 均匀计算的建模范式,对所有 Token 投入相同的计算资源,忽视了自然语言中信息密度高度不均的事实,导致计算浪费与推理能力受限。在本次分享中,我们介绍一种层次化语言建模框架——动态大概念模型(DLCM),通过在 Token 与句子之间引入可学习的“概念”粒度,实现语义边界的端到端发现,并将主要计算从 Token 级处理转移至概念级推理主干。在此基础上,我们提出压缩感知的缩放法则与解耦的 μP 训练方案,用于指导异构架构下的稳定扩展。实验表明,在相同推理 FLOPs 下,DLCM 在多项推理密集型基准上取得显著性能提升,为构建更高效、自适应的推理与智能体模型提供了新的架构路径。

Dynamic Large Concept Models: Latent Reasoning in an Adaptive Semantic Space
论文地址:https://arxiv.org/pdf/2512.24617

嘉宾

曲星威是曼彻斯特大学的博士研究生,主要研究方向为提升大型语言模型的基础能力与可扩展性。在Chenghua Lin教授的指导下,他的研究聚焦于能增强模型泛化性的预训练范式,尤其注重数据效率与架构优化。目前,他担任ByteDance Seed的研究实习生,致力于下一代预训练策略的研发,以构建具备卓越大规模性能的稳健基础模型。
个人网站:
https://scottqumu.github.io/Scott-CV/

主持人

华文越,Rutgers博士毕业,张永锋老师的学生,UCSB博后,现在为微软研究院高级研究员,主要研究方向为llm reasoning和llm-based agent,在NLP和ML的顶会ACL EMNLP ICLR Neurips TACL等等发表多篇论文,并在ACL担任Area Chair。

入群

欢迎加入NICE每周分享交流群,可与NICEer唠嗑,以及第一时间收到后续NICE分享报告的通知。加群通过小助手认证,群内无广告。

备注【昵称-单位-方向-NICE入群】

NICE介绍

NICE(Nexus forIntelligenCE)是一个由全球50+位一线青年学者共同发起的顶尖AI前沿交流平台。 成立以来,我们汇聚海内外300+嘉宾,通过百余场线上深度分享与线下高规格活动(北京/上海/苏州等),全网积累超13万关注。目前,NICE已构建起覆盖中、美、欧的国际化团队,正加速在硅谷、纽约、香港等地落地,致力于打造连接学术、产业与未来的全球化AI前沿社区。
NICE主页
https://nice-nlp.github.io
NICE海外
https://nice-intl.github.io
b站
https://space.bilibili.com/507524288
Youtube
https://www.youtube.com/@NLPAcademicExchangePlatform

编辑:冯可蘅 华盛顿大学

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询