活动报名|不卷算力卷效率|HAMi Meetup 北京站
HAMi 社区由来自 15+ 国家、350+ 贡献者共同维护,已被 200+ 企业与机构在实际生产环境中采纳,具备良好的可扩展性与支持保障。HAMi 作为目前行业内唯一专注于异构 GPU 资源共享的开源项目,通过灵活、可靠、按需、弹性的 GPU 虚拟化来提升资源利用率,可以插拔式、轻量化、无侵入地部署在任意公有云、私有云、混合云环境中,可支持 NVIDIA、昇腾、沐曦股份、寒武纪、海光、摩尔线程,

11 月份,我们首场 HAMi Meetup 在上海圆满收官,留下许多精彩的瞬间。我们也收到众多社区伙伴的建议,现开启不卷算力卷效率!HAMi Meetup 北京站 报名。
北京——这座聚合科研引擎、产业集群与前沿技术思潮的城市,正成为算力提效探索的重要坐标。开源力量在这里汇聚,推动行业从理念对话走向可落地、可实践、可复用的技术协同。而属于 HAMi 的下一段旅程,也将在这里开启升级篇章。
不卷算力卷效率|HAMi Meetup 北京站 将以更贴近企业落地需求的视角、更聚焦异构算力调度挑战的内容,继续为行业打造开放交流的技术枢纽。本次活动由 密瓜智能、HAMi 社区主办,CNCF(云原生计算基金会)特别支持,邀请来自 CNCF、密瓜智能、海光信息、清程极智、贝壳找房、第四范式、睿思智联 的讲者齐聚一堂,围绕国产算力适配、AI 业务实战经验、调度策略优化、推理效率提升等关键议题展开深度分享。在多方视角的交汇中,共同洞察算力利用率提升的可行路径,分享“不卷算力卷效率”的方法论。
欢迎 AI 技术开发者、运维工程师、企业 IT 架构师、云厂商、硬件厂商技术负责人及产品专家、金融、智驾、物流、生物科技等行业数字化转型负责人、开源技术爱好者及相关领域研究者等报名参与!
活动信息
活动时间:2025 年 12 月 27 日 13:00-18:00
活动地点:北京市海淀区海淀大街 36 号 中关村创业大街鄂尔多斯写字楼
活动报名:扫描下方图片二维码即可免费报名参与,席位有限,先到先得(如被ban,请见海报)
活动群聊:欢迎大家添加小助手加入活动群,发送【北京】,和我们一起交流互动

HAMi 简介
HAMi 社区由来自 15+ 国家、350+ 贡献者共同维护,已被 200+ 企业与机构在实际生产环境中采纳,具备良好的可扩展性与支持保障。
HAMi 作为目前行业内唯一专注于异构 GPU 资源共享的开源项目,通过灵活、可靠、按需、弹性的 GPU 虚拟化来提升资源利用率,可以插拔式、轻量化、无侵入地部署在任意公有云、私有云、混合云环境中,可支持 NVIDIA、昇腾、沐曦股份、寒武纪、海光、摩尔线程,天数智芯、AWS neuron、燧原、昆仑芯 等异构芯片。并与 vLLM、Volcano、Kueue、Xinference 协同,数十家云厂商无缝集成。场景覆盖金融、物流、智驾、机器人、生物科技等行业,实现从 0 到 1 的落地。
活动亮点速览
精准聚焦行业痛点:面向国产算力加速落地与异构体系快速演进,本次活动直击多架构并存下的调度与利用率难题,给出可复用的优化方案,帮助企业实现降本增效。
多方力量协同共话:CNCF、密瓜智能、海光信息、清程极智、贝壳、第四范式、睿思智联共同参与,从社区标准到企业实践,展开对高效算力调度的多维探讨。
议题内容全面覆盖:聚焦 HAMi 新特性、国产芯片适配、vGPU 推理集群建设、AI 软件栈优化等核心方向,呈现技术与实践的双线干货。
实战案例高密度输出:XPU / GCU / DCU 动态切分、可观测体系构建、GPU 池化实践等真实经验集中分享,为算力效率提升提供可操作的工程方法论。
现场互动惊喜不断:与社区 Maintainer、芯片厂商、平台工程师面对面交流,共同探索算力提效最佳解法;更有互动抽奖与专属周边等待解锁!
嘉宾阵容,实战干货抢先看
重磅开场嘉宾:
Keith Chan:Vice President, The Linux Foundation APAC China Director, CNCF
核心议题分享
《HAMi 新特性:能力矩阵标准化》
HAMi maintainer 李孟轩
HAMi 作为 CNCF 中唯一专注于以虚拟化方式提升异构设备利用率的项目,将会在1月份推出 HAMi-DRA,作为一个轻量级的 HAMi ,其可以与任何已有的调度框架,例如 volcano, kai-scheduler 等无缝集成。另外针对众多用户关注的 HAMi 在不同芯片架构上的能力差异,社区也将同步推进一份更系统化的功能矩阵。HAMi 社区希望能够与芯片厂商开展更紧密的协同,共同完善特性支持、拓展生态能力,加速构建一个开放、透明且可持续演进的异构算力调度生态。
《DCU 软件虚拟化从基础到实践》
海光信息研发工程师 王忠勤
本次分享将系统介绍 DCU 在云原生环境中的虚拟化能力及其在 Kubernetes 中的支持体系,从 DCU 软件虚拟化基础出发,说明如何通过驱动层工具实现 vDCU 资源的精细化切分与动态调整,并介绍其在宿主机与容器环境中的使用与资源隔离实践。
分享重点聚焦 K8s 集群中的 DCU 虚拟化架构,解析 DCU-Device-Plugin、HAMi 调度器与 vDCU 动态切分机制的协同方式。通过标准化资源注册与多种管理模式支持,结合 HAMi 调度能力,实现任务按需切分、投放与回收算力资源,实现资源利用率与调度精度的提升。最后将介绍 DCU-Exporter 监控组件,展示其在异构算力可观测体系建设中的基础能力。
《贝壳找房 × HAMi:vGPU 推理集群的实践经验》
贝壳找房算力平台开发工程师 王妮
本次分享将介绍 HAMi 在贝壳算力平台中的落地过程、架构演进思路与关键工程实践,并预留架构图与平台效果展示,让更多企业参考贝壳规模化 GPU 管理的经验。
重点聚焦在统一调度多型号 GPU、支撑多集群推理服务以及应对千万级日请求量的业务压力下,贝壳通过 HAMi 构建起 vGPU 弹性池化能力,使大量小模型推理任务(如 TensorFlow、32B 以下语言模型等)能够以显存切片方式稳定运行在共享 GPU 上。基于 HAMi 的显存限制能力,贝壳成功将推理集群的整体 GPU 利用率提升三倍,在不改变应用形态的前提下显著提升资源效率。
《HAMi-Core x DRA:为 HAMi-Core 定制的 K8s DRA Driver》
第四范式研发工程师 & HAMi Approver 杨守仁
HAMi-Core DRA Driver 是由 HAMi 社区为 HAMi-Core 量身定制的 DRA Driver。结合 DRA 所提供的新的资源抽象,HAMi-Core DRA Driver 相比于 HAMi 的 Device Plugin 能够提供更加细粒度的算力切分能力。本次分享将介绍面 HAMi-Core DRA Driver 的开发过程和当前的整体架构,同时也将分享个人对于 HAMi-Core DRA Driver 未来发展的一些想法。
《HAMi v2.7.0加速兼容国产算力》
睿思智联研发工程师 & HAMi Reviewer 欧阳陆伟
在国产异构算力加速发展的背景下,睿思智联将结合其丰富的实战适配经验,系统解析 昆仑芯 P800 vXPU 的动态切分机制,并重点说明 XPU 拓扑感知调度 在复杂异构环境中的核心价值。
同时,我们将探讨在异构算力与 GPU 细粒度资源切分叠加的复杂场景中,如何以可视化方式还原调度过程,从而实现对问题的快速定位与精准分析。
《bagualu 智能计算软件栈与性能交付》(待更新一版)
清程极智技术生态VP,合伙人 何万青
本次分享,清程极智针对国产大模型训推中面临的k 种业务 * m种模型 * n种AI加速卡 的组合部署复杂度下训练和推理软件栈的优化和交付问题,介绍了清程极智 bagualu 多层AI 训推软件栈套件的加速技术,以及在分布式多云管理平台下针对bagualu AI编译、模型量化、并行框架、微调和推理的弹性部署,实现在Hami GPU虚拟化和业务workload两层弹性伸缩能力的Bagualu Turnkey性能交付平台,探讨与Hami 虚拟化调度结合的最佳应用实践。
Meetup议程全公开

更多推荐




所有评论(0)