随着人工智能大模型规模持续扩展和应用场景不断丰富,其训练与推理过程贯穿数据加载、参数迭代与模型部署等全生命周期,对底层数据存储系统提出了系统性、全局性的更高要求。作为智能算力基础设施的核心支撑,存储系统的性能与效率直接影响着大模型的训练迭代速度、推理服务质量与规模化部署能力,已成为支撑人工智能产业高质量发展的关键数据底座。
然而,在大模型技术快速演进与产业加速落地的背景下,存储系统已成为制约行业突破的核心瓶颈:训练阶段需支撑超大规模数据的高并发加载与高频检查点读写;微调阶段依赖低延迟的参数卸载与回载能力;推理阶段面临键值缓存高频访问与向量检索存储优化的双重压力。现有存储方案在带宽、时延、成本与能效等方面仍难以满足大模型全生命周期的存储需求,亟须系统性的存储技术创新予以突破。
本刊以“大模型训推数据存储”为主题组织征文,旨在集中展示该领域的前沿研究进展与工程实践成果。征文内容包括但不限于:训练数据的高效存储与读取、检查点数据的高性能读写与压缩、键值缓存的高效管理与加载、推理系统中向量检索的存储优化。同时,也欢迎由此延伸的数据治理、数字经济与数字社会等高层次应用领域的创新研究成果。
一、客座编辑
张广艳 清华大学长聘副教授
二、征文范围(包括但不限于)
1. 大规模训练数据的存储与读取;
2. 大模型检查点的高效读写;
3. 大模型检查点的压缩;
4. 大模型参数的高效卸载与恢复;
5. 大模型键值缓存的高效加载;
6. 大模型键值缓存的压缩;
7. 推理服务冷启动场景下的模型加载;
8. 服务于训推的多级存储优化;
9. 推理系统中向量检索的存储优化;
10. 面向大模型训推一体的统一数据存储系统。
三、投稿要求
1、论文应属于作者的科研成果,数据真实可靠,具有重要的学术价值或推广应用价值;应未在国内外公开发行的刊物或会议上发表或宣读过,也不在其他刊物或会议的审稿过程中,不存在一稿多投问题。作者在投稿时,需向编辑部提交版权转让协议。
2、文稿应包括中英文题名、作者信息、摘要、关键词、基金项目名、参考文献,中文正文和作者简介(包括照片),文稿一律采用Word文档提交,格式要求参考期刊网站:http://www.j-bigdataresearch.com.cn/。
3、论文请通过期刊网站(http://www.j-bigdataresearch.com.cn/)进行投稿,投稿时提供作者的联系方式(电子邮件、电话、邮寄地址),并在作者留言中注明“‘大模型训推数据存储’专题投稿”及所属方向(否则按自由来稿处理)。
四、重要日期
征文截止日期:2026年5月31日
