Your Location:
Home >
Browse articles >
面向长序列Transformer训练的内存高效张量并行方法
常规文章 | Updated:2025-06-09
    • 面向长序列Transformer训练的内存高效张量并行方法

    • Memory-efficient tensor parallelism for long-sequence Transformer training

    • 信息与电子工程前沿(英文)   2025年26卷第5期 页码:770-787
    • DOI:10.1631/FITEE.2400602    

      中图分类号: TP183
    • 收稿日期:2024-07-17

      修回日期:2025-02-23

      网络出版日期:2025-04-02

      纸质出版日期:2025-05

    Scan QR Code

  • 梁鹏, 乔林波, 时彦琦, 等. 面向长序列Transformer训练的内存高效张量并行方法[J]. 信息与电子工程前沿(英文), 2025,26(5):770-787. DOI: 10.1631/FITEE.2400602.

    Peng LIANG, Linbo QIAO, Yanqi SHI, et al. Memory-efficient tensor parallelism for long-sequence Transformer training[J]. Frontiers of information technology & electronic engineering, 2025, 26(5): 770-787. DOI: 10.1631/FITEE.2400602.

  •  
  •  

0

浏览量

3

Downloads

0

CSCD

>
文章被引用时,请邮件提醒。
Submit
工具集
下载
参考文献导出
分享
收藏
添加至我的专辑

相关文章

暂无数据

相关作者

暂无数据

相关机构

暂无数据
0