Your Location:
Home >
Browse articles >
原型引导的跨任务知识蒸馏
常规文章 | Updated:2025-07-02
    • 原型引导的跨任务知识蒸馏

      Enhanced Publication
    • Prototype-guided cross-task knowledge distillation

    • 在知识提取领域,研究人员提出了一种原型引导的跨任务知识提取(ProC-KD)方法。该方法将教师网络的局部对象知识转移到各种任务场景中,增强了学生网络的泛化能力。它为解决跨任务知识提取中不同标签空间的挑战提供了一种解决方案。
    • 信息与电子工程前沿(英文)   2025年26卷第6期 页码:912-929
    • DOI:10.1631/FITEE.2400383    

      中图分类号: TP391
    • 收稿日期:2024-05-12

      修回日期:2024-09-18

      纸质出版日期:2025-06

    Scan QR Code

  • 李登, 李鹏, 武阿明, 等. 原型引导的跨任务知识蒸馏[J]. 信息与电子工程前沿(英文), 2025,26(6):912-929. DOI: 10.1631/FITEE.2400383.

    Deng LI, Peng LI, Aming WU, et al. Prototype-guided cross-task knowledge distillation[J]. Frontiers of information technology & electronic engineering, 2025, 26(6): 912-929. DOI: 10.1631/FITEE.2400383.

  •  
  •  

0

浏览量

5

Downloads

0

CSCD

>
文章被引用时,请邮件提醒。
Submit
工具集
下载
参考文献导出
分享
收藏
添加至我的专辑

相关文章

Federated learning on non-IID and long-tailed data via dual-decoupling
Multi-exit self-distillation with appropriate teachers
Federated mutual learning: a collaborative machine learning method for heterogeneous data, models, and objectives
Forget less, count better: a domain-incremental self-distillation learning benchmark for lifelong crowd counting
Binary neural networks for speech recognition

相关作者

王宝金
胡仁豪
李晋国
李红娇
王朝晖
陈纯
冯雁
叶德仕

相关机构

上海电力大学计算机科学与技术学院
浙江大学计算机科学与技术学院
浙江大学软件学院
浙江大学公共管理学院
复旦大学计算机科学技术学院上海市智能信息处理重点实验室
0