基本信息
浏览量:48
职业迁徙
个人简介
My major research interest is to improve the effectiveness and efficiency of deep neural networks via knowledge distillation. In 2019, I firstly propose the idea of self-distillation. So far, I have also successfully applied knowledge distillation to all kinds of tasks, such as 2D classification detection, segmentation, image-to-image translation, video recognition, point cloud-based detection, BEV based multi-view detection, representation and so on. Please refer to my CV for more information.
研究兴趣
论文共 102 篇作者统计合作学者相似作者
按年份排序按引用量排序主题筛选期刊级别筛选合作者筛选合作机构筛选
时间
引用量
主题
期刊级别
合作者
合作机构
IEEE-ACM TRANSACTIONS ON NETWORKINGno. 4 (2024): 2920-2935
arxiv(2024)
引用0浏览0引用
0
0
CoRR (2024)
引用0浏览0EI引用
0
0
Zhihang Yuan, Hanling Zhang, Pu Lu,Xuefei Ning,Linfeng Zhang,Tianchen Zhao,Shengen Yan,Guohao Dai,Yu Wang
CoRR (2024)
引用0浏览0EI引用
0
0
加载更多
作者统计
#Papers: 101
#Citation: 1605
H-Index: 15
G-Index: 40
Sociability: 6
Diversity: 3
Activity: 58
合作学者
合作机构
D-Core
- 合作者
- 学生
- 导师
数据免责声明
页面数据均来自互联网公开来源、合作出版商和通过AI技术自动分析结果,我们不对页面数据的有效性、准确性、正确性、可靠性、完整性和及时性做出任何承诺和保证。若有疑问,可以通过电子邮件方式联系我们:report@aminer.cn