admin管理员组文章数量:1530259
"Dataset Distillation: A Comprehensive Review," arXiv, 2023.
paper:https://arxiv/pdf/2301.07014.pdf
code:https://github/Guang000/Awesome-Dataset-Distillation
"Dataset Distillation"是一种知识蒸馏(distillation)方法,它旨在通过在大型训练数据集中提取关键样本或特征来减少深度神经网络的体积。这种方法可以帮助缓解由于海量数据带来的存储和传输压力,并且可以加速模型推理的速度。
Fig. 1. An overview for dataset distillation. Dataset distillation aims to generate a small informative dataset such that the models trained on these samples have similar test performance to those trained on the original dataset.
本文标签: DatasetdistillationreviewComprehensive
版权声明:本文标题:【综述】2023-Dataset Distillation:A Comprehensive Review 内容由热心网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:https://m.elefans.com/dongtai/1725896599a1047715.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论