⚠️ 本文最后更新于2024年01月24日,已经过了694天没有更新,若内容或图片失效,请留言反馈 > [__Shi, Guangyuan, et al. "Overcoming catastrophic forgetting in incremental few-shot learning by finding flat minima." Advances in neural information processing systems 34 (2021): 6747-6761.__](https://proceedings.neurips.cc/paper_files/paper/2021/file/357cfba15668cc2e1e73111e09d54383-Paper.pdf) > [__code available__](https://github.com/moukamisama/F2M) _论文关注Continual Learning中的Few-shot问题,发现对于few-shot问题,一个简单的基类训练的基线模型优于最先进的方法,这证明了灾难性遗忘的严重性。论文提出了一种寻找到基类损失最小化的平面,在该平面上对于新的类数据进行fine-tune以避免灾难性遗忘的方式。_ ### _Methods_  确定base损失最小的空间,后续在该空间上优化参数。  比较论文方法和其他方法的不同之处。flat的存在可以让优化新类别的时候避免对先前的知识产生较大的影响。 ___ ### _Experiments_ _Datasets. For CIFAR-100 and miniImageNet, we randomly select 60 classes as the base classes and the remaining 40 classes as the new classes. In each incremental learning session, we construct 5-way 5-shot tasks by randomly picking 5 classes and sampling 5 examples for each class. For CUB-200-2011 with 200 classes, we select 100 classes as the base classes and 100 classes as the new ones. We test 10-way 5-shot tasks on this dataset._  By Lingsgz On 2024年1月24日