Lan Zhang
Lingsgz
📂读读paper
Chrysakis, Aristotelis, and Marie-Francine Moens. "Online bias correction for task-free continual learning." ICLR 2023 at OpenReview (2023).code not available_论文阐述了传统的无任务的持续学习训练范式高估了当前流观测的重要性,造成了持续学习的预测偏差。因此提出了一个新的度量以量化预测偏差,阐明通过适当修改模型最后一层的参数,可以有效地减轻这种偏差。同时设计了OBC以维持无任务持续学习的无偏训练。论文的相关工作中提到了__持续学习是从非平稳
»
各种论文库收集
Incremental Learning(GH)Domain adaptation via transfer component analysis(CP)Unsupervised Domain Adaptation by Backpropagation(CP)Transfer Learning survey(Zhihu)
Hou, Yunzhong, and Liang Zheng. "Visualizing adapted knowledge in domain transfer." Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2021.code available这篇论文是研究了UDA中适应知识可视化的科学问题。具体来说,我们提出了一种无源图像转换(SFIT)方法,该方法在源模型和目标模型的指导下,从原始目标图像中生成源式图像。源模型上的翻译图像获得了与目标模型上的目标图像相似的结果,表
Kim, Chris Dongjoo, et al. "Continual learning on noisy data streams via self-purified replay." Proceedings of the IEEE/CVF international conference on computer vision. 2021.code availablerelated papers这篇论文是关于持续学习和噪声标签数据学习的。噪声标签数据会加剧灾难性遗忘。该论文提出的SPR通过自中心过滤器将delayed buffer中的数据处理成puried buffer。然后基于P和D来