您当前的位置: 首页 > 

静静喜欢大白

暂无认证

  • 2浏览

    0关注

    521博文

    0收益

  • 0浏览

    0点赞

    0打赏

    0留言

私信
关注
热门博文

【CNN】连续学习/持续学习,增量学习

静静喜欢大白 发布时间:2021-12-29 20:32:02 ,浏览量:2

1、简介

之后该博客mark连续学习相关工作

2、Panel

Panel嘉宾:

余山 (中国科学院自动化研究所)、李玺 (浙江大学)、王子磊 (中国科学技术大学)、孙干 (中国科学院沈阳自动化研究所)、刘宇 (大连理工大学)

Panel议题:

1. 连续学习、增量学习、终身学习的定义和目标是否是完全一致的?

2. 连续学习,特别是小样本连续学习,与元学习Meta learning在目标上的异同是什么,各自有什么应用的场景?

3. 目前大部分连续学习/增量学习方法仍依赖于完备的标注数据,请问在非监督或半监督学习条件下,是否有哪些可行的解决思路?

4. 当前不少连续学习/增量学习方法都或多或少地使用了旧类别的部分样本,请问基于replay的方法和不带有旧类exemplar的方法哪个才更是增量学习发展的主流?

5. 增量学习通常分为Task-incremental、domain-incremental以及class-incremental,它们的核心差异是什么?有没有其它的划分方式?

6. 目前的增量学习方法通常隐式地要求任务的性质差异或者domain shift不能太大,甚至假设所有类/样本都来自同一数据集,探索在真实场景中表现更稳健的算法可以从哪些角度研究?

 

关注
打赏
1510642601
查看更多评论
立即登录/注册

微信扫码登录

0.0384s