目录
- 1.标注高效的核心思路:
- 1.部分监督PSL
- 2.自监督SSL
- 魔方复原
- 3.单一标注
- 无标注
- 2.深度通用学习DUL
- 1.通用特征点检测
- 2.通用MRI重建
- 3.学习与知识融合
如何把大数据小任务转换成小数据大任务
1.标注高效的核心思路:
- 以一变二:数据增广
- 无中生有,利用大量无标注数据:自、半监督学习,对比学习
- 聚少为多,聚集多个数据集为“大数据”:部分监督学习、深度通用学习
1.部分监督PSL
全标注图,除了一个背景p0,其他5个前景均为器官。对于单个器官,背景+其他器官均为该器官的背景图。考虑到了各个器官的关联性,avg Dice达到了如图所示的.931。
2.自监督SSL
现有:大量的未标签数据和目标任务已有的小部分有标签数据
思路:利用大量的未标签数据定义一个代理任务(proxy task),通过生成的代理标签进行网络学习,得到一个预训练模型。再拿这个模型作为一个初始化,再通过微调,迁移到我们的目标任务,最后学习到目标模型。
魔方复原
最早探索自监督学习应用到医学图像的例子,像魔方一样可以拆解,打乱,成为代理标签。代理任务就是根据代理标签把魔方复原。
如右图,TFS从零开始,通过使用魔方复原,性能提高了。
3.单一标注
任给一个图像,对于其中的任意一个像素点,可以对该像素点做一个增广图,并且能知道这个像素点的具体位置。训练一个神经网络,进行匹配。
可以通过上面,把特征点的标注,迁移到未标注的数据上。然后进一步训练特征点检测的网络。
无标注
利用简单的一些操作(噪声、滤波、缩放等)合成‘病灶’,重复做一遍可以得到一些像lesion的东西。把这些合成的lesion放到正常的CT里面,利用合成的数据训练分割。
缺点是无法确定lesion的位置
2.深度通用学习DUL
类似于一把红色刀柄上,可以有多把用来做不同任务的刀
对于任务X,不同的Xi+W0+不同的参数Wi,输出对应的Yi。里面会有不同的架构,架构有两个例子:
1.通用特征点检测
常规思路是对于每个任务训练一个神经网络。
设计的通用网络是在卷积部分中引入特定的参数,其他参数是共享的参数。
2.通用MRI重建
通用架构中引入了自有的参数γα和βα。
3.学习与知识融合
开源网站MONAI
https://blog.csdn.net/l2181265/article/details/120483379
该数据集
前两个是3维的,1000+体数据。第三个是2维。