ContrastiveSeg:探索跨图像像素对比度的语义分割 源码
探索跨图像像素对比度的语义分割 , ,,,,和 arXiv技术报告( ) 抽象的 当前的语义分割方法仅关注于通过上下文聚合模块(例如,扩张的卷积,神经注意力)或结构感知优化标准(例如,类似IoU的损失)来挖掘“局部”上下文,即单个图像内像素之间的依赖关系。 但是,它们忽略了训练数据的“全局”上下文,即不同图像之间像素之间的丰富语义关系。 受无监督对比表示学习的最新进展启发,我们提出了一种在完全监督环境下进行语义分割的像素级对比框架。 核心思想是强制属于同一语义类的像素嵌入要比来自不同类的像素嵌入更相似。 通过显式地探索标记的像素的结构,该字段提出了一种用于语义分割的逐像素度量学习范式,这些标记字段在本领域中长期被忽略。 我们的方法可以毫不费力地合并到现有的细分框架中,而无需在测试过程中增加额外的开销。 我们通过实验证明,借助著名的细分模型(即DeepLabV3,HRNet,OCR)和
文件列表
ContrastiveSeg:探索跨图像像素对比度的语义分割
(预估有个384文件)
addToConfusionMatrix_impl.c
731B
inplace_abn.cpp
2KB
inplace_abn_cuda.cu
10KB
inplace_abn_cpu.cpp
3KB
lib_cffi.cpp
3KB
ca.cu
8KB
inplace_abn.cpp
3KB
inplace_abn_cuda.cu
10KB
inplace_abn_cpu.cpp
3KB
inplace_abn_cuda_half.cu
8KB
暂无评论