来自英伟达(Nvidia)、多伦多大学(University of Toronto)和多伦多矢量人工智能研究所(Vector Institute for Artificial Intelligence)的研究人员设计了一种方法,可以更精确地探测和预测物体的起点和终点。这些知识可以改进现有计算机视觉模型的推理,并为未来的模型标记训练数据。
在研究人员的实验中,语义细化的边缘对齐学习(steal)能够将最先进的casenet语义边界预测模型的精度提高4%。更精确地识别物体的边界可以应用于计算机视觉任务,从图像生成到三维重建到物体检测。
STEAL可用于改进现有的CNNs或边界检测模型,但研究人员还认为它可以帮助他们更有效地标记或注释计算机视觉模型的数据。为证明这一点,STEAL方法用于改进城市景观,这是2016年首次在计算机视觉和模式识别(CVPR)会议上引入的城市环境数据集。
在GitHub上,STEAL框架以像素为单位学习和预测对象边缘,研究人员称之为“主动对齐”。“在训练过程中对注释噪声进行明确的推理,以及为网络提供一个从端到端排列不当的标签中学习的分级公式,也有助于产生结果。”