近日,斯坦福大学李飞飞组的研究者发表论文《Auto-DeepLab: Hierarchical Neural Architecture Search for Semantic Image Segmentation》,提出了Auto-DeepLab,其在图像语义分割问题上超越了很多业内最佳模型,甚至可以在未经过预训练的情况下达到预训练模型的表现。Auto-DeepLab开发出与分层架构搜索空间完全匹配的离散架构的连续松弛,能够显著提高架构搜索的效率,降低算力需求。
据了解,该论文主要贡献如下:
•这是首次将 NAS 从图像分类任务扩展到密集图像预测任务的尝试之一。
•该研究提出了一个网络级架构搜索空间,它增强和补充了已经得到深入研究的单元级架构搜索,并对网络级和单元级架构进行更具挑战性的联合搜索。
•本研究提出了一种可微的连续方式,保证高效运行两级分层架构搜索,在一个 GPU 上仅需 3 天。
•在未经 ImageNet 预训练的情况下,Auto-DeepLab 模型在 Cityscapes 数据集上的性能显著优于 FRRN-B 和 GridNet,同时也和 ImageNet 预训练当前最佳模型性能相当。在 PASCAL VOC 2012 和 ADE20K 数据集上,最好的 Auto-DeepLab 模型优于多个当前最优模型。
据悉,在回归斯坦福大学当教授之前,李飞飞曾担任谷歌中国AI负责人,并在担任谷歌云负责人与首席科学家的两年间,建立了一个高效的团队,帮助 Google 加速将人工智能和机器学习引入自己的云服务中。