2月25日,上海人工智能实验室联合商汤科技发布通用视觉开源平台OpenGVLab,面向学术界和产业界开放其超高效预训练模型、超大规模公开数据集,以及业内首个针对通用视觉模型的评测基准。此举将为全球开发者提升各类下游视觉任务模型训练提供重要支持,推动AI技术的规模化应用落地,并促进人工智能基础研究及生态建设的快速发展。

继去年11月联合商汤科技、香港中文大学和上海交通大学发布通用视觉技术体系“书生”(INTERN),上海人工智能实验室在推动通用视觉智能技术的发展上持续发力。此次发布的通用视觉开源平台OpenGVLab不仅包含超高效预训练模型,同时包括千万级精标注、十万级标签量的公开数据集;同步公布的评测基准则将便于开发者对不同通用视觉模型的性能进行横向评估和持续调优。

当前,人工智能技术正快速发展,然而很多AI模型还局限于完成单一任务,如识别单一物体,或识别风格较为统一的照片。如果要对多种类型、风格进行识别,则需要具备足够的通用性和泛化能力。通用视觉技术体系“书生”(INTERN),很好地解决了这一问题。通用视觉开源平台OpenGVLab即是基于“书生”打造而成。依托“书生”在通用视觉技术上的支撑,OpenGVLab将大幅降低通用视觉模型的开发门槛,帮助开发者用更低的成本快速开发用于成百上千种视觉任务、视觉场景的算法模型,高效实现对长尾场景的覆盖,推动AI技术的规模化应用落地。

据悉,OpenGVLab充分继承了通用视觉技术体系“书生”的技术优势,其开源的预训练模型具备极高性能。相较于此前公认的最强开源模型(OpenAI于2021年发布的CLIP),OpenGVLab的模型可全面覆盖分类、目标检测、语义分割、深度估计四大视觉核心任务,在准确率和数据使用效率上均取得大幅提升。基于同样的下游场景数据,开源模型在分类、目标检测、语义分割及深度估计四大任务26个数据集上,平均错误率分别降低了40.2%、47.3%、34.8%和9.4%;同时,在分类、检测、分割和深度估计中,仅用10%的下游训练数据就超过了现有其他开源模型。使用此模型,研究人员可以大幅降低下游数据采集成本,用极低的数据量即可快速满足多场景、多任务的AI模型训练。

随着人工智能与产业融合的不断深入,行业对人工智能的需求逐渐从单一任务向复杂的多任务协同发展,亟需构建开源、开放的体系,以满足趋于碎片化和长尾化的海量应用需求。

伴随OpenGVLab的发布,上海人工智能实验室还开放了业内首个针对通用视觉模型的评测基准。当前,行业中已有的评测基准主要针对单一任务、单一视觉维度而设,无法反映通用视觉模型的整体性能,难以用于横向比较。全新的通用视觉评测基准凭借在任务、数据等层面的创新设计,可提供权威的评测结果,推动统一标准上的公平和准确评测,加快通用视觉模型的产业化应用步伐。

推荐内容