通用视觉开源平台OpenGVLab发布大幅降低通用视觉模型开发门槛
读创/深圳商报记者 涂竞玉
2月25日,上海人工智能实验室联合商汤科技、香港中文大学、上海交通大学共同发布通用视觉开源平台OpenGVLab,面向学术界和产业界开放其超高效预训练模型,和千万级精标注、十万级标签量的公开数据集,为全球开发者提升各类下游视觉任务模型训练提供重要支持。
同时,OpenGVLab还同步开放了业内首个针对通用视觉模型的评测基准,便于开发者对不同通用视觉模型的性能进行横向评估和持续调优。目前OpenGVLab开源平台(https://opengvlab.shlab.org.cn)已正式上线,供各界研究人员访问和使用,后续项目还将开通在线推理功能,供所有对人工智能视觉技术感兴趣的社会人士自由体验。
"开源是一项意义非凡的工作,人工智能技术的迅速发展离不开全球研究人员十余年来的开源共建",上海人工智能实验室负责人表示,"希望通过发布OpenGVLab开源平台,帮助业界更好地探索和应用通用视觉AI技术,促进体系化解决AI发展中数据、泛化、认知和安全等诸多瓶颈问题,为推动人工智能学术、产业发展做出贡献。"
如今虽然人工智能技术快速发展,但很多AI模型还只能完成单一任务,比如识别单一物体,或识别风格较为统一的照片。如果要对多种类型、风格进行识别,则需要具备足够的通用性和泛化能力。去年11月,上海人工智能实验室联合商汤科技、香港中文大学、上海交通大学发布的通用视觉技术体系"书生",很好地解决了这一问题。
通用视觉开源平台OpenGVLab正是基于通用视觉技术体系"书生"(INTERN)打造的。依托"书生"在通用视觉技术上的强劲支撑,OpenGVLab将帮助开发者显著降低通用视觉模型的开发门槛,用更低成本快速开发用于成百上千种视觉任务、视觉场景的算法模型,高效实现对长尾场景的覆盖,推动AI技术的规模化应用。
据了解,伴随OpenGVLab的发布,上海人工智能实验室还开放了业内首个针对通用视觉模型的评测基准,弥补通用视觉模型评测领域的空白。
审读:喻方华