推广稿 | 新一代通用视觉技术体系“书生”问世

赵广立 ☉ 文 来源:中国科学报
2021-12-02 @ 哈希力量文库

文库划重点:通用视觉技术体系“书生”由7个模块组成,包括通用视觉数据系统、通用视觉网络结构、通用视觉评测基准三个基础设施模块,以及区分上下游的四个训练阶段模块。


近日,上海人工智能实验室联合商汤科技、香港中文大学、上海交通大学共同发布新一代通用视觉技术体系“书生”(INTERN)。该技术体系旨在系统化解决当下人工智能视觉领域中存在的任务通用、场景泛化和数据效率等一系列瓶颈问题。目前,相应技术报告《INTERN:一种通向通用视觉的新学习范式》已在arXiv平台发布。3Pm哈希力量 | 消除一切智能鸿沟

书生作为中国古代读书人的经典形象,代表着一个通过不断学习、不断成长进而拥有各方面才能的人格化角色。而将全新的通用视觉技术体系命名为“书生”,据发布者介绍,意在体现其如同书生一般的特质,可通过持续学习、举一反三,逐步实现通用视觉领域的融会贯通,最终实现灵活高效的模型部署。3Pm哈希力量 | 消除一切智能鸿沟

任务通用和数据学习效率是制约当前人工智能发展的瓶颈。“当前发展通用视觉的核心,是提升模型的通用泛化能力和学习过程中的数据效率。”上海人工智能实验室主任助理乔宇表示,面向未来,“书生”通用视觉技术将实现以一个模型完成成百上千种任务,体系化解决人工智能发展中数据、泛化、认知和安全等诸多瓶颈问题。3Pm哈希力量 | 消除一切智能鸿沟

通用视觉技术体系“书生”由7个模块组成,包括通用视觉数据系统、通用视觉网络结构、通用视觉评测基准三个基础设施模块,以及区分上下游的四个训练阶段模块。上述技术报告显示,一个“书生”基模型即可全面覆盖分类、目标检测、语义分割、深度估计四大视觉核心任务。在ImageNet等26个最具代表性的下游场景中,书生模型展现了极强的通用性,显著提升了这些视觉场景中长尾小样本设定下的性能。3Pm哈希力量 | 消除一切智能鸿沟

同时,相较于OpenAI 今年发布的CLIP(当前最强开源模型),“书生”在准确率和数据使用效率上均有大幅提升。具体而言,基于同样的下游场景数据,“书生”在分类、目标检测、语义分割及深度估计四大任务26个数据集上的平均错误率分别降低了40.2%、47.3%、34.8%和9.4%。“书生”在数据效率方面的提升尤为令人瞩目:只需要1/10的下游数据,就能超过CLIP基于完整下游数据的准确度,例如在花卉种类识别FLOWER任务上,每一类只需两个训练样本,就能实现99.7%的准确率。3Pm哈希力量 | 消除一切智能鸿沟

商汤科技研究院院长王晓刚介绍说,“书生”通用视觉技术体系是商汤在通用智能技术发展趋势下前瞻性布局的一次尝试,也是SenseCore商汤AI大装置背景下的一次新技术路径探索。他表示:“‘书生’承载了让人工智能参与处理多种复杂任务、适用多种场景和模态、有效进行小数据和非监督学习并最终具备接近人的通用视觉智能的期盼。希望这套技术体系能够帮助业界更好地探索和应用通用视觉AI技术,促进AI规模化落地。”3Pm哈希力量 | 消除一切智能鸿沟

根据计划,基于“书生”的通用视觉开源平台OpenGVLab将在2022年年初正式开源,向学术界和产业界公开预训练模型及其使用范式、数据系统和评测基准等。OpenGVLab将与上海人工智能实验室此前发布的OpenMMLab、OpenDILab一道,共同构筑开源体系OpenXLab,助力通用人工智能的基础研究和生态构建。3Pm哈希力量 | 消除一切智能鸿沟

相关论文信息:3Pm哈希力量 | 消除一切智能鸿沟

http://arxiv.org/abs/2111.086873Pm哈希力量 | 消除一切智能鸿沟

《中国科学报》 (2021-12-02 第3版 信息技术)3Pm哈希力量 | 消除一切智能鸿沟



收录于哈希力量,手机站省略本文固定网址