人民网北京6月16日电 (记者赵竹青)6月16日,在人工智能框架生态峰会2023上,中国科学院自动化研究所所长徐波正式发布“紫东太初”全模态大模型。
据介绍,“紫东太初”全模态大模型是在千亿参数多模态大模型“紫东太初”1.0基础上升级打造的2.0版本,在语音、图像和文本三模态的基础上,加入视频、传感信号、3D点云等模态数据,研究突破了认知增强的多模态关联等关键技术,具备全模态理解能力、生成能力和关联能力,面向数字经济时代加速通用人工智能的实现。
“紫东太初”2.0可以理解三维场景、传感信号等数字物联时代的重要信息,完成了音乐、图片和视频等数据之间的跨模态对齐,能够处理音乐视频分析、三维导航等多模态关联应用需求,并可实现音乐、视频等多模态内容理解和生成。
“紫东太初”2.0以自动化所自研算法为核心,以昇腾AI硬件及昇思MindSpore AI框架为基础,依托武汉人工智能计算中心算力支持,着力打造全栈国产化通用人工智能底座。长期以来,强大的算力支撑是约束我国人工智能发展的瓶颈之一,此举将有力推动国产基础软硬件与大模型技术的适配,协同构建我国通用人工智能自主可控发展生态。
目前,“紫东太初”大模型已在神经外科手术导航、短视频内容审核、法律咨询、医疗多模态鉴别诊断、交通违规图像研读等领域开始了一系列应用。
徐波表示,自动化所以“紫东太初”大模型为基础,持续探索与类脑智能、博弈智能等技术路径的相互融合,最终实现可自主进化的通用人工智能。并将探索在更多领域发挥赋能价值,为促进我国数字经济快速发展贡献力量。
(责任编辑:罗伯特)