中国科学院自动化研究所和武汉人工智能研究院推出新一代多模态大模型,支持多轮问答、文本创作、图像生成、3D理解、信号分析等全面问答任务,拥有更强的认知、理解、创作能力,带来全新互动体验。
紫东太初大模型特点
- 多模态融合:业内首个千亿参数三模态大模型,也是全球首个图、文、音三模态大模型,能够处理和理解多种模态的数据,如文本、图像、音频等,并实现不同模态间的交互和关联。
- 全模态升级:从三模态走向全模态,在语音、图像和文本三模态基础上,加入视频、传感信号、3D 点云等模态数据,具备更强大的全模态理解、生成和关联能力。
- 技术创新:突破了认知增强的多模态关联等关键技术,打通了感知、认知乃至决策的交互屏障,使人工智能进一步感知和认知世界,延伸出更强大的通用能力 。
- 广阔应用前景:已在神经外科手术导航、短视频内容审核、法律咨询、医疗多模态鉴别诊断、交通违规图像研读等多个领域开展了引领性、示范性应用。
- 国产化底座:以自动化所自研算法为核心,以昇腾 AI 硬件及昇思 MindSpore AI 框架为基础,依托武汉人工智能计算中心算力支持,着力打造全栈国产化通用人工智能底座,推动国产基础软硬件与大模型技术的适配 。
紫东太初大模型优点
- 多模态交互优势:通过多模态融合,能更全面、准确地理解和处理复杂信息,为用户提供更丰富、更深入的交互体验。
- 应用领域广泛:在众多领域都有成功的应用案例或应用前景,可满足不同行业的多样化需求,为各行业的智能化发展和创新提供有力支持 。
- 推动技术发展:其技术创新和全模态的探索,为人工智能向通用化发展迈出了坚实的一步,也为相关技术的研究和发展提供了重要的参考和借鉴。