加载中,请稍候...
封神榜是IDEA研究院推出的开源项目,旨在构建中文认知智能的基础设施。该项目包括一系列预训练模型,如二郎神、BioBART等,用于语言理解、生成和多模态任务。
封神榜模型科技成果
  • Fengshenbang 1.0: 封神榜开源计划1.0中英双语总论文,旨在成为中文认知智能的基础设施。
  • BioBART: 由清华大学和IDEA研究院一起提供的生物医疗领域的生成语言模型。(BioNLP 2022)
  • UniMC: 针对zero-shot场景下基于标签数据集的统一模型。(EMNLP 2022)
  • FMIT: 基于相对位置编码的单塔多模态命名实体识别模型。(COLING 2022)
  • UniEX: 统一抽取任务的自然语言理解模型。(ACL 2023)
  • Solving Math Word Problems via Cooperative Reasoning induced Language Models: 使用语言模型的协同推理框架解决数学问题。(ACL 2023)
  • MVP-Tuning: 基于多视角知识检索的参数高效常识问答系统。(ACL 2023)
封神榜系列模型
  • 姜子牙:通用大模型“姜子牙”系列,大于70亿参数,具备翻译,编程,文本分类,信息抽取,摘要,文案生成,常识问答和数学计算等能力。
  • 太乙:跨模态场景大模型,8千万-10亿参数 ,包括文本图像生成,蛋白质结构预测, 语音-文本表示等。
  • 二郎神:通用语言理解模型, 9千万-39亿参数,处理理解任务,拥有开源时最大的中文bert模型,2021登顶FewCLUE和ZeroCLUE.
  • 闻仲: 通用语言生成模型,1亿-35亿参数,专注于生成任务,提供了多个不同参数量的生成模型,例如GPT2等。
  • 燃灯: 通用语言转换模型,7千万-50亿参数,处理各种从源文本转换到目标文本类型的任务,例如机器翻译,文本摘要等。
  • 余元: 特定领域模型,1亿-35亿参数 ,应用于领域,如医疗,金融,法律,编程等。拥有目前最大的开源GPT2医疗模型。
  • 待定: 特定 探索 -未知- 与各技术公司和大学一起开发NLP相关的实验模型。目前已有:周文王