文章主题:moss-moon-003, 基座模型, 多轮对话数据, 偏好模型
IT之家 4 月 21 日消息,复旦大学自然语言处理实验室开发的新版 MOSS 模型今日正式上线,成为国内首个插件增强的开源对话语言模型。
目前,MOSS 模型已上线开源,相关代码、数据、模型参数已在 Github 和 Hugging Face 等平台开放,供科研人员下载。
据介绍,MOSS 是一个支持中英双语和多种插件的开源对话语言模型,moss-moon 系列模型具有 160 亿参数,在 FP16 精度下可在单张 A100 / A800 或两张 3090 显卡运行,在 INT4/8 精度下可在单张 3090 显卡运行。MOSS 基座语言模型在约七千亿中英文以及代码单词上预训练得到,后续经过对话指令微调、插件增强学习和人类偏好训练具备多轮对话能力及使用多种插件的能力。
IT之家查看 MOSS 的 GitHub 页面发现,该项目所含代码采用 Apache 2.0 协议,数据采用 CC BY-NC 4.0 协议,模型权重采用 GNU AGPL 3.0 协议。如需将该项目所含模型用于商业用途或公开部署,需要签署文件并发送至 robot@fudan.edu.cn 取得授权,商用情况仅用于记录,不会收取任何费用。
MOSS 用例:
▲ 解方程▲ 生成图片▲ 无害性测试模型
在本研究中,我们成功地利用MOSS-003基座模型进行了自监督预训练。该模型是在大量高质量的中英文语料上完成的,其中包括约700B的词汇量以及约6.67×10^22次浮点数运算。通过这种方式,我们不仅提高了模型的语言理解能力,还降低了其对人类指令的依赖性,从而为自然语言处理领域带来了新的可能性。
moss-moon-003-sft: 基座模型在约 110 万多轮对话数据上微调得到,具有指令遵循能力、多轮对话能力、规避有害请求能力。
在对大量多轮对话数据(约110万轮)以及30万插件增强的多轮对话数据进行微调之后,MOSS-MOON-003-SFT插件得以完善。基于此,该插件不仅继承了MOSS-MOON-003-SFT的基本功能,还新增了四个插件,包括搜索引擎、文生图、计算器和解方程,从而进一步提升了其应用能力。
本文将介绍一种基于MOSS-MOON-003-SFT收集的偏好反馈数据训练得到的偏好模型,该模型将在近期开源。
基于moss-moon-003-sft模型,通过偏好模型moss-moon-003-pm进行训练,最终获得的模型在事实性、安全性及回复质量方面表现更为优异。此模型预计将在不久的将来正式开源,为行业带来更高的效率与可靠性。
moss-moon-003-plugin是一种基于moss-moon-003-sft-plugin的偏好模型训练出的高级模型,它能够更好地理解和解释用户的意图,并且在插件使用方面表现更为出色。预计该模型将在不久的将来开源发布。
数据
MOSS-002所采用的多轮对话数据,涵盖了有益性、真实性以及安全性等多个方面,其中包括大约57万条由text-davinci-003生成的英文对话和59万条中文对话。
moss-003-sft-data: moss-moon-003-sft 所使用的多轮对话数据,基于 MOSS-002 内测阶段采集的约 10 万用户输入数据和 gpt-3.5-turbo 构造而成,相比 moss-002-sft-data,moss-003-sft-data 更加符合真实用户意图分布,包含更细粒度的有用性类别标记、更广泛的无害性数据和更长对话轮数,约含 110 万条对话数据。目前仅开源少量示例数据,完整数据将在近期开源。
moss-003-sft-plugin-data: moss-moon-003-sft-plugin 所使用的插件增强的多轮对话数据,包含支持搜索引擎、文生图、计算器、解方程等四个插件在内的约 30 万条多轮对话数据。目前仅开源少量示例数据,完整数据将在近期开源。
moss-003-pm-data: moss-moon-003-pm 所使用的偏好数据,包含在约 18 万额外对话上下文数据及使用 moss-moon-003-sft 所产生的回复数据上构造得到的偏好对比数据,将在近期开源。
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!