【回答问题】ChatGPT上线了!推荐30个以上比较好的中文bert系列的模型/压缩模型

推荐30个以上比较好的中文bert系列的模型
以下是一些中文 BERT 系列的模型:
BERT-Base, Chinese: 中文 BERT 基础版
BERT-Large, Chinese: 中文 BERT 大型版
BERT-WWM, Chinese: 中文 BERT 加入了 whole word masking 的版本
BERT-WWM-Ext, Chinese: 中文 BERT 加入了 whole word masking 且扩展了训练数据的版本
ALBERT-Base, Chinese: 中文 ALBERT 基础版,在 BERT 的基础上进行了参数压缩和优化
ALBERT-Large, Chinese: 中文 ALBERT 大型版
ALBERT-XLarge, Chinese: 中文 ALBERT 超大型版
RoBERTa-Base, Chinese: 中文 RoBERTa 基础版,在 BERT 的基础上进行了进一步优化
RoBERTa-Large, Chinese: 中文 RoBERTa 大型版
RoBERTa-WWM, Chinese: 中文 RoBERTa 加入了 whole word masking 的版本
RoBERTa-WWM-Ext, Chinese: 中文 RoBERTa 加入了 whole word masking 且扩展了训练数据的版本
XLM-RoBERTa-Base, Chinese: 中文 XLM-RoBERTa 基础版,在 RoBERTa 的基础上使用了多语言训练数据
XLM-RoBERTa-Large, Chinese: 中文 XLM-RoBERTa 大型版
GPT-2, Chinese: 中文 GPT-2,自然语言生成模型
本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!
