历史最全最新中文自然语言处理预训练模型汇总分享-内含免费下载地_持续更新

    在自然语言处理领域中,预训练语言模型(Pretrained Language Models)已成为非常重要的基础技术,本仓库主要收集目前网上公开的一些高质量中文预训练模型,并将持续更新。包含自然语言理解系列模型,如BERT、RoBERTa、ALBERT、NEZHA、XLNET、MacBERT、ELECTRA、ZEN、ERNIE。自然语言生产系列模型,如GPT、NEZHA-GEN、UniLM

    资源整理自网络,模型下载地址见源地址:

​https://github.com/lonePatient/awesome-pretrained-chinese-nlp-models​

历史最全最新中文自然语言处理预训练模型汇总分享-内含免费下载地_github_02

历史最全最新中文自然语言处理预训练模型汇总分享-内含免费下载地_源地址_03

历史最全最新中文自然语言处理预训练模型汇总分享-内含免费下载地_持续更新_04

历史最全最新中文自然语言处理预训练模型汇总分享-内含免费下载地_github_05