在自然语言处理领域中,预训练语言模型(Pretrained Language Models)已成为非常重要的基础技术,本仓库主要收集目前网上公开的一些高质量中文预训练模型,并将持续更新。包含自然语言理解系列模型,如BERT、RoBERTa、ALBERT、NEZHA、XLNET、MacBERT、ELECTRA、ZEN、ERNIE。自然语言生产系列模型,如GPT、NEZHA-GEN、UniLM
资源整理自网络,模型下载地址见源地址:
https://github.com/lonePatient/awesome-pretrained-chinese-nlp-models