Baichuan-7B是由百川智能开发的一个开源可商用的大规模预训练语言模型,拥有大约70亿参数,并在1.2万亿个token上进行训练。

ChatGLM-6B是清华大学 和智谱AI共同训练的语言模型,拥有6亿个参数,在10亿个token上进行训练。

Baichuan-7B整体模型基于标准的Transformer结构,采用了和LLaMA一样的模型设计,并支持中英双语。主要用于代码相关的任务。

ChatGLM-6B则采用了GLM模型结构,是一种基于Transformer的通用预训练语言模型。主要用于文本生成、对话系统等任务。