《大规模语言模型:从理论到实践》这本书全面介绍了构建大型语言模型的四个关键阶段:预训练、有监督微调、奖励建模和强化学习。

大模型书籍推荐:大规模语言模型从理论到实践(含PDF免费)_pdf

一、内容简介

书中详细讨论了每个阶段的算法、代码、数据、难点和实践经验。它从基础理论出发,讲解了预训练数据构建方法、大语言模型服从人类指令的原理,以及大语言模型的应用和评估方法。

这本书既适合对大语言模型感兴趣的读者作为入门指南,也适合作为高年级本科生和研究生自然语言处理课程的补充教材。

二、书籍目录

第1章 绪论

1.1 大语言模型的基本概念
1.2 大语言模型的发展历程
1.3 大语言模型的构建流程
1.4 本书的内容安排

第2章 大语言模型基础

2.1 Transformer结构
2.2 生成式预训练语言模型GPT
2.3 大语言模型的结构
2.4 实践思考

第3章 大语言模型预训练数据

3.1 数据来源
3.3 数据影响分析
3.4 开源数据集
3.5 实践思考

第4章 分布式训练

4.1 分布式训练概述
4.2 分布式训练的并行策略
4.3 分布式训练的集群架构
4.4 DeepSpeed实践
4.5 实践思考

第5章 有监督微调

5.1 提示学习和语境学习
5.2 高效模型微调
5.3 模型上下文窗口扩展
5.4 指令数据的构建
5.5 DeepSpeed-Chat SFT实践
5.6 实践思考

第6章 强化学习

6.1 基于人类反馈的强化学习
6.2 奖励模型
6.3 近端策略优化
6.4 MOSS-RLHF实践
6.5 实践思考

第7章 大语言模型应用

7.1 推理规划
7.2 综合应用框架
7.3 智能代理
7.4 多模态大语言模型
7.5 大语言模型推理优化
7.6 实践思考

第8章 大语言模型评估

8.1 模型评估概述
8.2 大语言模型评估体系
8.3 大语言模型评估方法
8.4 大语言模型评估实践
8.5 实践思考

大模型书籍推荐:大规模语言模型从理论到实践(含PDF免费)_大模型_02


大模型书籍推荐:大规模语言模型从理论到实践(含PDF免费)_人工智能_03