大规模语言模型 从理论到实践 第2版

作  者
张奇 等 著 编著
所属分类
图书 > 科学技术 > 软硬件技术
定  价
¥138.00 商品收藏
文 轩 价
登录可见
是否预售
采 购 量
库存登录可见

100

|

2040

推荐图书

热点图书2026-01-23

商品介绍

  • 作 者:张奇 等 著
  • 出版社:电子工业出版社
  • 出版时间: 2025-04-01
  • 开 本:16开
  • 页 数:252
  • 印刷时间:
  • 字 数:710000
  • 装 帧:平装
  • I S B N:9787121500572

目录

    第1章 绪论1
1.1 大语言模型的基本概念1
1.2 大语言模型的发展历程4
1.3 大语言模型的构建流程8
1.4 本书的内容安排10
第2章 大语言模型基础13
2.1 Transformer结构13
2.1.1 嵌入表示层14
2.1.2 注意力层15
2.1.3 前馈层18
2.1.4 残差连接与层归一化19
2.1.5 编码器和解码器结构20
2.2 生成式预训练语言模型GPT 25
2.2.1 自监督预训练25
2.2.2 有监督下游任务微调26
2.2.3 预训练语言模型实践27
2.3 大语言模型的结构32
2.3.1 LLaMA的模型结构33
2.3.2 注意力机制优化39
……

内容简介

    本书围绕大语言模型构建的四个阶段:预训练、指令微调、奖励建模和强化学习,详述各阶段所使用的算法、数据、难点及实践经验。在此基础上,进一步探讨了增强大语言模型能力、提升效率及如何将大语言模型落地应用的实践经验,涵盖多模态、智能体等热门方向,全面展现了大语言模型研究的最新进展。本书适合对深入研究大语言模型内在机制和实现方法感兴趣的读者阅读,也可作为高年级本科生和研究生自然语言处理课程中相关部分的补充教材。