back to home

datawhalechina / easy-rl

强化学习中文教程(蘑菇书🍄),在线阅读地址:https://datawhalechina.github.io/easy-rl/

13,686 stars
2,213 forks
56 issues
Jupyter NotebookPython

AI Architecture Analysis

This repository is indexed by RepoMind. By analyzing datawhalechina/easy-rl in our AI interface, you can instantly generate complete architecture diagrams, visualize control flows, and perform automated security audits across the entire codebase.

Our Agentic Context Augmented Generation (Agentic CAG) engine loads full source files into context, avoiding the fragmentation of traditional RAG systems. Ask questions about the architecture, dependencies, or specific features to see it in action.

Embed this Badge

Showcase RepoMind's analysis directly in your repository's README.

[![Analyzed by RepoMind](https://img.shields.io/badge/Analyzed%20by-RepoMind-4F46E5?style=for-the-badge)](https://repomind-ai.vercel.app/repo/datawhalechina/easy-rl)
Preview:Analyzed by RepoMind

Repository Summary (README)

Preview

GitHub issues GitHub stars GitHub forks Downloads <a rel="license" href="http://creativecommons.org/licenses/by-nc-sa/4.0/"><img alt="知识共享许可协议" style="border-width:0" src="https://img.shields.io/badge/license-CC%20BY--NC--SA%204.0-lightgrey" /></a>

蘑菇书EasyRL

李宏毅老师的《深度强化学习》是强化学习领域经典的中文视频之一。李老师幽默风趣的上课风格让晦涩难懂的强化学习理论变得轻松易懂,他会通过很多有趣的例子来讲解强化学习理论。比如老师经常会用玩 Atari 游戏的例子来讲解强化学习算法。此外,为了教程的完整性,我们整理了周博磊老师的《强化学习纲要》、李科浇老师的《世界冠军带你从零实践强化学习》以及多个强化学习的经典资料作为补充。对于想入门强化学习又想看中文讲解的人来说绝对是非常推荐的。

本教程也称为“蘑菇书”,寓意是希望此书能够为读者注入活力,让读者“吃”下这本蘑菇之后,能够饶有兴致地探索强化学习,像马里奥那样愈加强大,继而在人工智能领域觅得意外的收获。

贡献者

<table border="0"> <tbody> <tr align="center" > <td> <a href="https://github.com/qiwang067"><img width="70" height="70" src="https://github.com/qiwang067.png?s=40" alt="pic"></a><br> <a href="https://github.com/qiwang067">Qi Wang</a> <p>教程设计(第1~12章)<br> 上海交通大学博士生<br> 中国科学院大学硕士</p> </td> <td> <a href="https://github.com/yyysjz1997"><img width="70" height="70" src="https://github.com/yyysjz1997.png?s=40" alt="pic"></a><br> <a href="https://github.com/yyysjz1997">Yiyuan Yang</a> <p>习题设计&第13章 <br> 牛津大学博士生<br> 清华大学硕士</p> </td> <td> <a href="https://github.com/JohnJim0816"><img width="70" height="70" src="https://github.com/JohnJim0816.png?s=40" alt="pic"></a><br> <a href="https://github.com/JohnJim0816">John Jim</a> <p>算法实战<br> 北京大学硕士</p> </td> </tr> </tbody> </table>

使用说明

纸质版

<img src="https://raw.githubusercontent.com/datawhalechina/easy-rl/master/docs/res/mogu.png" width="300">

推荐购买链接:京东 | 当当

<table border="0"> <tbody> <tr align="center" > <td> <img width="120" height="120" src="https://raw.githubusercontent.com/datawhalechina/easy-rl/master/docs/res/qrcode_jingdong.jpg" alt="pic"> <br> <p>推荐京东扫码购买</p> </td> <td> <img width="120" height="120" src="https://raw.githubusercontent.com/datawhalechina/easy-rl/master/docs/res/qrcode_dangdang.png" alt="pic"><br> <p>当当扫码购买</p> </td> </tr> </tbody> </table>

豆瓣评分:https://book.douban.com/subject/35781275/

[!IMPORTANT] 勘误修订表https://datawhalechina.github.io/easy-rl/#/errata

在线阅读(内容实时更新)

地址:https://datawhalechina.github.io/easy-rl/

最新版PDF下载

地址:https://github.com/datawhalechina/easy-rl/releases

国内地址:链接: https://pan.baidu.com/s/1isqQnpVRWbb3yh83Vs0kbw 提取码: us6a

压缩版(推荐网速较差的读者使用,文件小,图片分辨率较低):链接: https://pan.baidu.com/s/1mUECyMKDZp-z4-CGjFhdAw 提取码: tzds

纸质版和PDF版的区别

PDF版本是全书初稿,人民邮电出版社的编辑老师们对初稿进行了反复修缮,最终诞生了纸质书籍,在此向人民邮电出版社的编辑老师的认真严谨表示衷心的感谢!(附:校对样稿)

<center class="half"><img src="https://raw.githubusercontent.com/datawhalechina/easy-rl/master/docs/res/yanggao.png" width="680"></center>

内容导航

章节习题相关项目配套代码
第一章 强化学习基础第一章 习题
第二章 马尔可夫决策过程 (MDP)第二章 习题值迭代算法
第三章 表格型方法第三章 习题Q-learning算法实战Q-learningSarsa蒙特卡洛
第四章 策略梯度第四章 习题策略梯度
第五章 近端策略优化 (PPO) 算法第五章 习题PPO
第六章 DQN (基本概念)第六章 习题DQN
第七章 DQN (进阶技巧)第七章 习题DQN算法实战Double DQNDueling DQNPER DQNNoisy DQN
第八章 DQN (连续动作)第八章 习题
第九章 演员-评论员算法第九章 习题A2C
第十章 稀疏奖励第十章 习题
第十一章 模仿学习第十一章 习题
第十二章 深度确定性策略梯度 (DDPG) 算法第十二章 习题DDPG算法实战DDPG
第十三章 AlphaStar 论文解读
ICLR'25 Oral 强化学习玩MineCraft
视觉强化学习论文清单(Awesome Visual RL)
世界模型的本质

算法实战

算法实战部分包括附书代码和JoyRL代码:

经典强化学习论文解读

点击或者网页点击papers文件夹进入经典强化学习论文解读

扩展资源

相关视频内容

引用信息

王琦,杨毅远,江季,Easy RL:强化学习教程,人民邮电出版社,https://github.com/datawhalechina/easy-rl, 2022.
Qi Wang, Yiyuan Yang, Ji Jiang,Easy RL: Reinforcement Learning Tutorial,Posts & Telecom Press,https://github.com/datawhalechina/easy-rl, 2022.
@book{wang2022easyrl,
title = {Easy RL:强化学习教程},
publisher = {人民邮电出版社},
year = {2022},
author = {王琦,杨毅远,江季},
address = {北京},
isbn = {9787115584700},
url = {https://github.com/datawhalechina/easy-rl}
}
@book{wang2022easyrl,
title = {Easy RL: Reinforcement Learning Tutorial},
publisher = {Posts & Telecom Press},
year = {2022},
author = {Qi Wang, Yiyuan Yang, Ji Jiang},
address = {Beijing},
isbn = {9787115584700},
url = {https://github.com/datawhalechina/easy-rl}
}

如果您需要转载该教程的内容,请注明出处:https://github.com/datawhalechina/easy-rl

致谢

特别感谢 @Sm1les@LSGOMYP 对本项目的帮助与支持。

另外,十分感谢大家对于Easy-RL的关注。 Stargazers repo roster for @datawhalechina/easy-rl Forkers repo roster for @datawhalechina/easy-rl

关注我们

扫描下方二维码关注公众号:Datawhale,回复关键词“Easy-RL”,即可加入“Easy-RL读者交流群”

<div align=center><img src="https://raw.githubusercontent.com/datawhalechina/easy-rl/master/docs/res/qrcode.jpeg" width = "250" height = "270" alt="Datawhale是一个专注AI领域的开源组织,以“for the learner,和学习者一起成长”为愿景,构建对学习者最有价值的开源学习社区。关注我们,一起学习成长。"></div>

LICENSE

<a rel="license" href="http://creativecommons.org/licenses/by-nc-sa/4.0/"><img alt="知识共享许可协议" style="border-width:0" src="https://img.shields.io/badge/license-CC%20BY--NC--SA%204.0-lightgrey" /></a><br />本作品采用<a rel="license" href="http://creativecommons.org/licenses/by-nc-sa/4.0/">知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议</a>进行许可。

Star History

Star History