Skip to content

Commit 843d08d

Browse files
committed
fix dead links on quick_start
1 parent d2e419a commit 843d08d

File tree

8 files changed

+41
-27
lines changed

8 files changed

+41
-27
lines changed

doc/api/data_provider/dataprovider_cn.rst

Lines changed: 2 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -1,3 +1,5 @@
1+
.. _api_dataprovider:
2+
13
DataProvider的介绍
24
==================
35

doc/api/predict/swig_py_paddle_cn.rst

Lines changed: 2 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -1,3 +1,5 @@
1+
.. _api_swig_py_paddle:
2+
13
基于Python的预测
24
================
35

doc/faq/index_cn.rst

Lines changed: 3 additions & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -110,7 +110,9 @@ PaddlePaddle支持Sparse的训练,sparse训练需要训练特征是 :code:`spa
110110
* 使用显卡训练。设置命令行参数 :code:`use_gpu`。
111111
* 使用多块显卡训练。设置命令行参数 :code:`use_gpu` 和 :code:`trainer_count` 。
112112

113-
* 多机训练(文档待补充)
113+
* 多机训练
114+
115+
* 请参考 :ref:`cluster_train` 。
114116

115117

116118
3. 遇到“非法指令”或者是“illegal instruction”

doc/getstarted/build_and_install/index_cn.rst

Lines changed: 8 additions & 6 deletions
Original file line numberDiff line numberDiff line change
@@ -1,8 +1,10 @@
1-
编译与安装
1+
安装与编译
22
==========
33

4-
安装
5-
++++
4+
.. _install_steps:
5+
6+
安装流程
7+
++++++++
68

79
PaddlePaddle提供数个预编译的二进制来进行安装,包括Docker镜像,ubuntu的deb安装包等。我们推荐使用Docker镜像来部署环境,同时欢迎贡献更多的安装包。
810

@@ -14,12 +16,12 @@ PaddlePaddle提供数个预编译的二进制来进行安装,包括Docker镜
1416

1517

1618

17-
编译
18-
++++
19+
编译流程
20+
++++++++
1921

2022
.. warning::
2123

22-
编译选项主要推荐高级用户查看,普通用户请走安装流程。
24+
编译流程主要推荐高级用户查看,普通用户请走安装流程。
2325

2426
.. toctree::
2527
:maxdepth: 1

doc/howto/index_cn.rst

Lines changed: 1 addition & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -8,6 +8,7 @@
88
:maxdepth: 1
99

1010
usage/concepts/use_concepts_cn.rst
11+
usage/cluster/cluster_train_cn.md
1112
usage/cluster/k8s/k8s_cn.md
1213
usage/cluster/k8s/k8s_distributed_cn.md
1314

doc/howto/usage/cluster/cluster_train_cn.md

Lines changed: 4 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -1,3 +1,7 @@
1+
```eval_rst
2+
.. _cluster_train:
3+
```
4+
15
# 运行分布式训练
26

37
在本文中,我们将阐释如何在集群上运行分布式 Paddle 训练作业。我们将以[推荐系统](https://github.com/baidu/Paddle/tree/develop/demo/recommendation)为例创建分布式的单进程训练。

doc/tutorials/quick_start/index_cn.rst

Lines changed: 8 additions & 7 deletions
Original file line numberDiff line numberDiff line change
@@ -8,7 +8,7 @@
88
安装
99
====
1010

11-
请参考 `安装教程 <../../build_and_install/index.html>`_ 安装PaddlePaddle。
11+
请参考 :ref:`install_steps` 安装PaddlePaddle。
1212

1313
使用概述
1414
========
@@ -60,7 +60,7 @@
6060
Python脚本读取数据
6161
------------------
6262

63-
`DataProvider <../../ui/data_provider/index.html>`_ 是PaddlePaddle负责提供数据的模块。``DataProvider`` 主要职责在于将训练数据传入内存或者显存,让模型能够得到训练更新,其包括两个函数:
63+
`DataProvider` 是PaddlePaddle负责提供数据的模块主要职责在于将训练数据传入内存或者显存,让模型能够得到训练更新,其包括两个函数:
6464

6565
* initializer:PaddlePaddle会在调用读取数据的Python脚本之前,先调用initializer函数。在下面例子里,我们在initialzier函数里初始化词表,并且在随后的读取数据过程中填充词表。
6666
* process:PaddlePaddle调用process函数来读取数据。每次读取一条数据后,process函数会用yield语句输出这条数据,从而能够被PaddlePaddle 捕获 (harvest)。
@@ -73,6 +73,7 @@ Python脚本读取数据
7373
:linenos:
7474
:emphasize-lines: 8,33
7575

76+
详细内容请参见 :ref:`api_dataprovider` 。
7677

7778
配置中的数据加载定义
7879
--------------------
@@ -93,7 +94,7 @@ Python脚本读取数据
9394
- obj="process": 指定生成数据的函数
9495
- args={"dictionary": word_dict}: 额外的参数,这里指定词典
9596

96-
更详细数据格式和用例请参考 `PyDataProvider2 <../../ui/data_provider/pydataprovider2.html>`_
97+
更详细数据格式和用例请参考 :ref:`api_pydataprovider2`
9798

9899
模型网络结构
99100
============
@@ -105,7 +106,7 @@ Python脚本读取数据
105106
:scale: 80%
106107

107108

108-
我们将以最基本的逻辑回归网络作为起点,并逐渐展示更加深入的功能。更详细的网络配置连接请参考 `Layer文档 <../../../doc/layer.html>`_
109+
我们将以最基本的逻辑回归网络作为起点,并逐渐展示更加深入的功能。更详细的网络配置连接请参考 :ref:`api_trainer_config_helpers_layers`
109110
所有配置都能在 `源代码 <https://github.com/PaddlePaddle/Paddle>`_ 的 ``demo/quick_start`` 目录下找到。
110111

111112
逻辑回归模型
@@ -306,7 +307,7 @@ Momentum, RMSProp,AdaDelta,AdaGrad,ADAM,Adamax等,这里采用Adam优
306307
--num_passes=15 \
307308
--use_gpu=false
308309
309-
这里只简单介绍了单机训练,如何进行分布式训练,可以参考教程 `分布式训练 <../../cluster/index.html>`_
310+
这里只简单介绍了单机训练,如何进行分布式训练,请参考 :ref:`cluster_train`
310311

311312
预测
312313
=====
@@ -318,7 +319,7 @@ Momentum, RMSProp,AdaDelta,AdaGrad,ADAM,Adamax等,这里采用Adam优
318319
:scale: 80%
319320

320321
之前配置文件中 ``test.list`` 指定的数据将会被测试,这里直接通过预测脚本 ``predict.sh`` 进行预测,
321-
更详细的说明,可以参考 `Python API预测 <../../ui/predict/swig_py_paddle.html>`_ 教程
322+
更详细的说明,请参考 :ref:`api_swig_py_paddle`
322323

323324
.. code-block:: bash
324325
@@ -373,7 +374,7 @@ Momentum, RMSProp,AdaDelta,AdaGrad,ADAM,Adamax等,这里采用Adam优
373374

374375
默认一个pass保存一次模型,也可以通过saving_period_by_batches设置每隔多少batch保存一次模型。
375376
可以通过show_parameter_stats_period设置打印参数信息等。
376-
其他参数请参考 `命令行参数文档 <../../ui/index.html#command-line-argument>`_
377+
其他参数请参考 命令行参数文档(链接待补充)
377378

378379
输出日志
379380
---------

doc/tutorials/rec/ml_regression_cn.rst

Lines changed: 13 additions & 13 deletions
Original file line numberDiff line numberDiff line change
@@ -1,5 +1,5 @@
11
MovieLens数据集评分回归模型
2-
=========================
2+
===========================
33

44
这里我们在MovieLens数据集描述一种 **余弦相似度回归** 任务。
55
该示例将展示paddle如何进行词向量嵌入,处理相似度回归,针对文本
@@ -12,9 +12,9 @@ MovieLens数据集评分回归模型
1212
让这个示例变得更好,希望能让我们知晓。**
1313

1414
数据准备
15-
```````
15+
`````````
1616
下载并解压数据集
17-
''''''''''''''
17+
'''''''''''''''''
1818
这里我们使用 :ref:`demo_ml_dataset` 。
1919
要下载和解压数据集,只需要简单的运行下面的命令即可。
2020

@@ -34,7 +34,7 @@ MovieLens数据集评分回归模型
3434
+--- README # 数据集描述
3535
3636
字段配置文件
37-
''''''''''
37+
'''''''''''''
3838
**字段配置文件** 用来具体说明数据集的字段和文件格式,
3939
例如,说明每个特征文件具体字段是 **什么** 类型。
4040

@@ -50,7 +50,7 @@ ml-1m的字段配置文件在目录 :code:`demo/recommendation/data/config.json`
5050
:literal:
5151

5252
准备数据
53-
```````
53+
`````````
5454
你需要安装python的第三方库。
5555
**强烈推荐使用VIRTUALENV来创造一个干净的python环境。**
5656

@@ -68,14 +68,14 @@ ml-1m的字段配置文件在目录 :code:`demo/recommendation/data/config.json`
6868
下面介绍预处理过程具体的步骤。
6969

7070
提取电影或用户的特征并生成python对象
71-
''''''''''''''''''''''''''''''''
71+
'''''''''''''''''''''''''''''''''''''
7272

7373
在movielens 1m数据集中,电影和用户有许多的特征。
7474
评分文件的每一行仅仅提供电影或用户的编号来代表相应的电影或用户。
7575
我们首先处理电影或用户的特征文件,然后用pickle命令将特征( **Meta** )对象存储为文件。
7676

7777
Meta配置文件
78-
...........
78+
.............
7979

8080
**Meta配置文件** 用来具体描述 **如何** 解析数据集中的每一个字段。
8181
该文件可以从字段配置文件生成,或是手动编辑生成。文件的格式可以
@@ -185,7 +185,7 @@ meta文件 :code:`meta.bin` 的结构如下:
185185
186186
187187
分割训练/测试文件
188-
'''''''''''''''
188+
''''''''''''''''''
189189

190190
我们将 :code:`ml-1m/ratings.dat` 文件分割为训练和测试文件。分割文件的方法是:对于每位用户,我们将评分分成两部分。
191191
这样的话每位用户在测试文件中将与训练文件含有同样的信息。
@@ -208,10 +208,10 @@ meta文件 :code:`meta.bin` 的结构如下:
208208
209209
210210
神经网络结构配置
211-
``````````````
211+
`````````````````
212212

213213
训练器配置文件
214-
''''''''''''
214+
'''''''''''''''
215215

216216
网络结构如下图所示:
217217

@@ -251,7 +251,7 @@ meta文件 :code:`meta.bin` 的结构如下:
251251
* 声明Python数据源, :ref:`api_trainer_config_helpers_data_sources`
252252

253253
数据提供脚本
254-
'''''''''''
254+
'''''''''''''
255255

256256
.. literalinclude:: ../../../demo/recommendation/dataprovider.py
257257
:language: python
@@ -264,7 +264,7 @@ meta文件 :code:`meta.bin` 的结构如下:
264264
* use_seq\: :code:`dataprovider.py` 中的数据是否为序列模式。
265265
* process\: 返回数据的每一条样本给 :code:`paddle` 。
266266

267-
数据提供脚本的细节文档可以参考 :ref:`api_pydataprovider` 。
267+
数据提供脚本的细节文档可以参考 :ref:`api_pydataprovider2` 。
268268

269269
训练
270270
````
@@ -316,7 +316,7 @@ meta文件 :code:`meta.bin` 的结构如下:
316316
模型被保存在 :code:`output/` 目录中。你可以在任何时候用 :code:`Ctrl-C` 来停止训练。
317317

318318
模型评估和预测
319-
````````````
319+
```````````````
320320

321321
在训练了几个轮次以后,你可以对模型进行评估,得到最好轮次下的模型。运行下面命令即可:
322322

0 commit comments

Comments
 (0)