Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

fix: paddle-lite docs url. #6552

Merged
merged 1 commit into from Mar 28, 2024
Merged
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Jump to
Jump to file
Failed to load files.
Diff view
Diff view
Expand Up @@ -2,7 +2,7 @@

百度的昆仑芯⽚是一款⾼性能的 AI SoC 芯⽚,⽀持推理和训练。昆仑芯⽚采⽤百度的先进 AI 架构,⾮常适合常⽤的深度学习和机器学习算法的云端计算需求,并能适配诸如⾃然语⾔处理、⼤规模语⾳识别、⾃动驾驶、⼤规模推荐等多种终端场景的计算需求。

Paddle Inference 集成了[Paddle-Lite 预测引擎](https://paddle-lite.readthedocs.io/zh/latest/demo_guides/baidu_xpu.html)在昆仑 xpu 上进行预测部署。
Paddle Inference 集成了[Paddle-Lite 预测引擎](https://www.paddlepaddle.org.cn/lite/develop/demo_guides/kunlunxin_xpu.html)在昆仑 xpu 上进行预测部署。

## 编译注意事项

Expand Down
4 changes: 2 additions & 2 deletions docs/guides/infer/mobile/mobile_index_cn.md
Expand Up @@ -2,7 +2,7 @@

Paddle-Lite 为 Paddle-Mobile 的升级版,定位支持包括手机移动端在内更多场景的轻量化高效预测,支持更广泛的硬件和平台,是一个高性能、轻量级的深度学习预测引擎。在保持和 PaddlePaddle 无缝对接外,也兼容支持其他训练框架产出的模型。

完整使用文档位于 [Paddle-Lite 文档](https://paddle-lite.readthedocs.io/zh/latest/) 。
完整使用文档位于 [Paddle-Lite 文档](https://www.paddlepaddle.org.cn/lite) 。

## 特性

Expand All @@ -16,7 +16,7 @@ Paddle-Lite 为 Paddle-Mobile 的升级版,定位支持包括手机移动端
支持量化模型,结合[PaddleSlim 模型压缩工具](https://github.com/PaddlePaddle/models/tree/v1.5/PaddleSlim) 中量化功能,可以提供高精度高性能的预测能力。
在 Huawei NPU, FPGA 上也具有有很好的性能表现。

最新性能数据位于 [Benchmark 文档](https://paddle-lite.readthedocs.io/zh/latest/benchmark/benchmark.html)。
最新性能数据位于 [Benchmark 文档](https://www.paddlepaddle.org.cn/lite/develop/performance/benchmark.html)。

### 通用性
硬件方面,Paddle-Lite 的架构设计为多硬件兼容支持做了良好设计。除了支持 ARM CPU、Mali GPU、Adreno GPU,还特别支持了华为 NPU,以及 FPGA 等边缘设备广泛使用的硬件。即将支持支持包括寒武纪、比特大陆等 AI 芯片,未来会增加对更多硬件的支持。
Expand Down
8 changes: 4 additions & 4 deletions docs/guides/performance_improving/quantization.md
Expand Up @@ -150,13 +150,13 @@ Paddle Lite 可以在 ARM CPU 上部署 PaddleSlim 动态离线量化方法、

Paddle Lite 部署量化模型的方法和常规非量化模型完全相同,主要包括使用 opt 工具进行模型优化、执行预测。

Paddle Lite 的详细说明,请参考[文档](https://paddle-lite.readthedocs.io/zh/latest/index.html)。
Paddle Lite 的详细说明,请参考[文档](https://www.paddlepaddle.org.cn/lite)。

Paddle Lite 部署动态离线量化方法产出的量化模型,请参考[文档](https://paddle-lite.readthedocs.io/zh/latest/user_guides/quant_post_dynamic.html)。
Paddle Lite 部署动态离线量化方法产出的量化模型,请参考[文档](https://www.paddlepaddle.org.cn/lite/develop/user_guides/quant/quant_post_dynamic.html)。

Paddle Lite 部署静态离线量化方法产出的量化模型,请参考[文档](https://paddle-lite.readthedocs.io/zh/latest/user_guides/quant_post_static.html)。
Paddle Lite 部署静态离线量化方法产出的量化模型,请参考[文档](https://www.paddlepaddle.org.cn/lite/develop/user_guides/quant/quant_post_static.html)。

Paddle Lite 部署量化训练方法产出的量化模型,请参考[文档](https://paddle-lite.readthedocs.io/zh/latest/user_guides/quant_aware.html)。
Paddle Lite 部署量化训练方法产出的量化模型,请参考[文档](https://www.paddlepaddle.org.cn/lite/develop/user_guides/quant_aware.html)。

**模型量化前后性能对比**

Expand Down