bindings/python/README_zh.md
本目录包含 NexaAI Python SDK 及多种 AI 推理任务的全面示例。
最简单的方式是通过我们的交互式 Jupyter notebook。你可以在 notebook/ 文件夹中找到示例 notebook。
每个 notebook 包含:
pip install nexaai -v
如果你更喜欢命令行用法,这里有基础示例:
python llm.py
python vlm.py
python rerank.py
python embedder.py
python cv_ocr.py
python tts.py --text "Hello, world!"
python diarize.py --audio path/to/audio.wav
# 文本生成图像
python image_gen.py --prompt "A beautiful sunset over the ocean"
# 图像到图像
python image_gen.py --prompt "A beautiful sunset" --init-image path/to/image.png
--model:模型文件路径--device:推理设备(cpu,gpu等)--max-tokens:生成最大 tokens(适用 LLM/VLM)--batch-size:处理批量大小--system:聊天模型的 system 消息--plugin-id:指定插件 ID(默认 cpu_gpu)--plugin-id 参数支持不同后端:
cpu_gpu:默认,同时支持 CPU 和 GPUmetal:Apple Silicon 优化(支持相关模型)npu:高通 NPU 优化(支持相关模型)nexaml:NexaML 优化(支持相关模型)| 后端 | 支持的模型 |
|---|---|
cpu_gpu | GGUF 格式模型(默认后端) |
metal | MLX 格式模型(如 Qwen3-VL-4B-MLX-4bit, gpt-oss-20b-MLX-4bit) |
npu | LLM: Granite-4-Micro-NPU, phi4-mini-npu-turbo, Qwen3-4B-Instruct-2507-npu, Qwen3-4B-Thinking-2507-npu, Llama3.2-3B-NPU-Turbo, jan-v1-4B-npu, qwen3-4B-npu, phi3.5-mini-npu |
| VLM: Qwen3-VL-4B-Instruct-NPU, OmniNeural-4B, LFM2-1.2B-npu | |
| Embedder: embeddinggemma-300m-npu | |
| ASR: parakeet-tdt-0.6b-v3-npu | |
| CV: convnext-tiny-npu, paddleocr-npu, yolov12-npu | |
| Reranker: jina-v2-rerank-npu | |
nexaml | VLM: Qwen3-VL-4B-Instruct-GGUF:Q4_0, Qwen3-VL-4B-Thinking-GGUF:Q4_0 |
notebook/ 目录)详细环境设置请参见具体 notebook 的说明。