Extra-Chapter/Extra07-环境配置.md
本节将指导您配置运行 FirstAgentTest.py 所需的完整环境。该代码实现了一个智能旅行助手,展示了基于工具调用的 Agent 实现模式。
我们的目标是成功运行项目code\chapter1\FirstAgentTest.py,该代码实现了:
AIHubmix 是一个位于美国特拉华州的 AI 模型聚合平台,整合了市面上主流的大语言模型,新发布的模型通常在一周内即可使用。该平台直接对接各大云服务商的原生 API(如 OpenAI 通过 Azure、Anthropic 通过 AWS、Google 通过官方接口等),采用美国 Google Cloud 的集群架构部署,具备多节点负载均衡能力,在稳定性和响应速度方面表现优异。
平台提供的免费额度能够满足我们的学习需求。
进入 AIHubmix 官网
使用浏览器访问 AIHubmix 官方网站
完成账户注册
首次使用需要注册账户。点击右上角的注册按钮,支持邮箱或手机号两种方式完成注册流程。
浏览可用模型
注册成功后,访问模型中心查看所有可用模型。在筛选条件中选择免费标签,即可查看平台提供的免费模型列表。建议选择 coding-glm-4.7-freecoding-glm-4.7-free 或其他兼容 OpenAI 格式的免费模型。
获取 API 凭证
前往API 密钥管理页面,系统默认会生成一个可用的密钥。您也可以通过点击 创建 Key 按钮自定义密钥名称并生成新的密钥。
请妥善保存以下配置信息:
your_api_keyhttps://aihubmix.com/v1coding-glm-4.7-freeModelScope 是国内领先的大模型服务商,提供高性价比的 API 服务。这里我们以Qwen为例,您可以从ModelScope获取,它提供Qwen系列的免费(OpenAI)兼容格式的API,每天免费2000次调用。
请确保您拥有一个正常注册且可使用的ModelScope账户。要生成您的私有 API KEY可以参考我们的图示。
图中的SDK令牌就是我们的API KEY。
请注意,需要在模型服务先绑定阿里巴巴云账号, 不然api会显示无法使用
可选模型范围
在ModelScope中的模型库中选择推理 API-Inference ,里面的模型都可以选择,我们可以体验到最新的使用DeepSeek-R1数据蒸馏出的Llama-70B模型。
最终所需格式与AIHubmix的配置信息相同(Key,URL,模型名称)
Tavily 是一个专为 AI 应用设计的搜索 API,用于景点推荐功能。
访问 Tavily 平台
打开浏览器,访问 Tavily
注册并获取 API 密钥
your_tavily_keyWindows 用户:
macOS 用户:
# 使用 Homebrew 安装
brew install [email protected]
Linux 用户:
# Ubuntu/Debian
sudo apt update
sudo apt install python3.10 python3.10-pip python3.10-venv
# CentOS/RHEL
sudo yum install python3.10 python3.10-pip
python --version
# 或
python3 --version
确保显示 Python 3.10 或更高版本。
# 进入项目目录
cd "hello-agents"
# 创建虚拟环境
python -m venv venv
# 激活虚拟环境
# Windows:
venv\Scripts\activate
# macOS/Linux:
source venv/bin/activate
# 安装核心依赖
pip install requests>=2.31.0
pip install tavily-python>=0.3.0
pip install openai>=1.0.0
# 可选:安装其他常用包
pip install python-dotenv>=1.0.0
在项目根目录创建 .env 文件:
# 在项目根目录创建 .env 文件
touch .env # Linux/macOS
# 或在 Windows 中手动创建
编辑 .env 文件,添加以下内容:
# Tavily API 配置
TAVILY_API_KEY=your_tavily_api_key
# 大语言模型 API 配置(选择其中一种)
# 选项一:AIHubmix
OPENAI_API_KEY=your_aihubmix_api_key
OPENAI_BASE_URL=https://aihubmix.com/v1
MODEL_NAME=xxxx
# 选项二:Modelscope
# OPENAI_API_KEY=your_modelscope_api_key
# OPENAI_BASE_URL=https://api-inference.modelscope.cn/v1/
# MODEL_NAME=xxxx
以下为长期环境变量方案,也可以在终端短期加载。
Windows:
TAVILY_API_KEY: your_tavily_api_keymacOS/Linux:
# 编辑 ~/.bashrc 或 ~/.zshrc
export TAVILY_API_KEY="your_tavily_api_key"
# 使配置生效
source ~/.bashrc
打开 code/chapter1/FirstAgentTest.py 文件,找到第 143-148 行的配置部分:
# --- 1. 配置LLM客户端 ---
# 请根据您使用的服务,将这里替换成对应的凭证和地址
API_KEY = "YOUR_API_KEY"
BASE_URL = "YOUR_BASE_URL"
MODEL_ID = "YOUR_MODEL_ID"
os.environ['TAVILY_API_KEY'] = "YOUR_TAVILY_API_KEY"
替换为您的实际配置:
API_KEY = "your_aihubmix_api_key"
BASE_URL = "https://aihubmix.com/v1"
MODEL_ID = "coding-glm-4.7-free"
os.environ['TAVILY_API_KEY'] = "your_tavily_api_key"
首先测试各个 API 的连通性:
# 测试天气 API
import requests
response = requests.get("https://wttr.in/Beijing?format=j1")
print("天气API状态:", response.status_code)
# 测试 Tavily API
from tavily import TavilyClient
tavily = TavilyClient(api_key="your_tavily_key")
try:
result = tavily.search("test", search_depth="basic")
print("Tavily API 连接成功")
except Exception as e:
print("Tavily API 错误:", e)
# 确保在正确目录
cd "hello-agents\code\chapter1"
# 运行程序
python FirstAgentTest.py
程序成功运行时,您应该看到类似以下的输出:
用户输入: 你好,请帮我查询一下今天北京的天气,然后根据天气推荐一个合适的旅游景点。
========================================
--- 循环 1 ---
正在调用大语言模型...
大语言模型响应成功。
模型输出:
Thought: 用户想要查询北京的天气,然后根据天气情况推荐合适的旅游景点。我需要先调用get_weather工具查询北京的天气情况。
Action: get_weather(city="北京")
Observation: 北京当前天气:Clear,气温15摄氏度
========================================
--- 循环 2 ---
正在调用大语言模型...
大语言模型响应成功。
模型输出:
Thought: 现在我知道了北京的天气是晴朗的,气温15摄氏度,这是一个很适合户外活动的天气。接下来我需要根据这个天气情况推荐合适的旅游景点。
Action: get_attraction(city="北京", weather="Clear,气温15摄氏度")
Observation: 根据搜索,为您找到以下信息:...
========================================
任务完成,最终答案: 根据查询,北京今天天气晴朗,气温15摄氏度,非常适合户外游览。推荐您去...
问题:pip 安装速度慢
解决方案:使用国内镜像源
# 临时使用清华镜像
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple requests tavily-python openai
# 永久配置镜像源
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
问题:ModuleNotFoundError
解决方案:
# 确认虚拟环境已激活
# 重新安装缺失的包
pip install requests tavily-python openai python-dotenv
问题:Tavily API 返回错误
可能原因:
解决方案:
# 检查环境变量
import os
print("TAVILY_API_KEY:", os.environ.get('TAVILY_API_KEY'))
# 测试 API 连接
from tavily import TavilyClient
client = TavilyClient(api_key="your_key")
result = client.search("test")
完成环境配置后,建议:
按照本文档的步骤操作,您应该能够成功运行智能旅行助手代码,并理解基于工具调用的 Agent 实现原理。