Co-creation-projects/Apricity-InnocoreAI/USAGE_GUIDE.md
python run.py
服务器将在 http://localhost:8000 启动。
在浏览器中打开:
运行验证脚本确保所有功能正常:
python verify_system.py
InnoCore AI 支持两种工作模式:
独立使用每个智能体,适合:
自动协调所有智能体完成完整工作流,适合:
完整工作流程:
功能: 从 ArXiv 搜索学术论文
使用方法:
示例关键词:
machine learningdeep learningnatural language processingcomputer vision返回信息:
功能: 深度分析论文内容,支持完整的 PDF 解析
使用方法:
方式一:ArXiv URL
https://arxiv.org/abs/2301.00001)方式二:上传 PDF 文件
选择分析类型:
点击"开始分析"
支持的输入格式:
https://arxiv.org/abs/XXXX.XXXXX2301.00001PDF 解析功能:
注意事项:
功能: 学术写作辅助
使用方法:
应用场景:
功能: 学术引用格式化和验证
使用方法:
支持的输入:
自动识别:
功能: 一键完成从搜索到报告的全流程
使用方法:
自动执行步骤:
优势:
curl -X POST "http://localhost:8000/api/v1/papers/search" \
-H "Content-Type: application/json" \
-d '{
"keywords": "machine learning",
"source": "arxiv",
"limit": 10
}'
curl -X POST "http://localhost:8000/api/v1/analysis/analyze" \
-H "Content-Type: application/json" \
-d '{
"paper_url": "https://arxiv.org/abs/2301.00001",
"analysis_type": "summary"
}'
curl -X POST "http://localhost:8000/api/v1/writing/coach" \
-H "Content-Type: application/json" \
-d '{
"text": "Your text here",
"style": "academic",
"task": "improve"
}'
curl -X POST "http://localhost:8000/api/v1/citations/validate" \
-H "Content-Type: application/json" \
-d '{
"citation": "Your citation here",
"format": "bibtex"
}'
curl -X POST "http://localhost:8000/api/v1/workflow/complete" \
-H "Content-Type: application/json" \
-d '{
"keywords": "deep learning",
"limit": 5,
"analysis_type": "summary",
"citation_format": "bibtex",
"writing_task": "improve"
}'
curl -X POST "http://localhost:8000/api/v1/workflow/search-and-analyze" \
-H "Content-Type: application/json" \
-d '{
"keywords": "machine learning",
"limit": 3,
"analysis_type": "summary"
}'
A: 尝试使用更通用的关键词,或检查网络连接到 ArXiv。
A: 确保输入的是有效的 ArXiv URL 或 ID,格式如 https://arxiv.org/abs/2301.00001。
A: AI 模型处理需要时间,请耐心等待。可以在 .env 文件中配置更快的模型。
A: 尝试提供包含 DOI 的引用,或使用 ArXiv URL,这样可以自动验证。
在 .env 文件中配置:
# AI 模型配置
LLM_API_KEY=your_api_key
LLM_BASE_URL=https://api.openai.com/v1
LLM_MODEL_NAME=gpt-3.5-turbo
# 数据库配置(可选)
DATABASE_URL=postgresql://user:password@localhost:5432/innocore
# 向量数据库配置(可选)
QDRANT_HOST=localhost
QDRANT_PORT=6333
支持的模型:
gpt-3.5-turbo, gpt-4base_urlpython verify_system.py