GPT Academic
为GPT/GLM等LLM大语言模型提供实用化交互接口,特别优化论文阅读/润色/写作体验,模块化设计,支持自定义快捷按钮&函数插件,支持Python和C++等项目剖析&自译解功能,PDF/LaTex论文翻译&总结功能,支持并行问询多种LLM模型,支持chatglm3等本地模型。接入通义千问, deepseekcoder, 讯飞星火, 文心一言, llama2, rwkv, claude2, moss等。
- 官方主页:GPT Academic GitHub Repository
- 部署教程:GPT Academic GitHub Repository#installation
- 使用指南:GPT Academic GitHub Repository-wiki-项目配置说明
效果演示
特性
AI 模型配置方法
GPT Academic 是服务端部署,需要在部署的 config.py 文件,或者 docker-compose.yml 文件中进行修改:【第三方API‐KEY接入】
参数填写
Api Key:前往 OpenAI 官网,或者第三方网站获取。
请求地址格式:
-
OpenAI 官方:
https://api.openai.com/v1/chat/completions
-
第三方(示例):
https://api.zetatechs.com/v1/chat/completions
图文指引
示例
通过修改config.py或config_private.py
LLM_MODEL = "gpt-3.5-turbo"
API_KEY = 'sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx'
API_URL_REDIRECT = {"https://api.openai.com/v1/chat/completions":"https://api.zetatechs.com/v1/chat/completions"}
# 极少数情况下,openai的官方KEY需要伴随组织编码(格式如org-xxxxxxxxxxxxxxxxxxxxxxxx)使用
API_ORG = ""
通过修改docker-compose.yml
## 「方案四」 ChatGPT + Latex
## ===================================================
version: '3'
services:
gpt_academic_with_latex:
image: ghcr.io/binary-husky/gpt_academic_with_latex:master # (Auto Built by Dockerfile: docs/GithubAction+NoLocal+Latex)
ports:
- "12303:12303"
environment:
# 请查阅 `config.py` 以查看所有的配置信息
API_KEY: ' sk-toiT32BceQq5ei4F01B29eD7562045E1A4855eF5A5E8A225 '
USE_PROXY: ' False '
proxies: ' { "http": "socks5h://localhost:10880", "https": "socks5h://localhost:10880", } '
LLM_MODEL: ' gpt-3.5-turbo '
API_URL_REDIRECT: '{"https://api.openai.com/v1/chat/completions": "https://api.zetatechs.com/v1/chat/completions"}'
AVAIL_LLM_MODELS: ' ["gpt-3.5-turbo", "gpt-4o", "one-api-claude-3-haiku-20240307", "one-api-claude-3-sonnet-20240229", "one-api-claude-3-opus-20240229", "one-api-gemini-1.5-flash-latest", "one-api-gemini-1.5-pro-latest"] '
LOCAL_MODEL_DEVICE: ' cuda '
DEFAULT_WORKER_NUM: ' 10 '
WEB_PORT: ' 12303 '
# 「WEB_PORT暴露方法1: 适用于Linux」与宿主的网络融合
networks:
- default
# 启动命令
command: >
bash -c "python3 -u main.py"