跳转至

GPT Academic


Browser Docker

为GPT/GLM等LLM大语言模型提供实用化交互接口,特别优化论文阅读/润色/写作体验,模块化设计,支持自定义快捷按钮&函数插件,支持Python和C++等项目剖析&自译解功能,PDF/LaTex论文翻译&总结功能,支持并行问询多种LLM模型,支持chatglm3等本地模型。接入通义千问, deepseekcoder, 讯飞星火, 文心一言, llama2, rwkv, claude2, moss等。

  1. 官方主页:GPT Academic GitHub Repository
  2. 部署教程:GPT Academic GitHub Repository#installation
  3. 使用指南:GPT Academic GitHub Repository-wiki-项目配置说明

效果演示


GIF Image

特性

binary-husky_gpt_academic.webp

AI 模型配置方法


GPT Academic 是服务端部署,需要在部署的 config.py 文件,或者 docker-compose.yml 文件中进行修改:【第三方API‐KEY接入】

参数填写

Api Key:前往 OpenAI 官网,或者第三方网站获取。

请求地址格式:

  • OpenAI 官方:https://api.openai.com/v1/chat/completions

  • 第三方(示例):https://api.zetatechs.com/v1/chat/completions

图文指引

Snipaste20240316173738.webp

Snipaste20240316173655.webp

示例

通过修改config.py或config_private.py
LLM_MODEL = "gpt-3.5-turbo"
API_KEY = 'sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx'
API_URL_REDIRECT = {"https://api.openai.com/v1/chat/completions":"https://api.zetatechs.com/v1/chat/completions"}
# 极少数情况下,openai的官方KEY需要伴随组织编码(格式如org-xxxxxxxxxxxxxxxxxxxxxxxx)使用
API_ORG = ""
通过修改docker-compose.yml
## 「方案四」 ChatGPT + Latex
## ===================================================
version: '3'
services:
  gpt_academic_with_latex:
    image: ghcr.io/binary-husky/gpt_academic_with_latex:master  # (Auto Built by Dockerfile: docs/GithubAction+NoLocal+Latex)
    ports:
      - "12303:12303"
    environment:
      # 请查阅 `config.py` 以查看所有的配置信息
      API_KEY:                  '    sk-toiT32BceQq5ei4F01B29eD7562045E1A4855eF5A5E8A225                              '
      USE_PROXY:                '    False                                                                             '
      proxies:                  '    { "http": "socks5h://localhost:10880", "https": "socks5h://localhost:10880", }   '
      LLM_MODEL:                '    gpt-3.5-turbo                                                                    '
      API_URL_REDIRECT: '{"https://api.openai.com/v1/chat/completions": "https://api.zetatechs.com/v1/chat/completions"}'
      AVAIL_LLM_MODELS:         '    ["gpt-3.5-turbo", "gpt-4o", "one-api-claude-3-haiku-20240307", "one-api-claude-3-sonnet-20240229", "one-api-claude-3-opus-20240229", "one-api-gemini-1.5-flash-latest", "one-api-gemini-1.5-pro-latest"]                                                       '
      LOCAL_MODEL_DEVICE:       '    cuda                                                                             '
      DEFAULT_WORKER_NUM:       '    10                                                                               '
      WEB_PORT:                 '    12303                                                                            '

    # 「WEB_PORT暴露方法1: 适用于Linux」与宿主的网络融合
    networks:
      - default

    # 启动命令
    command: >
      bash -c "python3 -u main.py"