🚀 GLM Free API
Golang 高性能版本
OpenAI 兼容
Claude 兼容
Gemini 兼容
流式输出
高性能
✨ 特性
支持 GLM-4-Plus、思考推理模型、沉思模型
兼容 OpenAI、Claude、Gemini API 格式
支持流式和非流式输出
多 Token 支持,自动负载均衡
自动清理会话痕迹
高并发性能,内存占用低
📡 API 接口
POST
/v1/chat/completions
OpenAI 兼容的聊天补全接口
POST
/v1/messages
Claude 兼容的消息接口
POST
/v1beta/models/:model:generateContent
Gemini 兼容的生成内容接口
GET
/v1/models
列出可用模型
🔧 使用示例
curl -X POST http://localhost:8000/v1/chat/completions \ -H "Content-Type: application/json" \ -H "Authorization: Bearer YOUR_REFRESH_TOKEN" \ -d '{ "model": "glm-4-plus", "messages": [ {"role": "user", "content": "你好"} ], "stream": false }'
⚡ 性能优势
并发能力提升 10 倍以上
内存占用降低 60-70%
启动时间缩短 95%
Docker 镜像体积减小 80%