7.8 KiB
7.8 KiB
公益API服务汇总
基于在 Linux DO 社区“公益api”相关帖子的搜索结果,以下为目前找到的可信公益API服务信息。 所有API均需认证(API Key)才能调用,测试时返回401 API_KEY_REQUIRED。
1. GGBOOM公益站 (sub2api 实现)
基本信息
- 项目名称: GGBOOM公益站 (sub2api)
- 服务网站: https://ai.qaq.al
- 签到站: https://sign.qaq.al
- 食用说明: https://linux.do/t/topic/1563294
API 端点
GET https://ai.qaq.al/v1/models
POST https://ai.qaq.al/v1/responses
- 协议: OpenAI‑responses API 协议
- 认证:
Authorization: Bearer <API_KEY>或x-api-key头部
支持的模型
gpt-5.2-codex(兼容 Codex 模型)
获取 API Key
必须通过 Linux DO Connect 登录 GGBOOM 站点,领取兑换码后在签到站兑换获得 API Token。
测试结果 (2026‑03‑24)
curl -s "https://ai.qaq.al/v1/models"
# 返回: {"code":"API_KEY_REQUIRED","message":"API key is required..."}
# 状态码: 401
# 响应时间: ≈5.9s
服务状态
- ✅ 站点可访问(返回 401 说明服务正常,只是需要认证)
- 🔒 需 Linux DO 账号登录获得令牌
- 📈 帖子热度:4.6k 浏览量,460 回复(高活跃度)
2. QuicklyAPI (AI API Gateway)
基本信息
- 项目名称: QuicklyAPI – 无限 GPT‑5.4 公益中转
- 项目主题: https://linux.do/t/topic/1799762
- 作者: BenjaminAaron (公益推广,声明免费无收费)
- 状态检测: https://status.jlypx.de/
- 登录站: https://sub.jlypx.de/
核心功能
- 提供 GPT‑5.4、Claude、Gemini、Antigravity 等多模型统一的 API 接口
- 智能调度多个上游账号,自动负载均衡和失效切换
- 免费使用,支持无限量访问(承诺无收费、无商业引流)
Docker 部署镜像
docker run ghcr.io/arron196/cliproxyapi:latest
CPA (CliproxyAPI) 优化版本特性
- CPU 占用从 100% 降至 30–40%
- 支持自动删除 429/401 失效账号(可配置扫描/删除间隔)
- 完全兼容原版配置,更新频率较快
服务地址 (推测)
- API 基地址:
https://sub.jlypx.de - 端 点:
/v1/messages(示例 curl 中提及)
测试结果
curl -s "https://sub.jlypx.de/v1/models"
# 返回: {"code":"API_KEY_REQUIRED","message":"API key is required..."}
# 状态码: 401
# 响应时间: ≈5.97s
服务状态
- ✅ 状态检测页显示“OPERATIONAL” (更新于 2026‑03‑24 12:04)
- 🔒 需登录 QuicklyAPI 站获取 API Key
- 📈 帖子热度:4.1k 浏览量,474 回复(极高活跃度)
3. 智谱 Lite 套餐分享
基本信息
- 帖子: https://linux.do/t/topic/1804261
- 发布者: JIUUIJ
- 内容: 分享自用的智谱 Lite 套餐,供其他用户使用
关键信息
- 帖子内容简短,未提供详细的 API 端点、密钥等公开信息
- 可能为个人套餐分享,非公开公益 API 服务
建议
若需要使用智谱 API,建议:
- 回帖联系楼主获取详情
- 查看是否为需邀请的团队套餐
测试方法与工具
通用测试命令
# 测试模型列表端点(通常开放或返回401)
curl -s -H "User-Agent: Mozilla/5.0" "https://api.domain/v1/models" \
--connect-timeout 10 --max-time 15 \
-w "Status: %{http_code}\nTime: %{time_total}s\nSize: %{size_download} bytes"
响应速度参考
- GGBOOM: ≈5.9s (首次请求可能较慢)
- QuicklyAPI: ≈6.0s (网络状况良好)
两服务在无认证情况下均快速返回 401,说明服务端响应正常。
获取 API Key 的通用步骤
- Linux DO 账号 – 需拥有 Linux DO 账号并已登录
- 连接 OAuth – 在服务网站点击“使用 Linux DO Connect 登录”
- 获取兑换码 – 在公益帖或签到站领取兑换码(如 GGBOOM公益站的食用说明)
- 兑换 Token – 在签到站输入兑换码获得 API Key
- 配置使用 – 将 API Key 填入请求头的 Authorization 字段(Bearer 方案)
4. Grok2API 临时分享(可直接调用)
基本信息
- 帖子: https://linux.do/t/topic/1803743
- 说明: 楼主分享了一个可直接调用的 Grok2API 节点,用于视频/图片生成,也暴露了标准 OpenAI 兼容模型列表接口
- API 基地址:
http://3.26.197.219:8000 - 测试 Token:
grok666
已验证端点
GET http://3.26.197.219:8000/v1/models
POST http://3.26.197.219:8000/v1/chat/completions
POST http://3.26.197.219:8000/v1/videos
实测结果 (2026‑03‑24)
curl -H "Authorization: Bearer grok666" \
http://3.26.197.219:8000/v1/models
- 状态码: 200
- 响应时间: ≈0.56s
- 返回模型(节选):
grok-3grok-3-minigrok-3-thinkinggrok-4grok-4-thinkinggrok-4-heavygrok-4.1-minigrok-4.1-fastgrok-4.1-expertgrok-4.1-thinkinggrok-4.20-betagrok-imagine-1.0-fastgrok-imagine-1.0grok-imagine-1.0-edit
可用性判断
- ✅ 模型列表接口可直接调用
- ⚠️
chat/completions在实测中超时(70s 未返回),暂不建议拿来做稳定对话节点 - ✅ 更适合作为 临时/实验性节点,尤其适合先探测模型列表、图片/视频相关能力
5. New API 公益站(需 Token,支持 Responses)
基本信息
- 帖子: https://linux.do/t/topic/1796927
- 站点:
https://new.aabb1.pro/ - 站点类型: New API 聚合网关
- 帖子摘要信息: 支持
gpt-5.3-codex、gpt-5.4,并说明 只能走/v1/responses接口
实测结果 (2026‑03‑24)
curl https://new.aabb1.pro/
# 状态码: 200
curl https://new.aabb1.pro/v1/models
# 状态码: 401
# 返回: 未提供令牌
curl -X POST https://new.aabb1.pro/v1/responses \
-H 'Content-Type: application/json' \
-d '{"model":"gpt-5.4","input":"hi"}'
# 状态码: 401
# 返回: 未提供令牌
可用性判断
- ✅ 站点在线
- 🔒 需要 Token
- ℹ️ 更偏向 New API 风格聚合站,且作者明确说 只支持 responses,不支持 chat/completions
补充结论(新增)
如果你想找 不用登录、可以马上直接测 的,目前这轮里唯一明确测通的是:
- Grok2API 临时分享节点
http://3.26.197.219:8000- Token:
grok666 /v1/models可直接 200 返回- 但聊天接口超时,稳定性一般
如果你想找 更长期可用、模型更全 的,还是这两个更值得:
- QuicklyAPI
- GGBOOM公益站
只是这两个都需要登录/兑换 Token,门槛比临时分享节点高一点,但成熟度明显更高。
结论与建议
| 服务 | 成熟度 | 模型支持 | 获取难度 | 推荐度 |
|---|---|---|---|---|
| GGBOOM | 高 | GPT‑5.2‑Codex | 中(需Linux DO登录+兑换码) | ★★★★☆ |
| QuicklyAPI | 极高 | GPT‑5.4、Claude、Gemini 等 | 中(需登录) | ★★★★★ |
| 智谱 Lite | 未知 | 智谱模型 | 高(需联系楼主) | ★★☆☆☆ |
推荐顺序:
- QuicklyAPI – 多模型支持、稳定性高、社区反馈热烈
- GGBOOM – 专注 Codex 模型,适合代码生成类需求
- 智谱 Lite – 信息较少,建议作为备选或联系获取详情
下一步建议:
- 登录 Linux DO 账号,前往对应服务网站获取 API Key
- 使用获得的 Key 测试具体的模型调用(如
/v1/chat/completions) - 根据实际响应速度、稳定性选择最适合的服务
- 关注对应帖子更新,公益服务可能会有变动或维护公告
最后更新: 2026-03-24 (采集自 Linux DO 社区帖子) 注意: 公益服务可能随时调整或终止,请以官方最新公告为准。