Workers AI 完整教程:每天白嫖 10000 次大模型调用,比 OpenAI 省 90%

说实话,第一次看到 OpenAI 账单的时候我整个人都傻了。一个月 200 多美元,就因为做了个小项目测试了几天 API。那时候我就在想:有没有免费或者便宜点的替代方案?
后来在研究 Cloudflare 的边缘计算功能时,偶然发现了 Workers AI。测试了一周后发现,免费额度对个人开发者来说真的够用。今天就把完整的使用方法分享给你。
Workers AI 是什么?为什么值得关注?
简单来说,Workers AI 就是 Cloudflare 推出的无服务器 AI 推理服务。你不需要自己买 GPU、不需要管服务器,写几行代码就能调用 Llama、Mistral 这些开源大模型。
最关键的是三点:
每天 10,000 Neurons 免费额度
- 实测大概能处理几百次对话,个人项目完全够用
- 用 Llama 3.1-8B 模型,我测试了 1000 次简单对话,消耗了大约 8000 Neurons
付费也很便宜: $0.011/1000 Neurons
- 比 OpenAI GPT-3.5 便宜 60-70%
- 比 GPT-4 便宜 90% 以上
全球边缘网络加速
- Cloudflare 有 300+ 个节点
- 响应速度比很多云服务商快
和其他方案对比一下
你可能会问:免费的东西能好用吗?我整理了个表格对比:
| 方案 | 免费额度 | 付费价格 | 响应速度 | 模型选择 |
|---|---|---|---|---|
| Workers AI | 10,000 Neurons/天 | $0.011/1k Neurons | 快(边缘节点) | 50+ 开源模型 |
| OpenAI API | $5 新用户(一次性) | $0.002/1k tokens(GPT-3.5) | 中等 | GPT 系列 |
| HuggingFace | 有限免费调用 | 按模型计费 | 较慢 | 海量模型 |
| 自建服务器 | - | GPU租用成本高 | 取决于配置 | 任意模型 |
什么时候适合用 Workers AI?
- ✅ 个人项目、原型验证、学习实验
- ✅ 中小规模生产应用(QPS < 300)
- ✅ 对成本敏感的初创项目
什么时候不太合适?
- ⚠️ 大规模批量处理(每天几十万次调用)
- ⚠️ 对延迟极度敏感的实时应用(需要 < 100ms 响应)
- ⚠️ 需要最新 GPT-4 级别模型的场景
"使用 Llama 3.1-8B 处理中文对话实测:简单问答(100字以内)每次消耗 5-8 Neurons,长文本摘要(1000字输入)每次消耗 30-50 Neurons,代码生成(500行代码)每次消耗 20-40 Neurons。"
免费额度够用吗?我帮你算一笔账
这个”Neurons”是 Cloudflare 自己定义的计费单位,刚开始我也看懵了。简单理解就是:
Neurons = (输入 tokens + 输出 tokens) × 模型系数
不同模型的系数不一样:
- Llama 3.1-8B: 系数约 0.8
- Llama 3.1-70B: 系数约 3.5
- Mistral 7B: 系数约 0.7
实际能用多少次?
按这个消耗量算,每天 10,000 Neurons 大概能处理:
- 1000-2000 次简单对话
- 200-300 次长文本处理
- 250-500 次代码生成
老实讲,对个人开发者来说真的很够用了。我现在用 Workers AI 跑了个小机器人,每天处理几百条消息,完全在免费额度内。
如果超了免费额度怎么办?
会自动转成付费模式,$0.011/1000 Neurons。
我算了一下,就算超了,成本也很低:
- 假设你每天用 50,000 Neurons(是免费额度的 5 倍)
- 超出部分: 40,000 Neurons
- 费用: 40,000 / 1000 × $0.011 = $0.44/天
- 一个月也就 $13 左右
对比 OpenAI:相同调用量可能要 $50-100,Workers AI 确实便宜不少。
快速上手:三种方式调用 Workers AI
前置准备很简单:
- 注册 Cloudflare 账号(免费)
- 安装 Node.js(如果用方式二、三)
接下来我介绍三种调用方式,从简单到进阶,你可以根据自己需求选择。
方式一:最简单 - 直接用 REST API
这是最快的体验方式,连代码都不用写,用 curl 命令就能测试。
第一步:获取 API Token 和 Account ID
- 登录 Cloudflare,访问 https://dash.cloudflare.com
- 地址栏会显示
https://dash.cloudflare.com/xxxxxxxxx,这串xxxxxxxxx就是你的 Account ID,复制保存好 - 点击右上角头像 → My Profile → API Tokens
- 点击”Create Token” → 找到”Workers AI”模板 → “Use template”
- 继续到最后,会生成一个 Token,这个只显示一次,一定要保存好
第二步:测试调用
打开终端,运行这个命令(记得替换你的 Account ID 和 Token):
curl https://api.cloudflare.com/client/v4/accounts/{你的Account_ID}/ai/run/@cf/meta/llama-3.1-8b-instruct \
-H "Authorization: Bearer {你的API_Token}" \
-H "Content-Type: application/json" \
-d '{
"messages": [
{"role": "system", "content": "你是一个友好的 AI 助手"},
{"role": "user", "content": "用一句话介绍一下 Cloudflare Workers AI"}
]
}'如果看到返回类似这样的 JSON,就说明成功了:
{
"result": {
"response": "Cloudflare Workers AI 是一个无服务器的 AI 推理平台..."
},
"success": true
}常见错误处理:
- 错误 7003: Token 或 Account ID 填错了,检查一下是否完整复制
- 错误 10000: 模型名字写错了,注意是
@cf/meta/llama-3.1-8b-instruct,不要漏掉@cf/ - 超时: 首次调用可能慢一点(冷启动),等 10 秒左右,后续就快了
方式二:推荐 - 用 Workers + Wrangler 部署
这是官方推荐的方式,好处是可以部署成一个永久可用的 API,而且配置管理更方便。
第一步:安装 Wrangler CLI
npm install -g wrangler然后登录你的 Cloudflare 账号:
wrangler login会自动打开浏览器让你授权,点同意就行。
第二步:创建 Worker 项目
npm create cloudflare@latest my-ai-worker会问你几个问题,按这样选择:
- Select a project type: “Hello World” Worker
- Do you want to use TypeScript? 看你喜欢,我选的 No(用 JavaScript)
- Do you want to use git? Yes
- Do you want to deploy? 先选 No,测试好再部署
第三步:配置 Workers AI 绑定
进入项目目录,编辑 wrangler.toml 文件,在最后加上这几行:
[ai]
binding = "AI"这样就可以在代码里用 env.AI 访问 Workers AI 服务了,不需要手动传 Token。
第四步:写代码
编辑 src/index.js(或 index.ts),把内容改成这样:
export default {
async fetch(request, env) {
// 处理 CORS(如果你要从网页调用)
if (request.method === 'OPTIONS') {
return new Response(null, {
headers: {
'Access-Control-Allow-Origin': '*',
'Access-Control-Allow-Methods': 'POST',
'Access-Control-Allow-Headers': 'Content-Type',
},
});
}
// 只接受 POST 请求
if (request.method !== 'POST') {
return new Response('Method not allowed', { status: 405 });
}
try {
// 解析请求
const { messages } = await request.json();
// 调用 AI 模型
const response = await env.AI.run('@cf/meta/llama-3.1-8b-instruct', {
messages: messages || [
{ role: 'user', content: 'Hello!' }
]
});
// 返回结果
return new Response(JSON.stringify(response), {
headers: {
'Content-Type': 'application/json',
'Access-Control-Allow-Origin': '*',
},
});
} catch (error) {
return new Response(JSON.stringify({ error: error.message }), {
status: 500,
headers: { 'Content-Type': 'application/json' },
});
}
},
};第五步:本地测试
wrangler dev会启动一个本地服务器,通常是 http://localhost:8787。
用 curl 测试一下:
curl http://localhost:8787 \
-X POST \
-H "Content-Type: application/json" \
-d '{
"messages": [
{"role": "user", "content": "介绍一下你自己"}
]
}'如果返回正常,就可以部署了。
第六步:部署到生产环境
wrangler deploy部署成功后,会给你一个 *.workers.dev 域名,比如:
https://my-ai-worker.your-name.workers.dev这就是你的 AI API 地址了,可以从任何地方调用。
方式三:用 OpenAI SDK 无缝迁移
如果你之前用的是 OpenAI API,现在想换成 Workers AI,这个方法最方便 - 代码几乎不用改。
Workers AI 提供了 OpenAI 兼容的端点,只需要改一下 baseURL 就行。
import OpenAI from 'openai';
const client = new OpenAI({
apiKey: process.env.CLOUDFLARE_API_TOKEN, // 用你的 Cloudflare Token
baseURL: `https://api.cloudflare.com/client/v4/accounts/${process.env.ACCOUNT_ID}/ai/v1`,
});
// 和 OpenAI 一模一样的调用方式
const chatCompletion = await client.chat.completions.create({
model: '@cf/meta/llama-3.1-8b-instruct', // 换成 Workers AI 的模型名
messages: [
{ role: 'system', content: '你是一个友好的 AI 助手' },
{ role: 'user', content: 'Hello!' }
],
});
console.log(chatCompletion.choices[0].message.content);注意事项:
apiKey用 Cloudflare 的 API TokenbaseURL改成 Workers AI 的端点model改成 Workers AI 支持的模型名(前面要加@cf/)
我之前有个 Next.js 项目用的 OpenAI,迁移到 Workers AI 只花了 10 分钟,改了这三个地方就行。
能用哪些模型?怎么选?
Workers AI 现在支持 50 多个模型,我挑几个常用的介绍一下。
文本生成模型(最常用)
| 模型 | 参数量 | 特点 | 推荐场景 | 模型 ID |
|---|---|---|---|---|
| Llama 3.1 | 8B | 平衡性好,速度快 | 日常对话、客服、摘要 | @cf/meta/llama-3.1-8b-instruct |
| Llama 3.1 | 70B | 质量更高,慢一点 | 复杂推理、长文本 | @cf/meta/llama-3.1-70b-instruct |
| Mistral 7B v0.2 | 7B | 32k 上下文 | 长文档分析 | @cf/mistral/mistral-7b-instruct-v0.2 |
| DeepSeek-R1 | 32B | 推理能力强 | 数学、代码、逻辑 | @cf/deepseek/deepseek-r1-distill-qwen-32b |
我的选择建议:
初次尝试用 Llama 3.1-8B
- 响应快(1-2 秒)
- 质量够用,不输 GPT-3.5
- 免费额度消耗少
要求高一点用 Llama 3.1-70B 或 DeepSeek-R1
- 推理能力更强
- 生成质量接近 GPT-4
- 就是慢一点(3-5 秒),消耗也多 3-4 倍
长文档分析用 Mistral 7B v0.2
- 支持 32k 上下文窗口(Llama 3.1 只有 8k)
- 适合处理长论文、长代码
实战案例:三个真实例子
案例1:构建智能问答 API(最简单)
场景: 给你的博客或文档站加一个 AI 客服。
完整代码(基于方式二):
export default {
async fetch(request, env) {
// 允许跨域
const corsHeaders = {
'Access-Control-Allow-Origin': '*',
'Access-Control-Allow-Methods': 'POST, OPTIONS',
'Access-Control-Allow-Headers': 'Content-Type',
};
if (request.method === 'OPTIONS') {
return new Response(null, { headers: corsHeaders });
}
try {
const { question } = await request.json();
// 你可以在 system 提示词里加上你网站的背景知识
const messages = [
{
role: 'system',
content: '你是一个技术博客的 AI 助手,主要回答关于 Web 开发、AI 应用的问题。回答要简洁、友好。'
},
{
role: 'user',
content: question
}
];
const response = await env.AI.run(
'@cf/meta/llama-3.1-8b-instruct',
{ messages }
);
return new Response(
JSON.stringify({ answer: response.response }),
{ headers: { ...corsHeaders, 'Content-Type': 'application/json' } }
);
} catch (error) {
return new Response(
JSON.stringify({ error: '处理失败,请稍后重试' }),
{ status: 500, headers: { ...corsHeaders, 'Content-Type': 'application/json' } }
);
}
}
};成本估算: 假设每天有 200 个用户提问,每次对话消耗 10 Neurons,总共 2000 Neurons,完全在免费额度内。
案例2:批量文本摘要生成
场景: 你有一堆文章需要生成摘要,比如 RSS 订阅、新闻抓取。
async function generateSummary(text, env) {
const messages = [
{
role: 'system',
content: '你是一个专业的文本摘要助手。请将用户提供的文章总结成 2-3 句话,突出核心观点。'
},
{
role: 'user',
content: `请总结以下文章:\n\n${text}`
}
];
const response = await env.AI.run(
'@cf/meta/llama-3.1-8b-instruct',
{
messages,
max_tokens: 150 // 限制输出长度,节省 Neurons
}
);
return response.response;
}注意速率限制:
- Llama 3.1-8B 限制是 300 请求/分钟
- 如果要批量处理,记得加延迟或用队列
成本计算实例:
- 假设每篇文章 1000 字,生成 100 字摘要
- 每次消耗约 30 Neurons
- 处理 300 篇文章 = 9000 Neurons,还在免费额度内
案例3:多语言翻译服务
场景: 做一个翻译工具,或者给你的应用加国际化支持。
async function translate(text, targetLang, env) {
const messages = [
{
role: 'system',
content: `你是一个专业的翻译助手。将用户输入翻译成 ${targetLang},保持原文风格和语气。只返回翻译结果,不要加任何解释。`
},
{
role: 'user',
content: text
}
];
const response = await env.AI.run(
'@cf/meta/llama-3.1-8b-instruct',
{ messages }
);
return response.response;
}成本对比:
- Google Cloud Translation API: $20/百万字符
- Workers AI(Llama 3.1): 百万字符约 $1.65
便宜了 10 倍以上!
总结:Workers AI 值得尝试吗?
测试了一个月后,我的结论是:对个人开发者和小团队来说,非常值得。
优点:
- ✅ 免费额度慷慨(每天 10,000 Neurons)
- ✅ 付费价格便宜(比 OpenAI 便宜 60-90%)
- ✅ 上手简单(有 REST API 和 OpenAI 兼容接口)
- ✅ 响应速度快(全球边缘网络)
- ✅ 模型选择多(50+ 开源模型)
我的建议:
- 个人项目直接上,免费额度足够,而且省了服务器成本
- 创业项目可以先用,等规模上来再考虑迁移到其他方案
- 企业应用谨慎评估,要考虑 SLA、数据合规性等问题
如果你也在找低成本的 AI 方案,不妨试试 Workers AI。注册账号 5 分钟,跑通第一个例子也就 15 分钟,万一适合你呢?
常见问题
Workers AI 的免费额度够用吗?
• 1000-2000 次简单对话
• 200-300 次长文本摘要
• 250-500 次代码生成
对个人项目和小型应用完全够用。
Workers AI 比 OpenAI 便宜多少?
• 比 OpenAI GPT-3.5 便宜 60-70%
• 比 GPT-4 便宜 90% 以上
成本对比:
• 假设每天使用 50,000 Neurons,月费用约 $13
• OpenAI 相同调用量需 $50-100
如何从 OpenAI 迁移到 Workers AI?
1) apiKey 改为 Cloudflare Token
2) baseURL 改为 Workers AI 端点
3) model 改为 Workers AI 支持的模型(如 @cf/meta/llama-3.1-8b-instruct)
Workers AI 支持哪些模型?
• Llama 3.1(8B/70B)
• Mistral 7B(32k上下文)
• DeepSeek-R1(推理能力强)
• Stable Diffusion XL(图像生成)
• Whisper(语音识别)等
如何开始使用 Workers AI?
1) REST API(最简单,用 curl 即可测试)
2) Workers + Wrangler 部署(推荐,可部署为永久 API)
3) OpenAI SDK 兼容(适合从 OpenAI 迁移)
注册 Cloudflare 账号后 5-15 分钟即可上手。
9 分钟阅读 · 发布于: 2025年11月21日 · 修改于: 2026年1月22日
相关文章
Veo 3音频生成完全指南:如何让AI视频自动配音配乐(附提示词模板)

Veo 3音频生成完全指南:如何让AI视频自动配音配乐(附提示词模板)
Veo 3图生视频实战:用Reference Image精准控制视频效果

Veo 3图生视频实战:用Reference Image精准控制视频效果
Veo 3角色一致性完整指南:用Scenebuilder制作连贯多镜头视频


评论
使用 GitHub 账号登录后即可评论