切换语言
切换主题

Workers AI 完整教程:每天白嫖 10000 次大模型调用,比 OpenAI 省 90%

说实话,第一次看到 OpenAI 账单的时候我整个人都傻了。一个月 200 多美元,就因为做了个小项目测试了几天 API。那时候我就在想:有没有免费或者便宜点的替代方案?

后来在研究 Cloudflare 的边缘计算功能时,偶然发现了 Workers AI。测试了一周后发现,免费额度对个人开发者来说真的够用。今天就把完整的使用方法分享给你。

10,000
Neurons/天免费额度
个人项目完全够用
$0.011
每 1000 Neurons
付费价格
60-90%
成本节省
相比 OpenAI
50+
开源模型支持
数据来源: Cloudflare Workers AI 官方定价 (2025)

Workers AI 是什么?为什么值得关注?

简单来说,Workers AI 就是 Cloudflare 推出的无服务器 AI 推理服务。你不需要自己买 GPU、不需要管服务器,写几行代码就能调用 Llama、Mistral 这些开源大模型。

最关键的是三点:

  1. 每天 10,000 Neurons 免费额度

    • 实测大概能处理几百次对话,个人项目完全够用
    • 用 Llama 3.1-8B 模型,我测试了 1000 次简单对话,消耗了大约 8000 Neurons
  2. 付费也很便宜: $0.011/1000 Neurons

    • 比 OpenAI GPT-3.5 便宜 60-70%
    • 比 GPT-4 便宜 90% 以上
  3. 全球边缘网络加速

    • Cloudflare 有 300+ 个节点
    • 响应速度比很多云服务商快

和其他方案对比一下

你可能会问:免费的东西能好用吗?我整理了个表格对比:

方案免费额度付费价格响应速度模型选择
Workers AI10,000 Neurons/天$0.011/1k Neurons快(边缘节点)50+ 开源模型
OpenAI API$5 新用户(一次性)$0.002/1k tokens(GPT-3.5)中等GPT 系列
HuggingFace有限免费调用按模型计费较慢海量模型
自建服务器-GPU租用成本高取决于配置任意模型

什么时候适合用 Workers AI?

  • ✅ 个人项目、原型验证、学习实验
  • ✅ 中小规模生产应用(QPS < 300)
  • ✅ 对成本敏感的初创项目

什么时候不太合适?

  • ⚠️ 大规模批量处理(每天几十万次调用)
  • ⚠️ 对延迟极度敏感的实时应用(需要 < 100ms 响应)
  • ⚠️ 需要最新 GPT-4 级别模型的场景

"使用 Llama 3.1-8B 处理中文对话实测:简单问答(100字以内)每次消耗 5-8 Neurons,长文本摘要(1000字输入)每次消耗 30-50 Neurons,代码生成(500行代码)每次消耗 20-40 Neurons。"

— 本文作者实测数据

免费额度够用吗?我帮你算一笔账

这个”Neurons”是 Cloudflare 自己定义的计费单位,刚开始我也看懵了。简单理解就是:

Neurons = (输入 tokens + 输出 tokens) × 模型系数

不同模型的系数不一样:

  • Llama 3.1-8B: 系数约 0.8
  • Llama 3.1-70B: 系数约 3.5
  • Mistral 7B: 系数约 0.7

实际能用多少次?

按这个消耗量算,每天 10,000 Neurons 大概能处理:

  • 1000-2000 次简单对话
  • 200-300 次长文本处理
  • 250-500 次代码生成

老实讲,对个人开发者来说真的很够用了。我现在用 Workers AI 跑了个小机器人,每天处理几百条消息,完全在免费额度内。

如果超了免费额度怎么办?

会自动转成付费模式,$0.011/1000 Neurons。

我算了一下,就算超了,成本也很低:

  • 假设你每天用 50,000 Neurons(是免费额度的 5 倍)
  • 超出部分: 40,000 Neurons
  • 费用: 40,000 / 1000 × $0.011 = $0.44/天
  • 一个月也就 $13 左右

对比 OpenAI:相同调用量可能要 $50-100,Workers AI 确实便宜不少。

快速上手:三种方式调用 Workers AI

前置准备很简单:

  1. 注册 Cloudflare 账号(免费)
  2. 安装 Node.js(如果用方式二、三)

接下来我介绍三种调用方式,从简单到进阶,你可以根据自己需求选择。

方式一:最简单 - 直接用 REST API

这是最快的体验方式,连代码都不用写,用 curl 命令就能测试。

第一步:获取 API Token 和 Account ID

  1. 登录 Cloudflare,访问 https://dash.cloudflare.com
  2. 地址栏会显示 https://dash.cloudflare.com/xxxxxxxxx,这串 xxxxxxxxx 就是你的 Account ID,复制保存好
  3. 点击右上角头像 → My Profile → API Tokens
  4. 点击”Create Token” → 找到”Workers AI”模板 → “Use template”
  5. 继续到最后,会生成一个 Token,这个只显示一次,一定要保存好

第二步:测试调用

打开终端,运行这个命令(记得替换你的 Account ID 和 Token):

curl https://api.cloudflare.com/client/v4/accounts/{你的Account_ID}/ai/run/@cf/meta/llama-3.1-8b-instruct \
  -H "Authorization: Bearer {你的API_Token}" \
  -H "Content-Type: application/json" \
  -d '{
    "messages": [
      {"role": "system", "content": "你是一个友好的 AI 助手"},
      {"role": "user", "content": "用一句话介绍一下 Cloudflare Workers AI"}
    ]
  }'

如果看到返回类似这样的 JSON,就说明成功了:

{
  "result": {
    "response": "Cloudflare Workers AI 是一个无服务器的 AI 推理平台..."
  },
  "success": true
}

常见错误处理:

  • 错误 7003: Token 或 Account ID 填错了,检查一下是否完整复制
  • 错误 10000: 模型名字写错了,注意是 @cf/meta/llama-3.1-8b-instruct,不要漏掉 @cf/
  • 超时: 首次调用可能慢一点(冷启动),等 10 秒左右,后续就快了

方式二:推荐 - 用 Workers + Wrangler 部署

这是官方推荐的方式,好处是可以部署成一个永久可用的 API,而且配置管理更方便。

第一步:安装 Wrangler CLI

npm install -g wrangler

然后登录你的 Cloudflare 账号:

wrangler login

会自动打开浏览器让你授权,点同意就行。

第二步:创建 Worker 项目

npm create cloudflare@latest my-ai-worker

会问你几个问题,按这样选择:

  • Select a project type: “Hello World” Worker
  • Do you want to use TypeScript? 看你喜欢,我选的 No(用 JavaScript)
  • Do you want to use git? Yes
  • Do you want to deploy? 先选 No,测试好再部署

第三步:配置 Workers AI 绑定

进入项目目录,编辑 wrangler.toml 文件,在最后加上这几行:

[ai]
binding = "AI"

这样就可以在代码里用 env.AI 访问 Workers AI 服务了,不需要手动传 Token。

第四步:写代码

编辑 src/index.js(或 index.ts),把内容改成这样:

export default {
  async fetch(request, env) {
    // 处理 CORS(如果你要从网页调用)
    if (request.method === 'OPTIONS') {
      return new Response(null, {
        headers: {
          'Access-Control-Allow-Origin': '*',
          'Access-Control-Allow-Methods': 'POST',
          'Access-Control-Allow-Headers': 'Content-Type',
        },
      });
    }

    // 只接受 POST 请求
    if (request.method !== 'POST') {
      return new Response('Method not allowed', { status: 405 });
    }

    try {
      // 解析请求
      const { messages } = await request.json();

      // 调用 AI 模型
      const response = await env.AI.run('@cf/meta/llama-3.1-8b-instruct', {
        messages: messages || [
          { role: 'user', content: 'Hello!' }
        ]
      });

      // 返回结果
      return new Response(JSON.stringify(response), {
        headers: {
          'Content-Type': 'application/json',
          'Access-Control-Allow-Origin': '*',
        },
      });

    } catch (error) {
      return new Response(JSON.stringify({ error: error.message }), {
        status: 500,
        headers: { 'Content-Type': 'application/json' },
      });
    }
  },
};

第五步:本地测试

wrangler dev

会启动一个本地服务器,通常是 http://localhost:8787

用 curl 测试一下:

curl http://localhost:8787 \
  -X POST \
  -H "Content-Type: application/json" \
  -d '{
    "messages": [
      {"role": "user", "content": "介绍一下你自己"}
    ]
  }'

如果返回正常,就可以部署了。

第六步:部署到生产环境

wrangler deploy

部署成功后,会给你一个 *.workers.dev 域名,比如:

https://my-ai-worker.your-name.workers.dev

这就是你的 AI API 地址了,可以从任何地方调用。

方式三:用 OpenAI SDK 无缝迁移

如果你之前用的是 OpenAI API,现在想换成 Workers AI,这个方法最方便 - 代码几乎不用改

Workers AI 提供了 OpenAI 兼容的端点,只需要改一下 baseURL 就行。

import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: process.env.CLOUDFLARE_API_TOKEN, // 用你的 Cloudflare Token
  baseURL: `https://api.cloudflare.com/client/v4/accounts/${process.env.ACCOUNT_ID}/ai/v1`,
});

// 和 OpenAI 一模一样的调用方式
const chatCompletion = await client.chat.completions.create({
  model: '@cf/meta/llama-3.1-8b-instruct', // 换成 Workers AI 的模型名
  messages: [
    { role: 'system', content: '你是一个友好的 AI 助手' },
    { role: 'user', content: 'Hello!' }
  ],
});

console.log(chatCompletion.choices[0].message.content);

注意事项:

  • apiKey 用 Cloudflare 的 API Token
  • baseURL 改成 Workers AI 的端点
  • model 改成 Workers AI 支持的模型名(前面要加 @cf/)

我之前有个 Next.js 项目用的 OpenAI,迁移到 Workers AI 只花了 10 分钟,改了这三个地方就行。

能用哪些模型?怎么选?

Workers AI 现在支持 50 多个模型,我挑几个常用的介绍一下。

文本生成模型(最常用)

模型参数量特点推荐场景模型 ID
Llama 3.18B平衡性好,速度快日常对话、客服、摘要@cf/meta/llama-3.1-8b-instruct
Llama 3.170B质量更高,慢一点复杂推理、长文本@cf/meta/llama-3.1-70b-instruct
Mistral 7B v0.27B32k 上下文长文档分析@cf/mistral/mistral-7b-instruct-v0.2
DeepSeek-R132B推理能力强数学、代码、逻辑@cf/deepseek/deepseek-r1-distill-qwen-32b

我的选择建议:

  1. 初次尝试用 Llama 3.1-8B

    • 响应快(1-2 秒)
    • 质量够用,不输 GPT-3.5
    • 免费额度消耗少
  2. 要求高一点用 Llama 3.1-70B 或 DeepSeek-R1

    • 推理能力更强
    • 生成质量接近 GPT-4
    • 就是慢一点(3-5 秒),消耗也多 3-4 倍
  3. 长文档分析用 Mistral 7B v0.2

    • 支持 32k 上下文窗口(Llama 3.1 只有 8k)
    • 适合处理长论文、长代码

实战案例:三个真实例子

案例1:构建智能问答 API(最简单)

场景: 给你的博客或文档站加一个 AI 客服。

完整代码(基于方式二):

export default {
  async fetch(request, env) {
    // 允许跨域
    const corsHeaders = {
      'Access-Control-Allow-Origin': '*',
      'Access-Control-Allow-Methods': 'POST, OPTIONS',
      'Access-Control-Allow-Headers': 'Content-Type',
    };

    if (request.method === 'OPTIONS') {
      return new Response(null, { headers: corsHeaders });
    }

    try {
      const { question } = await request.json();

      // 你可以在 system 提示词里加上你网站的背景知识
      const messages = [
        {
          role: 'system',
          content: '你是一个技术博客的 AI 助手,主要回答关于 Web 开发、AI 应用的问题。回答要简洁、友好。'
        },
        {
          role: 'user',
          content: question
        }
      ];

      const response = await env.AI.run(
        '@cf/meta/llama-3.1-8b-instruct',
        { messages }
      );

      return new Response(
        JSON.stringify({ answer: response.response }),
        { headers: { ...corsHeaders, 'Content-Type': 'application/json' } }
      );

    } catch (error) {
      return new Response(
        JSON.stringify({ error: '处理失败,请稍后重试' }),
        { status: 500, headers: { ...corsHeaders, 'Content-Type': 'application/json' } }
      );
    }
  }
};

成本估算: 假设每天有 200 个用户提问,每次对话消耗 10 Neurons,总共 2000 Neurons,完全在免费额度内。

案例2:批量文本摘要生成

场景: 你有一堆文章需要生成摘要,比如 RSS 订阅、新闻抓取。

async function generateSummary(text, env) {
  const messages = [
    {
      role: 'system',
      content: '你是一个专业的文本摘要助手。请将用户提供的文章总结成 2-3 句话,突出核心观点。'
    },
    {
      role: 'user',
      content: `请总结以下文章:\n\n${text}`
    }
  ];

  const response = await env.AI.run(
    '@cf/meta/llama-3.1-8b-instruct',
    {
      messages,
      max_tokens: 150 // 限制输出长度,节省 Neurons
    }
  );

  return response.response;
}

注意速率限制:

  • Llama 3.1-8B 限制是 300 请求/分钟
  • 如果要批量处理,记得加延迟或用队列

成本计算实例:

  • 假设每篇文章 1000 字,生成 100 字摘要
  • 每次消耗约 30 Neurons
  • 处理 300 篇文章 = 9000 Neurons,还在免费额度内

案例3:多语言翻译服务

场景: 做一个翻译工具,或者给你的应用加国际化支持。

async function translate(text, targetLang, env) {
  const messages = [
    {
      role: 'system',
      content: `你是一个专业的翻译助手。将用户输入翻译成 ${targetLang},保持原文风格和语气。只返回翻译结果,不要加任何解释。`
    },
    {
      role: 'user',
      content: text
    }
  ];

  const response = await env.AI.run(
    '@cf/meta/llama-3.1-8b-instruct',
    { messages }
  );

  return response.response;
}

成本对比:

  • Google Cloud Translation API: $20/百万字符
  • Workers AI(Llama 3.1): 百万字符约 $1.65

便宜了 10 倍以上!

总结:Workers AI 值得尝试吗?

测试了一个月后,我的结论是:对个人开发者和小团队来说,非常值得。

优点:

  • ✅ 免费额度慷慨(每天 10,000 Neurons)
  • ✅ 付费价格便宜(比 OpenAI 便宜 60-90%)
  • ✅ 上手简单(有 REST API 和 OpenAI 兼容接口)
  • ✅ 响应速度快(全球边缘网络)
  • ✅ 模型选择多(50+ 开源模型)

我的建议:

  1. 个人项目直接上,免费额度足够,而且省了服务器成本
  2. 创业项目可以先用,等规模上来再考虑迁移到其他方案
  3. 企业应用谨慎评估,要考虑 SLA、数据合规性等问题

如果你也在找低成本的 AI 方案,不妨试试 Workers AI。注册账号 5 分钟,跑通第一个例子也就 15 分钟,万一适合你呢?


常见问题

Workers AI 的免费额度够用吗?
每天 10,000 Neurons 免费额度可处理:
• 1000-2000 次简单对话
• 200-300 次长文本摘要
• 250-500 次代码生成

对个人项目和小型应用完全够用。
Workers AI 比 OpenAI 便宜多少?
付费价格为 $0.011/1000 Neurons:
• 比 OpenAI GPT-3.5 便宜 60-70%
• 比 GPT-4 便宜 90% 以上

成本对比:
• 假设每天使用 50,000 Neurons,月费用约 $13
• OpenAI 相同调用量需 $50-100
如何从 OpenAI 迁移到 Workers AI?
Workers AI 提供 OpenAI 兼容接口,只需修改 3 处:

1) apiKey 改为 Cloudflare Token

2) baseURL 改为 Workers AI 端点

3) model 改为 Workers AI 支持的模型(如 @cf/meta/llama-3.1-8b-instruct)
Workers AI 支持哪些模型?
支持 50+ 开源模型,常用的包括:
• Llama 3.1(8B/70B)
• Mistral 7B(32k上下文)
• DeepSeek-R1(推理能力强)
• Stable Diffusion XL(图像生成)
• Whisper(语音识别)等
如何开始使用 Workers AI?
三种方式:

1) REST API(最简单,用 curl 即可测试)

2) Workers + Wrangler 部署(推荐,可部署为永久 API)

3) OpenAI SDK 兼容(适合从 OpenAI 迁移)

注册 Cloudflare 账号后 5-15 分钟即可上手。

9 分钟阅读 · 发布于: 2025年11月21日 · 修改于: 2026年1月22日

评论

使用 GitHub 账号登录后即可评论

相关文章