系列文章 /
Ollama 本地 LLM 实战指南
本系列共 5 篇文章
1
Ollama 入门:本地运行大语言模型的第一步
想在自己的电脑上运行大语言模型?本指南手把手教你安装配置 Ollama,从零开始体验本地 LLM 的强大功能,涵盖多平台安装、模型管理、GPU加速和 API 集成的完整教程
AI与智能
O
2
Ollama 模型管理:下载、切换、删除与版本控制完全指南
详细讲解 Ollama 模型管理核心命令,包括下载指定版本、切换模型、批量删除脚本、版本控制最佳实践,帮助你高效管理本地 LLM 库,腾出磁盘空间,避免版本混乱。适合 AI 开发者和 OpenClaw 部署者。
AI与智能
O
3
Ollama Modelfile 参数详解:创建专属定制模型的完整指南
详解 Ollama Modelfile 的 10 个核心参数配置,包含 temperature、num_ctx 等调优技巧,提供 4 个可直接使用的实战模板,帮助你创建专属定制模型
AI与智能
O
4
Ollama API 调用:从 curl 到 OpenAI SDK 兼容接口
学习 Ollama API 调用的两种方式:原生 REST API(curl)和 OpenAI SDK 兼容接口。包含完整代码示例、流式响应处理和最佳实践指南
AI与智能
O
5
Ollama + Open WebUI:搭建本地 ChatGPT 界面(完整指南)
手把手教你用 Ollama 和 Open WebUI 在本地搭建 ChatGPT 风格的 AI 对话界面,涵盖安装部署、模型选择、RAG 知识库、API 集成和性能优化,30 分钟完成本地 AI 助手
AI与智能
O