シリーズ記事 /
Ollama ローカル LLM 実践ガイド
このシリーズは全5記事
1
Ollama 入門:ローカルで大規模言語モデルを実行する第一歩
自分のコンピュータで大規模言語モデルを実行したいですか?このガイドでは、Ollamaのインストールと設定を初心者向けに解説。マルチプラットフォーム対応、モデル管理、GPU加速、API統合まで完全網羅
AI・インテリジェンス
O
2
Ollama モデル管理完全ガイド:ダウンロード、切り替え、削除とバージョン管理
Ollama モデル管理の核心コマンド(pull、run、list、rm)を詳しく解説。バージョン選択、一括削除スクリプト、ディスク容量最適化の方法を学び、ローカル LLM ライブラリを効率的に管理。AI開発者と OpenClaw 導入者向け。
AI・インテリジェンス
O
3
Ollama Modelfile パラメータ詳解:カスタムモデル作成の完全ガイド
Ollama Modelfile の 10 のコアパラメータ設定を詳しく解説。temperature、num_ctx などの調整テクニックと、すぐに使える 4 つの実践テンプレートを提供し、あなただけのカスタムモデルを作成します
AI・インテリジェンス
O
4
Ollama API 呼び出し:curl から OpenAI SDK 互換インターフェースまで
Ollama API の2つの呼び出し方法を学ぶ:ネイティブ REST API(curl)と OpenAI SDK 互換インターフェース。完全なコード例、ストリーミングレスポンス処理、ベストプラクティスガイド付き
AI・インテリジェンス
O
5
Ollama + Open WebUI: ローカルでChatGPTライクなインターフェースを構築(完全ガイド)
OllamaとOpen WebUIを使ってローカル環境にChatGPT風のAI対話インターフェースを構築する手順を解説。インストール、モデル選択、RAG知識ベース、API連携、パフォーマンスチューニングまで、30分でローカルAIアシスタントを構築
AI・インテリジェンス
O