言語を切り替える
テーマを切り替える

Ollama ローカル LLM 実践ガイド

このシリーズは全5記事

1

Ollama 入門:ローカルで大規模言語モデルを実行する第一歩

自分のコンピュータで大規模言語モデルを実行したいですか?このガイドでは、Ollamaのインストールと設定を初心者向けに解説。マルチプラットフォーム対応、モデル管理、GPU加速、API統合まで完全網羅

AI・インテリジェンス
2

Ollama モデル管理完全ガイド:ダウンロード、切り替え、削除とバージョン管理

Ollama モデル管理の核心コマンド(pull、run、list、rm)を詳しく解説。バージョン選択、一括削除スクリプト、ディスク容量最適化の方法を学び、ローカル LLM ライブラリを効率的に管理。AI開発者と OpenClaw 導入者向け。

AI・インテリジェンス
3

Ollama Modelfile パラメータ詳解:カスタムモデル作成の完全ガイド

Ollama Modelfile の 10 のコアパラメータ設定を詳しく解説。temperature、num_ctx などの調整テクニックと、すぐに使える 4 つの実践テンプレートを提供し、あなただけのカスタムモデルを作成します

AI・インテリジェンス
4

Ollama API 呼び出し:curl から OpenAI SDK 互換インターフェースまで

Ollama API の2つの呼び出し方法を学ぶ:ネイティブ REST API(curl)と OpenAI SDK 互換インターフェース。完全なコード例、ストリーミングレスポンス処理、ベストプラクティスガイド付き

AI・インテリジェンス
5

Ollama + Open WebUI: ローカルでChatGPTライクなインターフェースを構築(完全ガイド)

OllamaとOpen WebUIを使ってローカル環境にChatGPT風のAI対話インターフェースを構築する手順を解説。インストール、モデル選択、RAG知識ベース、API連携、パフォーマンスチューニングまで、30分でローカルAIアシスタントを構築

AI・インテリジェンス