Ollamaを使ってローカルでRAGとLLMを使う一番簡単なObsidianの活用方法
自分の脳内をそのままデジタル化して、いつでも“ひらめき”を取り出せるようにする──これがObsidianの本質的な強みです。そこにAIプラグインを組み合わせることで、手元のノート群が自動で相互参照され、アイデアを一瞬で整理・発展させられるようになります。
この記事では、ローカル環境で動作しプライバシーを守りながら利用できる【Local GPT】と、強力なチャット機能で会話しながらアイデアを膨らませる【Copilot】を取り上げ、その導入手順と合わせてRAG(Retrieval Augmented Generation)やLLM(Large Language Model)の活用方法を解説します。Deepseekなど最新技術を取り入れた先進的なAIワークフローを、最短ルートであなたのObsidianに構築してみましょう。
1. Obsidianのお勧めAIプラグイン
Obsidianには数多くのサードパーティプラグインが存在し、その中でも今回ご紹介する「Local GPT」と「Copilot」は、どちらもollamaを使ったローカル環境でAIの文章生成・補助機能を実現できる注目のツールです。
Local GPT:OllamaなどのローカルLLMを用いて、プライバシー重視・オフライン環境でもAIアシスタントが使えるのが特徴。
Copilot:Obsidian内でチャット形式の対話や文章編集、要約、翻訳など多彩な命令を実行できる、使いやすいLLMインターフェースですが、同時にRAG機能も実装しているため、既存の文書を踏まえた会話やコンテキストをもとに関連するだろう文書を見つけてくれる機能もあります
2. Ollamaのインストール(Windows版)
Ollamaは、ローカルでLLM(大規模言語モデル)を動かすためのツールです。現在、OllamaはWindows向けのインストーラ(OllamaSetup.exe)が公式サイトからダウンロード可能になっています。
2.1 Ollamaのダウンロードとインストール
Ollamaの公式ダウンロードページにアクセスし、「Download for Windows」をクリックしてインストーラ(OllamaSetup.exe)をダウンロードします。
ダウンロードしたOllamaSetup.exeを実行し、画面の指示に従ってインストールを完了させます。
※ インストーラは管理者権限不要で、ユーザーのホームディレクトリにインストールされます。
2.2 モデルのダウンロードと実行
Ollamaでは、各種LLMモデルが公式サイトで提供されています。例えば、Deepseekやllama3などを利用可能です。
日本語の質問を入力して、AIからの応答を確認してください。
3. Local GPT のインストールと設定
Local GPTは、ローカル環境で文章校正をしたいユーザーにおすすめです。以下は、インストール手順です。
3.1 コミュニティプラグインからのインストール
Obsidianを起動し、設定画面(Settings)に移動。
左メニューの「Community Plugins」を選び、セーフモードをオフにします。
「Browse」をクリックし、検索欄に「Local GPT」と入力。
表示された【Local GPT】プラグインを選び、**「Install」**をクリック。
インストール完了後、有効化します。
3.2 Local GPT プラグイン設定
Obsidian内のLocal GPTプラグインの設定画面を開きます。
AIプロバイダーとして、使用するローカルLLM(「Ollama」)を選択。
サーバーURL を設定します。
例: `http://localhost:11434`
利用するモデルを選択(例:上でインストールしたモデル、yuma/DeepSeek-R1-Distill-Qwen-Japanese:14b など)。
設定を保存し、Obsidianを再起動してください。
チャットUIのショートカットキーの設定
設定画面内の「Hotkeys」セクション(または専用のショートカット設定項目)に移動し、LocalGPTのコマンドを呼び出すためのショートカットキーを設定します。
例:`Ctrl + Alt + C` など、自分が使いやすいキーを選択してください。
または設定の中のコマンドパレットでLocal GPTのコマンドをピンに登録し、選びやすいように調整してください
4. Copilot のインストールと設定
Copilotは、Obsidian内でチャット形式の対話や文章編集、要約・翻訳など多彩な機能を提供するプラグインです。クラウドAPI(OpenAI、Geminiなど)と、ローカルモデル(Ollama)を両方利用できます。
4.1 ObsidianでのCopilotプラグインインストール
ObsidianのSettings > Community Plugins で、「Browse」をクリック。
検索欄に「Copilot」と入力し、表示された【Copilot】プラグインをInstall、その後Enableしてください。
4.2 Copilot プラグインの設定
Obsidianの設定画面を開きます。
Obsidianの左下にあるSettings(設定)アイコンをクリックし、Community Plugins → Installed Plugins の一覧から【Copilot】を探して、その設定画面を開きます。
モデル選択とEmbedding Modelの登録
設定画面内のモデルタブに切り替えます。
まず、RAG(Retrieval Augmented Generation)機能を利用するために、Embedding Modelのインストールが必要です。
例として、` bge-m3` を使用します。
ここでは実感として多少関連性が高いと感じるモデルに変えてます
インストール後、モデルタブに戻り、「Embedding Model」の欄が表示されます。
ここで、Embedding Model一覧に新しくembedding モデルの追加を行ってください
モデルのもとはollamaを選び、 ` bge-m3` を選択します。
次に、チャット用のモデルについても同様に、利用したいLLM(例:yuma/DeepSeek-R1-Distill-Qwen-Japanese:14b)を事前にモデルタブに登録をしてから、該当のモデルを選びます。
ローカルでLM StudioやOllamaを利用する場合は、サーバーURL(例:`http://localhost:11434`)やデフォルトモデルもここで設定してください。
設定の保存と動作確認
すべての設定内容(APIキー、モデル選択、Embedding Modelの登録、サーバーURL、ショートカットキーなど)を確認し、Save ボタンをクリックして保存します。
設定保存後、Obsidianを再起動してください。
再起動後、左サイドバーにCopilotのチャットアイコンが表示されることを確認し、ショートカットキーを利用してチャットUIを起動して動作チェックを行います。
5. RAGとLLMの使い分け
5.1 RAG(Retrieval Augmented Generation)の利用
ポイント
既存のノートやドキュメントを活用し、必要な情報を自動検索・抽出して生成内容を補完
大量の情報資産を「必要なときに瞬時に参照できる」形で提供
具体的なメリット
効率的なリサーチ:関連ノートを自動的に見つけて要点を抽出し、文章作成や議論のベースを素早く用意
ノートリンク作成の自動化:関連度の高いドキュメント間のリンクを提案し、ナレッジベースを自然に拡張
コンテキスト理解:過去のメモや文章などを手動で調べ直す手間を省き、常に最新かつ適切な裏付け情報を参照
5.2 LLM(Large Language Model)の利用
ポイント
人間の文章作成・編集を強力に補佐し、アイデア出しや翻訳などさまざまなタスクを一括でカバー
単純なキーワード対応でなく、文脈や文体を考慮した高度な文章生成が可能
具体的なメリット
文章生成・要約:必要な箇所だけに絞ったサマリ作成、追加の段落生成、スタイル変更が容易
翻訳や校正:多言語対応のモデルを使い、翻訳と誤字脱字修正を一回の処理で完結
深掘り・再構成:既存の下書きから発展的な内容(例: 5歳児向け解説、専門家向け論考)を即時に書き分け
注意事項
現在のところ、「THINK」タグなどのDeepseek特有の文章を自動的に除外はしてくれないため、必要に応じて手動で除去すること。
既存の文章を書き換えるというより、指定の場所に新しいテキストをインサートする仕組みのほうが使いやすいため。文章改修用途にはまだ向いていない気がする
6. まとめ
Local GPT:ローカルでモデルを動かすため、プライバシーを厳格に保ちたい場面に最適
Copilot:チャット形式で直感的に操作できるうえ、RAG機能で既存ノートから必要情報を抽出
最適な使い分け:
「既存情報を活用したい」ならRAGを優先
「文章生成や要約を一気に済ませたい」ならLLMを活用
RAGとLLMを併用することで、既存ノートの活用と新規文章の生産性を同時に高め、Obsidianをより強力な知識基盤へと進化させられます。
今回のノートは修正したいと思うので、ここがわかりにくかった、文章を直してほしい点などがありましたらコメントください
順次直していきます



コメント