マガジンのカバー画像

②自分だけのAI作成 独り占め ローカルLLMとは

14
ローカルLLMの解説と作り方 利用方法を解説
運営しているクリエイター

記事一覧

ローカルLLMとは?そのメリットと使い道〜環境構築ガイド

近年、ChatGPTなどクラウドベースの大規模言語モデル(LLM)が注目を集める一方、自前のPCやオンプレミス環境でLLMを動かす“ローカルLLM” へのニーズも高まっています。本記事では「ローカルLLM」の概要やメリット、代表的なツールの紹介と、初心者でも取り組みやすいモデル選定・セットアップ例を解説します。 1. ローカルLLMとは?「ローカルLLM」とは、自社のサーバや個人のコンピュータ上で大規模言語モデルを動かす手法を指します。クラウドAPIを利用せず、ハードウェア

【Gemma3】ローカルLLMはここまで来た!メリット・精度・使い方を確認

ChatGPTやGeminiなどのクラウドベースのLLM(大規模言語モデル)は、業務や生活になくてはならないものとなりました。しかし、セキュリティやコスト面での懸念から、職場や個人での活用がしづらい方も多いですよね。 そこで最近あらためて注目されているのが、ローカルLLM(個人のPCにLLMをダウンロードして動作させる技術)です。これまではクラウドLLMに性能面で大きく劣っていましたが、2025年3月12日にGoogleが発表したオープンソースモデル「Gemma3」を使って

ローカルLLMがもたらす新時代 ~ セキュアで柔軟なAI活用の実現に向けて ~

データ主権時代におけるローカルLLMの意義クラウドベースのAIサービスが普及する一方で、データセキュリティへの懸念は依然として大きな課題となっている。医療機関での患者データ、金融機関での取引情報、製造業での設計図面など、機密性の高い情報を扱う現場では、データの外部流出リスクを最小限に抑える必要がある。 このような背景から、組織内で完結してAIを活用できるローカルLLMへの注目が高まっている。ローカルLLMは、データセキュリティの確保だけでなく、独自のニーズに応じたカスタマイズ

[#71] ローカルLLMの現在地

はじめに 2025/3/18現在、ローカルでLLMを運用するうえで最適なモデルはgemma3ではないかと思います。通常のPCでも十分に稼働するのが最も評価すべき点ではないかと思います。ローカルLLMは、データセキュリティの確保だけでなく、独自のニーズに応じたカスタマイズや、オフライン環境、長期的なコスト削減も期待できます。 代表的なテキスト生成モデル gemma Google社が公開している、Geminiをもとに設計されたLLM llama3 Meta社が公開して

クラウド不要でAIコード補完!ローカルLLM×VSCodeで実現するプライバシー重視の開発環境

導入:ローカルLLMでコーディングを快適に近年、GitHub Copilotなどのクラウド型AIコーディング支援ツールが普及しています。 しかし企業の機密情報や個人プロジェクトを扱う場合、コードを外部に送信するのは気になる方も多いのではないでしょうか。 そこで注目されているのが、ローカル環境で大規模言語モデル(LLM)を動かし、VSCodeでコード補完やチャット機能を利用できる仕組みです。 本記事では、代表的な拡張機能やセットアップ例、必要なハードウェア要件、さらにはクラウ

AI:GPU なしのノート PC で簡単にローカル LLM を試す ~ DeepSeek-R1

まえがき GPU なしでも大規模言語モデル(LLM)を動かすことができる DeepSeek-R1 が話題ですね。 セキュリティの懸念も取りざたされていますが、みなさんそんなにもれちゃダメな情報を AI さんに突っ込んでるんですかね?(¬_¬) それはともかく、GPU なしでローカルで動くというのは魅力的です。 簡単に試せるのでやってみましょう。 0から始めて30分~1時間もあれば動くと思います。 大半はモデルとかのダウンロード待ち時間であり、作業自体はほとんどあり

Ollama +pythonで自分用のかわいいチャットボットを作ってみる。(ローカルLLM)その1

皆さん生成AIで調べ物をするときなど、どのAIを使っていますか? 先日ローカルLLMの環境を自分のPCに導入しましたので、せっかくなら自分用のかわいらしいUIにしたチャットボットを作ってみたいと思います。 (実行環境やインストールのバージョン、AIとのやりとりによっては、記事の通りにならない場合もあると思います。参考程度にお願いします) まずは、完成した自分用のチャットボットとのメッセージのやり取りの様子は以下の通りです。 Ollamaのインストールと、LLMの導入 まず

【#353】iPhoneにローカルLLMを入れてみた

おはようございます! データサイエンスを学んでいる、大学4年生のUKIです。 今日は、『iPhoneにローカルLLMを入れてみた』というテーマでお話ししたいと思います。 iPhone×ローカルLLMの可能性を考える昨日、先日公開された、ながらAIラジオのエピソードを聞きました。 このエピソードの中で、Gemma3の話題が出てきました。これをきっかけに、iPhoneでローカルLLMを試してみようと思い、実装してきました。 こちらの記事を参考にしながら、PocketPal

コストを抑えて始めるローカルLLM活用ガイド — 蒸留モデルで十分できること

高性能LLMの魅力と現実的な課題2025年現在、DeepseekやLLaMAなど高性能な大規模言語モデル(LLM)がオープンソースとして広く普及している。これらのモデルは驚くほど人間らしい文章生成能力を持ち、様々な分野での活用が期待されている。 しかし、こうした高性能モデルを快適に動かすには強力なGPUが必要となり、ハードウェアへの投資が必要になる。最新のGPUは高価であり、クラウドサービスでの継続利用も長期的には費用がかさむ。特に予算に制約のあるスタートアップや個人開発者

💕自分専用の ChatGPT を作る方法(用途別)

1. OpenAI API を使ったカスタム ChatGPT 構築 (クラウド利用) ターゲット: 手軽に AI を作りたい方、社内情報や特定のデータを活用したい方 メリット: すぐに使える(クラウドベース) カスタムプロンプトで専門的な AI にできる 追加学習なしで実用可能 デメリット: API コストがかかる (利用量に応じた課金) 機密情報をクラウドに送るのはリスクあり 技術レベル: 初心者~中級 おすすめポイント: 迅速な導入と手軽さを求める場合

ローカルLLMの小説生成能力を評価する:中規模モデル編

中規模モデルクラス、恋愛小説部門の評価です。 はじめに近年、ローカル環境で動作する比較的小規模なLLM(Large Language Model)の性能が向上しています。本記事では、パラメータ数20~30B程度のローカルLLM(量子化を行うと24GB VRAM程度で動作するもの)を中心に、それらのLLMの小説生成能力を、より大規模なクラウド型LLMを用いて評価する試みについて報告します。 なお、試行回数は生成、評価とも1回のみ、プロンプトや生成設定なども練れていませんので

【推し】筆者が利用しているローカルLLM 2025年版【日本語LLM】

はじめに筆者が利用しているローカルLLMを紹介します。定量的な評価は行っていないので、筆者が日常で利用している条件下での独断と偏見です。 以前の記事のアップデート版です。(古い)Visionモデルは以前の方が詳しいです。 筆者のローカルAI環境: CPU:Ryzen5 3600 OS:Windows 11 Pro(24H2) システムメモリ:64GB GPU:NVIDIA RTX 3060 12GB ※ RTX 3060(12GB)で実用的に利用できる上限は、

🤔AI普及を目指すターゲットを考察

500人規模の社内サーバーにローカル LLM(ChatGPT の代替)を構築する場合に必要なハードウェアの目安を、用途や推奨スペックとともに解説します。    🔹 1. 前提条件(500人規模での運用を想定) ✅ 同時利用者数: 最大 50~100人(ピーク時) ✅ LLM の種類: 7B(70億パラメータ)~ 65B(650億パラメータ)規模の LLM ✅ 用途: 社内 FAQ、自動応答、ドキュメント検索、要約 ✅ 推論速度: 数秒以内の応答時間を目指す    🔹 2

😍Gemma 2 2B で RAG + LLM を実現する方法(Python)

はじめに Google が提供する軽量な LLM である Gemma 2 2B と RAG (Retrieval-Augmented Generation) を組み合わせる方法について解説します。RAG は、独自のデータセットを活用して回答を生成できる強力な手法です。 ✅ 軽量なモデル(VRAM 8GB でも動作可) ✅ ファインチューニング不要でリアルタイム検索 ✅ Python でシンプルに実装可能 1. RAG とは? 通常の LLM は学習データが固定されてい

②自分だけのAI作成 独り占め ローカルLLMとは|人力知能AI|note
word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word word

mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1
mmMwWLliI0fiflO&1