はじめに
以下の公式イベントを見かけて、今回の記事を書いてみました。
●2025年、生成AIを使ってみてどうだった? - Qiita
https://qiita.com/official-events/df853677df3984f82556
2025年の生成AI関連の話題
2025年は、個人で生成AI関連の内容をあれこれ試して(話題になったもの色々や、その他も)、それに関する記事も書いていました。
また、新しいサービス・機能がリリースされたのを見かけたら、とりあえず試してメモ的な記事などを書くということも何度もやっていました。そのようなお試し&記事執筆をしていたら、その中の記事の 1つをきっかけに、個人として登壇する機会をいただいたこともありしました(以下は、その登壇したイベント開催前の別のイベントで、自分が登壇するイベントを紹介いただいた時のポストです)。
(この時は、夜22時台にリリースされた Gemini CLI を、0時前までに試して記事公開までやっていたのですが、この件は「素早く情報をキャッチアップして記事を書いていた」というのがお声がけいただいたきっかけになりました)
今回とりあげる話題
Web上で使えるサービスやクラウドで提供される機能もあれこれ試したのですが、それ以外に、何台かの PC を個人で買ってローカルLLM の色々なモデルを試すということもやっていました。今回の記事では、そのローカルLLM関連の話を書いてみようと思います。
上記の「PC を買って...」という部分は、2025年を振り返ると 3種の PC を買ってしまっていました。
2025年中の自宅でのローカルLLM と PC
2024年に買っていた M4 Mac mini(メモリは 24GB)
2025年に買った 3種の PC の話の前に、それらを買う前に 2025年のローカルLLM のお試しに使っていた PC の話にも、少し触れておこうと思います。
2025年の自宅でのローカルLLM で、最初に使っていた PC は 2024年秋に個人で購入した Mac でした。具体的には、2024年11月当時は新型だった、M4 Mac mini です。
これを買った背景は、Mac mini を使ったことがなくて試してみたかったというのはありつつ、主目的は「ローカルLLM を試してみること」でした。
もう少し補足すると、もともと個人的にローカルLLM関連の技術情報を追いかけてはいた状況がありました。その中で「Apple Silicon搭載の Mac のユニファイドメモリと、それを活用したローカルLLM」の話題を何度も見かけていて、Apple Silicon搭載の Mac を何か買いたいと思っていました。
そんな中で新型の Mac mini の話題を見かけて、ローカルLLM用にメモリを 8GB だけ積み増したものを購入しました(もっと積み増そうかと思いつつ、自分がローカルLLM にどれくらいハマるか読めなかったので、いったん積み増しは 8GB にしました)。
2025年に個人で買った PC 3種
その後、2025年にローカルLLM を試すのに使った PC で、2025年に個人購入した PC が 3種類ありました。それについても書いてみます。
【2025年7月】 M4 MacBook Air(メモリは 16GB)
1台目は、7月に購入した M4 MacBook Air です。これを買った主目的はローカルLLM ではなく、それまで使っていた 2020年モデルの Intel MacBook Pro の買いかえでした(この時、2020年モデルの Intel MacBook Pro にも最新の OSアップデートはくる予定でしたが、一方で、自分が使っていた複数のアプリで、次期バージョンから Apple Silicon搭載の Mac のみにしか対応しない予定という話が出てきていたところでした)。
購入したのはそういう目的ではありましたが、デフォルト搭載のメモリの範囲で動く小さいモデルで、ローカルLLM を自宅・外出先で試すのに使ったりしました。
【2025年10月】 GMKtec EVO-X2(メモリ 128GB)
さらに 10月には、Ryzen AI Max+ 395 搭載の「GMKtec EVO-X2」の、メモリ 128GB のものを購入しました。これは、OpenAI のモデル「gpt-oss」の「20b のほうだけでなく 120b も動かせる」という情報を見かけていて、セールが行われたタイミングで買いました。
購入後、gpt-oss-120b を動かせて、以下の記事を書いたりもしていました。
- ミニPC「GMKtec EVO-X2」でローカルLLM: LM Studio で ROCm llama.cpp(Windows)+ gpt-oss-120b を利用【Ryzen AI Max+ 395・メモリ128GB搭載の PC】 - Qiita
- ミニPC「GMKtec EVO-X2」でローカルLLM: LM Studio の OpenAI互換のAPI + gpt-oss-120b を利用【Node.js】 - Qiita
その後も、ローカルでの生成AI利用に活躍しています(Text-to-Text だけでなく、Text-to-Image なども)。
2025年末に買った M5 MacBook Pro(メモリは 32GB)
上記の状況でローカルLLM を試す環境は、自分的には十分だったかもしれないというのがありつつ、その後、12/27 にメモリを 32GB にした(16GB の積み増しをした)M5 MacBook Pro を買ってしまいました。
メモリについては、上記の M4 Mac mini(メモリ 24GB)を使っている中で「あともう少しメモリがあれば...」という状況が何度かあったので、32GB にしました。自分が買った標準の M5チップだと、搭載できるメモリ上限まで増やした形です。
もしメモリを 32GB よりも増やそうとした場合は、M4 の状況と同様に Pro/Max の登場を待つ必要があったのですが、自宅に上記の EVO-X2 もあったので「標準の M5チップ + メモリ32GB」にしました。
ちなみに、年末のわりとぎりぎりなタイミングに注文したのと、家電量販店からメーカーへの発注での入荷がなかなか行われなかったという状況があって、入手できたのは 2026年の1月の前半となりました(家電量販店から「メーカーから入荷できず、出荷は遅くなります」というお知らせメールを、2回くらい受領していたり)。
2026年の自宅でのローカルLLM
2026年になっても引き続き、ローカルLLM で使える新しいモデルで、自宅のいずれかの PC で動かせる複数のモデルが既に出てきています。引き続き、ローカルLLM活用を楽しめそうです。
余談: M5チップで遭遇した LM Studio のエラー
余談になりますが、ローカルLLM関連の今月の話題では、M5チップでのローカルLLMで「MLX版モデル + LM Studio のエラー」に遭遇したりもしました。今は解消されたエラーになりますが、その時に以下の記事を書いていました。
●M5チップ搭載モデルの Mac で LM Studio の MLX版モデルを使った時のエラーを解決(M5用のランタイム利用)【2026/1/12時点】 - Qiita
https://qiita.com/youtoy/items/f4f11c849008c4d4b651


コメント
いいね以上の気持ちはコメントで