ここ1年くらい、生成AIがものすごくトレンドになっており、本業のSEの仕事でも頻繁に活用の検証をしていますし、パソコンレビューでもAI PCというカテゴリのPCが増えてきています。
このAI PCの性能をうまく検証できる、ローカルで動かせて、かつ重い生成AIの機能はないものか、と探しており、ローカルLLM(大規模言語モデル)を検証に使ってみてはどうか?と思い立ちました。
ローカルLLM(ローカル大規模言語モデル)とは、インターネットを介さず、自分のパソコンやサーバー上で直接動作する大規模言語モデル(LLM)のことです。
ChatGPTのようなクラウド型LLMと違い、ローカルのマシン上で完全に完結する点が最大の特徴で、クラウド上ではなく自分自身のPCで動かせるので、AI性能を測るのに最適なのでは?と思い検証した結果を当記事にまとめていきます。

私のメインPCは、レノボYoga 770という、2022年に発売されたノートパソコンです。
CPUは、AMD Ryzen 7 6800Uという、2022年のCPUですが比較的性能の高いCPUを搭載しています。メモリは16GBです。
2025年現在、最新版がYoga 7i/7 2-in-1 Gen10という名前で発売されており、これはCPUのAI性能(NPU性能)が高いのでAI PCというカテゴリに分類される高性能PCです。
Intel版
OS | Windows 11 Home |
CPU | インテル® Core™ Ultra 5 プロセッサー 228V, インテル® Core™ Ultra 7 プロセッサー 258V |
メモリ | 32 GB LPDDR5X-8533MT/s |
ディスプレイ | 14インチ 2.8K OLED(有機ELディスプレイ) (2880 x 1800) 光沢あり, マルチタッチパネル, HDR 600 True Black, 100%DCI-P3, 500 nit, 120Hz, ガラス |
SSD | 512 GB SSD M.2 2242 PCIe-NVMe Gen4 TLC |
無線LAN | Wi-Fi 7対応 (IEEE 802.11be/ax/ac/a/b/g/n準拠) 2×2 & Bluetooth® |
Webカメラ | 500万画素カメラ、IRカメラ、人感検知機能、マイク |
電源 | 65W ACアダプター (3ピン) USB Type-C |
外形寸法 | 約 317x228x15.95mm(最薄部) |
駆動時間 | 70 Whr 動画再生時 約 14.3 時間・アイドル時 約 17.2 時間 |
重量 | 1.38kg |
価格 | 18.98万円~ |
AMD版
OS | Windows 11 Home |
CPU | AMD Ryzen™ AI 7 350 |
メモリ | 24~32 GB LPDDR5X-7500MT/s (オンボード) |
ディスプレイ | 14インチ 2.8K OLED(有機ELディスプレイ) (2880 x 1800) 光沢あり, マルチタッチパネル, HDR1000 True Black, 100%DCI-P3, 1100 nit (HDRピーク)/500 nit (SDR標準), 120Hz, ガラス |
SSD | 512 GB ~1TB SSD M.2 2242 PCIe-NVMe Gen4 TLC |
無線LAN | Wi-Fi 7対応 (IEEE 802.11be/ax/ac/a/b/g/n準拠) 2×2 160MHz & Bluetooth® |
Webカメラ | 500万画素カメラ、IRカメラ(プライバシーシャッター付)、マイク |
電源 | 65W ウォールマウント スリム ACアダプター (2ピン) USB Type-C |
外形寸法 | 約 317x228x15.45mm(最薄部) |
駆動時間 | 70 Whr 動画再生時 約 13.9 時間・アイドル時 約 19.4 時間 |
重量 | 1.4kg |
価格 | 17.88万円~ |
ひとまず、手持ちのパソコンにAI PCがないので(汗)
このYoga770を使って、ローカルLLMで生成AIを動かすとどの程度の動作スピードになるかを検証します。
そのあとPCレビューなどでAI PCを使える環境になったときに、生成AI性能がどれだけ快適になるかを検証し追記していきます。
ローカルLLMを動かすためのツール「Ollama」をインストール
まず、ローカルLLMを動かすためのツール(Ollama、オラマと読むらしい)をダウンロードしてインストールします。
上記のページからダウンロードできます。
ローカルLLMやOllamaとは何ぞや?ですが、ChatGPTさんに聞いてみると以下の通りです(^^;
ローカルLLMとは
ローカルLLM(ローカル大規模言語モデル)とは、インターネットを介さず、自分のパソコンやサーバー上で直接動作する大規模言語モデル(LLM)のことです。ChatGPTのようなクラウド型LLMと違い、ユーザーのマシン上で完全に完結する点が最大の特徴です。
ローカルLLMのメリット
メリット | 説明 |
---|---|
🔐 プライバシー保護 | データが外部サーバーに送られないため、個人情報や機密情報を安全に扱えます。 |
⚡ 応答速度が速い | ネット通信が不要なので、処理が速くなる場合があります(特に小型モデル)。 |
🌐 オフライン動作 | インターネットが使えない環境でも利用可能。旅行先や機密環境でも使えます。 |
🛠️ カスタマイズ可能 | モデルのチューニングやデータ追加が自由にできます(LoRAなどによる軽量ファインチューニングなど)。 |
ローカルLLMのデメリット
デメリット | 説明 |
---|---|
💻 高いハードウェア要求 | 高性能なGPUや多くのRAMが必要になるモデルもあります(ただし軽量モデルも増加中)。 |
📉 性能はやや劣る場合がある | GPT-4などの最先端クラウドモデルに比べると、自然さや知識の広さで劣ることがあります。 |
⚙️ セットアップが必要 | 初期設定(モデルのダウンロード・実行環境の整備など)に少し手間がかかります。 |
人気のローカルLLMモデル
モデル名 | 特徴 |
---|---|
LLaMA 2 / 3 | Metaが開発。高性能で汎用性が高く、多くのローカル環境で使われている。 |
Mistral / Mixtral | 高速で軽量。チャンク分割や質問応答に強い。 |
Gemma | Googleが開発。研究・実験向け。日本語でも比較的動作可能。 |
Phi 2 | Microsoftの小型モデル。非常に軽く、低リソース環境向き。 |
ローカルLLMを動かす代表的なツール
ツール名 | 特徴 |
---|---|
Ollama | LLMを簡単に管理・実行できるCLIツール。初心者におすすめ。 |
LM Studio | GUIベースで直感的に操作できるローカルLLMツール。 |
Text Generation WebUI | Webインターフェースで複数モデルを切り替えられる高機能ツール。 |
GPT4All | モデルのダウンロードと会話が一体化した簡易環境。 |
Ollamaとは
「Ollama(オラマ)」は、ローカルで大規模言語モデル(LLM)を簡単に実行・管理するためのツール/フレームワークです。特に、軽量なモデル(例:LLaMA、Mistral、Gemmaなど)をパソコン上で動かすのに適しており、開発者やAIに興味があるユーザーにとって非常に便利な環境を提供します。
Ollamaの主な特徴:
-
ローカル実行
インターネットに接続せず、PC上でLLMを実行できます。これにより、プライバシー保護や高速な応答が可能になります。 -
シンプルなCLI(コマンドラインインターフェース)
ollama run llama3
のような簡単なコマンドで、モデルのダウンロードと実行ができます。 -
多様なモデルに対応
LLaMA系だけでなく、Mistral、Gemma、Mixtral、Phiなど、さまざまなオープンソースモデルをサポートしています。 -
カスタムモデルの作成が可能
モデルに独自の知識を加えて再学習(ファインチューニング)したり、プロンプトに応じてカスタマイズすることもできます。 -
API提供
REST API を通して、自分のアプリケーションやツールからモデルにアクセスできます。
超簡単にまとめると
- ローカルLLM環境を構築すると、ChatGPTのような機能を自分のマシン上で動かすことが可能
- ローカルLLMを実行するためのツールの1つが「Ollama」
ということです。
メリットのプライバシー保護というのは今後重要になってくるように思います。企業で開発したソースコードを学習されたくないというニーズは多いと考えられるためです。
今回、ツールとしてOllamaをインストール、ローカルLLMモデルとして「Gemma」をインストールして環境構築しました。
↑最近読んだ生成AI系の本がこの構成例だったのでそのまま真似てみました(汗)
まずOllamaをインストールするのですがインストールは簡単で、インストーラーをダウンロードして、指示に従いインストールすれば完了です。

ローカルLLMモデル「Gemma」をいれて起動する

Ollamaをインストールしたら、コマンドプロンプトを開いて、Gemma(ジェマと読むらしい、昔の聖剣伝説のジェマの騎士を思い出します(^^;)をローカルPCにいれます。
ollama pull gemma3:4b
ollama pull gemma3:12b
上記のコマンドでインストールできます。上記どちらでもよいです。
後ろの4bや12bの違いですが、モデルの大きさ(パラメータ数)と、それに伴う性能・リソース要求の差となります。
なんのこっちゃ?となると思うので、以下ChatGPTさんに聞きました(^^;
「Gemma 3」の 4B と 12B モデルの違い
「Gemma 3」の 4B と 12B モデルの違いは、主にモデルの大きさ(パラメータ数)と、それに伴う性能・リソース要求の差です。以下にわかりやすく比較します。
基本スペック比較
項目 | Gemma 3 4B | Gemma 3 12B |
---|---|---|
総パラメータ数 | 約4.3B(43億) | 約12.2B(122億) |
埋め込みパラメータ | 約675M | 約1B |
非埋め込みパラメータ | 約3.2B | 約10.8B |
コンテキスト長 | 最大128Kトークン | 同じ |
マルチモーダル対応 | あり(画像+テキスト) | あり |
トレーニングデータ量 | 約4兆トークン | 約12兆トークン |
推論用VRAM目安(int4量子化時) | 約4.6GB | 約6.6GB |
性能・用途の違い
比較項目 | 4Bモデル | 12Bモデル |
---|---|---|
💡 賢さ(精度) | 中程度(短い会話・文書生成・要約には十分) | 高い(複雑な文脈理解や自然な文章生成に優れる) |
🚀 処理速度 | 速い(軽量な分、応答が速く、ローカルでも快適) | やや遅いがその分出力の質が高い |
💻 GPU要件 | 比較的軽い(ノートPCや古いGPUでも可) | ある程度のVRAM(例:8GB以上)が必要 |
🧠 長文処理 | 可能(ただし精度は12Bにやや劣る) | より優れている(複雑な要約や議論にも強い) |
🛠️ 利用場面 | 個人利用、軽量アプリ、IoT、Edgeデバイスなど | 専門用途、研究、業務利用、会話AIの精度を求める場面に最適 |
どちらを選ぶべき?
-
Gemma 3 4B をおすすめする人:
-
軽量モデルが欲しい
-
ノートPCや限られたGPUメモリで動かしたい
-
会話や文章生成がメインで、そこまで高精度を求めない
-
-
Gemma 3 12B をおすすめする人:
-
精度の高い出力を求める(特に複雑な文章・質問応答)
-
高性能GPU(VRAM 8GB以上)がある
-
研究・業務・プロジェクトで使いたい
-
・・・ということで、ローカルPCの性能が高ければ精度の高い12b、そうでなければ4bがよいということになります。
さらに上の27Bというものもあります。
ちなみに、私のYoga770でメモリ16GBの環境だと、他のアプリをすべて落とせば、ギリギリ、
ollama run gemma3:12b
で、12Bが起動できました。でもメモリ使用率が90%ほどになり、Google ChromeやVSCodeなどほかのアプリを起動すると、メモリ不足で起動できませんでした。

なるほど・・・16GBでメモリは十分かと思いきや、こういった高負荷作業をするなら32GB欲しいというところですね。
ローカルLLMを利用してブロック崩しゲームを作ってもらう
ということで、
ollama run gemma3:12b
をコマンドプロンプトから入力してGemma 3の12bを起動したあと、
「pythonで動く、ブロック崩しゲームを作ってください」と入力し、pythonでブロック崩しゲームを作ってもらいました。
実際にローカルLLMでプログラム生成してもらっているのが上記の動画です。
この動画は一部のみですが、実際には生成完了するまで、Yoga770だと実に6分ほどの時間がかかりました。
まあ6分でもすごいですけどね・・

実際に出来上がったブロック崩しゲームがこちらで、なぜか自機が縦になっている?のですが、出来上がったコードそのままでブロック崩しゲームが動作しました。
いやーローカルの生成AI機能でも十分に、使えるだけの精度があるんですね・・これは驚きです。
今後は生成AIを使っていかないと、時代の流れに乗っていけなさそうな危機感はありますね・・
でもローカルで動かすならかなりの性能が欲しいですね。メモリは32GBは欲しいです。
2022年のノートパソコンだとローカル生成AIで6分かかったが最新AI PCだとどうなる?

ということで、ローカルに生成AI環境を作って、それなりに負荷のかかる生成AI機能を動かしてみたところ、ブロック崩しゲームを作るのに約6分かかりました。
これが最新AI PCだとどうなるか?今後メーカーよりパソコンをお借りしたタイミングで、検証してみようと思います。
OS | Windows 11 Home |
CPU | インテル® Core™ Ultra 7 255H, インテル® Core™ Ultra 9 285H |
メモリ | 32 GB LPDDR5X-8533MT/s (オンボード) |
ディスプレイ | 14.5インチ 3K OLED(有機ELディスプレイ) (3000 x 1872) 汚れ防止, マルチタッチパネル, HDR600 True Black, 100%DCI-P3, 500 nit, 120Hz, ガラス |
SSD | 1 TB SSD M.2 2242 PCIe-NVMe Gen4 TLC |
無線LAN | Wi-Fi 7対応 (IEEE 802.11be/ax/ac/a/b/g/n準拠) 2×2 & Bluetooth® |
Webカメラ | 500万画素&IRカメラ、デュアルマイクロホン |
電源 | 100W スリム ACアダプター (3ピン) USB Type-C |
外形寸法 | 約 325.3×228.1×16.9mm(最薄部) |
駆動時間 | 84 Whr |
重量 | 1.54kg |
価格 | 18.98万円~ |
こちらの機種は、最新のIntel Core Ultra 7 255Hを搭載しており性能も高そうで、近日このPCをお借りする機会があるので、この機種などで試してみて、結果は追記しようと思います。
関連記事
Follow @SubieSE

