※近日リリースされた、期待のOpenAIのローカルLLM「GPT-OSS」の検証追加を追加しました。
ここ1年くらい、生成AIがものすごくトレンドになっており、本業のSEの仕事でも頻繁に活用の検証をしていますし、パソコンレビューでもAI PCというカテゴリのPCが増えてきています。
このAI PCの性能をうまく検証できる、ローカル環境で動かせて、かつ重い生成AIの機能はないものか、と探しており、ローカルLLM(大規模言語モデル)を検証に使ってみてはどうか?と思い立ちました。
ローカルLLM(ローカル大規模言語モデル)とは、インターネットを介さず、自分のパソコンやサーバー上で直接動作する大規模言語モデル(LLM)のことです。
ChatGPTのようなクラウド型LLMと違い、ローカルのマシン上で完全に完結する点が最大の特徴で、クラウド上ではなく自分自身のPCで動かせるので、AI性能を測るのに最適なのでは?と思い検証した結果を当記事にまとめていきます。
検証にあたり、以下のAI PCを使っています。
NPU性能の高いAI PC
Intel版
| OS | Windows 11 Home |
| CPU | インテル® Core™ Ultra 5 プロセッサー 226V, インテル® Core™ Ultra 7 プロセッサー 258V |
| メモリ | 16 ~ 32GB |
| グラフィックス | インテル® Arc™ グラフィックス 130V, 140V |
| ディスプレイ | 14.0インチ・2.8K・OLED タッチディスプレイ (2880×1800 / 16:10 / 400nit / DCI-P3 100% / 48~120Hz / 最大10.7 億色) |
| SSD | 512 GB ~ 1TB SSD |
| 無線LAN | IEEE802.11be(Wi-Fi 7)、Bluetooth 5.4 |
| 電源 | 65W USB Type-C™ スリムACアダプター (動作電圧:100-240 VAC、動作周波数:50-60 Hz) |
| 外形寸法 | 約 313 × 218× 14.6-16.9 mm |
| 駆動時間 | 最大17時間30分 |
| 重量 | 1.39kg |
| その他 | HP リチャージャブル MPP2.0 アクティブペン |
| 価格 | 14万円台~ |
AMD版
| OS | Windows 11 Home |
| CPU | AMD Ryzen™ AI 5 340, AMD Ryzen™ AI 7 350 |
| メモリ | 16 ~ 32GB |
| ディスプレイ | 14.0インチ・2.8K・OLED タッチディスプレイ (2880×1800 / 16:10 / 400nit / DCI-P3 100% / 48~120Hz / 最大10.7 億色) |
| SSD | 512 GB ~ 1TB SSD |
| 無線LAN | IEEE802.11be(Wi-Fi 7)、Bluetooth 5.4 |
| 電源 | 65W USB Type-C™ スリムACアダプター (動作電圧:100-240 VAC、動作周波数:50-60 Hz) |
| 外形寸法 | 約 313 × 218× 14.6-16.9 mm |
| 駆動時間 | 最大14時間30分 |
| 重量 | 1.41kg |
| その他 | HP リチャージャブル MPP2.0 アクティブペン |
| 価格 | 13万円台~ |
外部GPUは搭載していないですが、AI性能指標値であるNPU性能の高い、AI PCです。
外部GPUなしでトップクラスの性能
| OS | Windows 11 Home |
| CPU | インテル® Core™ Ultra 7 255H, インテル® Core™ Ultra 9 285H |
| メモリ | 32 GB LPDDR5X-8533MT/s (オンボード) |
| ディスプレイ | 14.5インチ 3K OLED(有機ELディスプレイ) (3000 x 1872) 汚れ防止, マルチタッチパネル, HDR600 True Black, 100%DCI-P3, 500 nit, 120Hz, ガラス |
| SSD | 1 TB SSD M.2 2242 PCIe-NVMe Gen4 TLC |
| 無線LAN | Wi-Fi 7対応 (IEEE 802.11be/ax/ac/a/b/g/n準拠) 2×2 & Bluetooth® |
| Webカメラ | 500万画素&IRカメラ、デュアルマイクロホン |
| 電源 | 100W スリム ACアダプター (3ピン) USB Type-C |
| 外形寸法 | 約 325.3×228.1×16.9mm(最薄部) |
| 駆動時間 | 84 Whr |
| 重量 | 1.54kg |
| 価格 | 18.98万円~ |
外部GPUなしのノートパソコンとしてトップクラスのAI性能のあった機種です。
外部GPU有りの機種
| OS | Windows 11 Home |
| CPU | インテル® Core™ i7-14650HX プロセッサー |
| メモリ | 32 GB DDR5-5600MT/s (SODIMM)(2 x 16 GB) |
| GPU | NVIDIA® GeForce RTX™ 4060 Laptop GPU 8GB GDDR6 |
| ディスプレイ | 16インチ WQXGA液晶 (2560 x 1600) IPS, 光沢なし, マルチタッチ非対応, 100%sRGB, 350 nit, 165Hz, ブルーライト軽減パネル |
| SSD | 1 TB SSD M.2 2280 PCIe-NVMe Gen4 TLC |
| 無線LAN | Wi-Fi 6E対応 (IEEE 802.11ax/ac/a/b/g/n準拠) 2×2 & Bluetooth® |
| カメラ | 1080p FHDカメラ (電子式プライバシーシャッター付)、マイク |
| 電源 | 230W |
| 外形寸法 | 約 359.7×262.3×19.7~25.2mm |
| バッテリー | 4 セル リチウムイオンポリマーバッテリー 80 Wh 動画再生時 約 5.3 時間・アイドル時 約 8.8 時間 |
| 重量 | 2.43kg(実測値) |
| 価格 | 22万円台 |
ゲーミングノートパソコンですが、外部GPU有りで高いAI性能を発揮しました。
ローカル環境に、ローカルLLMを構築して、生成AI性能を検証した結論としては、
外部GPU性能>>>>>>CPU性能>>>NPU性能
という結論で、外部GPUがあるかないかによるところが非常に大きいという結果となりましたが、どのように検証したか、検証結果について以下にまとめます。
ローカルLLMを動かすためのツール「Ollama」をインストール
まず、ローカルLLMを動かすためのツール(Ollama、オラマと読むらしい)をダウンロードしてインストールします。
上記のページからダウンロードできます。
ローカルLLMやOllamaとは何ぞや?ですが、ChatGPTさんに聞いてみると以下の通りです(^^;
ローカルLLMとは
ローカルLLM(ローカル大規模言語モデル)とは、インターネットを介さず、自分のパソコンやサーバー上で直接動作する大規模言語モデル(LLM)のことです。ChatGPTのようなクラウド型LLMと違い、ユーザーのマシン上で完全に完結する点が最大の特徴です。
ローカルLLMのメリット
| メリット | 説明 |
|---|---|
| 🔐 プライバシー保護 | データが外部サーバーに送られないため、個人情報や機密情報を安全に扱えます。 |
| ⚡ 応答速度が速い | ネット通信が不要なので、処理が速くなる場合があります(特に小型モデル)。 |
| 🌐 オフライン動作 | インターネットが使えない環境でも利用可能。旅行先や機密環境でも使えます。 |
| 🛠️ カスタマイズ可能 | モデルのチューニングやデータ追加が自由にできます(LoRAなどによる軽量ファインチューニングなど)。 |
ローカルLLMのデメリット
| デメリット | 説明 |
|---|---|
| 💻 高いハードウェア要求 | 高性能なGPUや多くのRAMが必要になるモデルもあります(ただし軽量モデルも増加中)。 |
| 📉 性能はやや劣る場合がある | GPT-4などの最先端クラウドモデルに比べると、自然さや知識の広さで劣ることがあります。 |
| ⚙️ セットアップが必要 | 初期設定(モデルのダウンロード・実行環境の整備など)に少し手間がかかります。 |
人気のローカルLLMモデル
| モデル名 | 特徴 |
|---|---|
| LLaMA 2 / 3 | Metaが開発。高性能で汎用性が高く、多くのローカル環境で使われている。 |
| Mistral / Mixtral | 高速で軽量。チャンク分割や質問応答に強い。 |
| Gemma | Googleが開発。研究・実験向け。日本語でも比較的動作可能。 |
| Phi 2 | Microsoftの小型モデル。非常に軽く、低リソース環境向き。 |
ローカルLLMを動かす代表的なツール
| ツール名 | 特徴 |
|---|---|
| Ollama | LLMを簡単に管理・実行できるCLIツール。初心者におすすめ。 |
| LM Studio | GUIベースで直感的に操作できるローカルLLMツール。 |
| Text Generation WebUI | Webインターフェースで複数モデルを切り替えられる高機能ツール。 |
| GPT4All | モデルのダウンロードと会話が一体化した簡易環境。 |
Ollamaとは
「Ollama(オラマ)」は、ローカルで大規模言語モデル(LLM)を簡単に実行・管理するためのツール/フレームワークです。特に、軽量なモデル(例:LLaMA、Mistral、Gemmaなど)をパソコン上で動かすのに適しており、開発者やAIに興味があるユーザーにとって非常に便利な環境を提供します。
Ollamaの主な特徴
-
ローカル実行
インターネットに接続せず、PC上でLLMを実行できます。これにより、プライバシー保護や高速な応答が可能になります。 -
シンプルなCLI(コマンドラインインターフェース)
ollama run llama3のような簡単なコマンドで、モデルのダウンロードと実行ができます。 -
多様なモデルに対応
LLaMA系だけでなく、Mistral、Gemma、Mixtral、Phiなど、さまざまなオープンソースモデルをサポートしています。 -
カスタムモデルの作成が可能
モデルに独自の知識を加えて再学習(ファインチューニング)したり、プロンプトに応じてカスタマイズすることもできます。 -
API提供
REST API を通して、自分のアプリケーションやツールからモデルにアクセスできます。
超簡単にまとめると
- ローカルLLM環境を構築すると、ChatGPTのような機能を自分のマシン上で動かすことが可能
- ローカルLLMを実行するためのツールの1つが「Ollama」
ということです。
メリットのプライバシー保護というのは今後重要になってくるように思います。企業で開発したソースコードを学習されたくないというニーズは多いと考えられるためです。
今回、ツールとしてOllamaをインストール、ローカルLLMモデルとして「Gemma」をインストールして環境構築しました。
↑最近読んだ生成AI系の本がこの構成例だったのでそのまま真似てみました(汗)
まずOllamaをインストールするのですがインストールは簡単で、インストーラーをダウンロードして、指示に従いインストールすれば完了です。
ローカルLLM「Gemma」をいれて起動する
Ollamaをインストールしたら、コマンドプロンプトを開いて、Gemma(ジェマと読むらしい)をローカルPCにいれます。
ollama pull gemma3:4b
ollama pull gemma3:12b
上記のコマンドでインストールできます。上記どちらでもよいです。
後ろの4bや12bの違いですが、モデルの大きさ(パラメータ数)と、それに伴う性能・リソース要求の差となります。
なんのこっちゃ?となると思うので、以下ChatGPTさんに聞きました(^^;
「Gemma 3」の 4B と 12B モデルの違い
「Gemma 3」の 4B と 12B モデルの違いは、主にモデルの大きさ(パラメータ数)と、それに伴う性能・リソース要求の差です。以下にわかりやすく比較します。
基本スペック比較
| 項目 | Gemma 3 4B | Gemma 3 12B |
|---|---|---|
| 総パラメータ数 | 約4.3B(43億) | 約12.2B(122億) |
| 埋め込みパラメータ | 約675M | 約1B |
| 非埋め込みパラメータ | 約3.2B | 約10.8B |
| コンテキスト長 | 最大128Kトークン | 同じ |
| マルチモーダル対応 | あり(画像+テキスト) | あり |
| トレーニングデータ量 | 約4兆トークン | 約12兆トークン |
| 推論用VRAM目安(int4量子化時) | 約4.6GB | 約6.6GB |
性能・用途の違い
| 比較項目 | 4Bモデル | 12Bモデル |
|---|---|---|
| 💡 賢さ(精度) | 中程度(短い会話・文書生成・要約には十分) | 高い(複雑な文脈理解や自然な文章生成に優れる) |
| 🚀 処理速度 | 速い(軽量な分、応答が速く、ローカルでも快適) | やや遅いがその分出力の質が高い |
| 💻 GPU要件 | 比較的軽い(ノートPCや古いGPUでも可) | ある程度のVRAM(例:8GB以上)が必要 |
| 🧠 長文処理 | 可能(ただし精度は12Bにやや劣る) | より優れている(複雑な要約や議論にも強い) |
| 🛠️ 利用場面 | 個人利用、軽量アプリ、IoT、Edgeデバイスなど | 専門用途、研究、業務利用、会話AIの精度を求める場面に最適 |
どちらを選ぶべき?
-
Gemma 3 4B をおすすめする人:
-
軽量モデルが欲しい
-
ノートPCや限られたGPUメモリで動かしたい
-
会話や文章生成がメインで、そこまで高精度を求めない
-
-
Gemma 3 12B をおすすめする人:
-
精度の高い出力を求める(特に複雑な文章・質問応答)
-
高性能GPU(VRAM 8GB以上)がある
-
研究・業務・プロジェクトで使いたい
-
・・・ということで、ローカルPCの性能が高ければ精度の高い12b、そうでなければ4bがよいということになります。
さらに上の27Bというものもあります。
ちなみに、私のYoga770でメモリ16GBの環境だと、他のアプリをすべて落とせば、ギリギリ、
ollama run gemma3:12b
で、12Bが起動できました。でもメモリ使用率が90%ほどになり、Google ChromeやVSCodeなどほかのアプリを起動すると、メモリ不足で起動できませんでした。
なるほど・・・16GBでメモリは十分かと思いきや、こういった高負荷作業をするなら32GB欲しいというところですね。
ローカルLLMを利用してブロック崩しゲームを作ってもらう
ということで、
ollama run gemma3:12b
をコマンドプロンプトから入力してGemma 3の12bを起動したあと、
「pythonで動く、ブロック崩しゲームを作ってください」と入力し、pythonでブロック崩しゲームを作ってもらいました。
実際にローカルLLMでプログラム生成してもらっているのが上記の動画です。
この動画は一部のみですが、実際には生成完了するまで、Yoga770だと実に6分ほどの時間がかかりました。
まあ6分でもすごいですけどね・・
実際に出来上がったブロック崩しゲームがこちらで、なぜか自機が縦になっている?のですが、出来上がったコードそのままでブロック崩しゲームが動作しました。
いやーローカルの生成AI機能でも十分に、使えるだけの精度があるんですね・・これは驚きです。
今後は生成AIを使っていかないと、時代の流れに乗っていけなさそうな危機感はありますね・・
でもローカルで動かすならかなりの性能が欲しいですね。メモリは32GBは欲しいです。
2022年のノートパソコンだとローカル生成AIで6分かかったが最新AI PCだとどうなる?
ということで、ローカルに生成AI環境を作って、それなりに負荷のかかる生成AI機能を動かしてみたところ、ブロック崩しゲームを作るのに約6分かかりました。
これが最新AI PCだとどうなるか?今後メーカーよりパソコンをお借りしたタイミングで、検証してみようと思います。
Lenovo Yoga Pro 7i Gen10で検証
| OS | Windows 11 Home |
| CPU | インテル® Core™ Ultra 7 255H, インテル® Core™ Ultra 9 285H |
| メモリ | 32 GB LPDDR5X-8533MT/s (オンボード) |
| ディスプレイ | 14.5インチ 3K OLED(有機ELディスプレイ) (3000 x 1872) 汚れ防止, マルチタッチパネル, HDR600 True Black, 100%DCI-P3, 500 nit, 120Hz, ガラス |
| SSD | 1 TB SSD M.2 2242 PCIe-NVMe Gen4 TLC |
| 無線LAN | Wi-Fi 7対応 (IEEE 802.11be/ax/ac/a/b/g/n準拠) 2×2 & Bluetooth® |
| Webカメラ | 500万画素&IRカメラ、デュアルマイクロホン |
| 電源 | 100W スリム ACアダプター (3ピン) USB Type-C |
| 外形寸法 | 約 325.3×228.1×16.9mm(最薄部) |
| 駆動時間 | 84 Whr |
| 重量 | 1.54kg |
| 価格 | 18.98万円~ |
レノボのクリエイター向けのAIノートパソコン
Lenovo Yoga Pro 7i Gen10 Aura Edition(14型 Intel)
で検証しました。
マシンのスペック以下の通りです。
- CPU:インテル® Core™ Ultra 9 285H
- メモリ32GB
- SSD 1TB
- 14.5インチ 3K OLED(有機ELディスプレイ) (3000 x 1872) 汚れ防止, マルチタッチパネル, HDR600 True Black, 100%DCI-P3, 500 nit, 120Hz, ガラス
- 重さ1.54kg(実測値)
凄まじいまでの超高性能を持つノートパソコンです。
上が検証動画ですが、Yoga770よりは圧倒的に速く、3分52秒で完了しました。
ローカルLLM(Gemma3)でブロック崩しゲームを作るのにかかった時間
| CPU+メモリ | 掛かった時間 |
| Gemini 2.5 Pro(クラウド) | 35秒 |
| Intel Core i7-14650H + GeForcr RTX 4060 + メモリ32GB | 2分6秒 |
| Intel Core Ultra 9 285H + メモリ32GB | 3分52秒 |
| Intel Core Ultra 7 258V + メモリ32GB | 5分1秒 |
| AMD Ryzen AI 7 350 + メモリ32GB | 5分11秒 |
| Intel Core Ultra 5 225H + メモリ16GB | 5分57秒 |
| AMD Ryzen 7 6800U + メモリ16GB | 6分5秒 |
AI処理性能を上げるためのプロセッサーとして、NPUというプロセッサーがAI PCには搭載されています。
NPU(Neural Processing Unit)とは、AI処理専用のプロセッサーで、CPUやGPUとは別に、省電力で高効率なAIタスク処理が可能となるプロセッサーです。
NPUの性能を表す指標として、「TOPS」というのが用いられています。
TOPSとは、「Tera Operations per Second」の略称で、「システムが1秒間に何兆回の演算を実行できるか」を示します。
例えば、10TOPSならば、1秒間に10兆回の演算が実行できるコンピューティングパワーを表します。1秒間に10兆回の演算性能を持つCPUなら、「10TOPS」となります。
| CPU | TOPS |
| GeForce RTX 4060 | 242 TOPS |
| AMD Ryzen AI 9 HX 375 | 55 TOPS |
| AMD Ryzen AI 9 365 | 50 TOPS |
| AMD Ryzen AI 7 350 | 50 TOPS |
| AMD Ryzen AI 5 340 | 50 TOPS |
| Intel Core Ultra 7 258V | 47 TOPS |
| Intel Core Ultra 5 226V | 40 TOPS |
| Intel Core Ultra 9 285H | 13 TOPS |
| Intel Core Ultra 7 255H | 13 TOPS |
| Intel Core Ultra 5 225H | 13 TOPS |
| Intel Core Ultra 5 225U | 12 TOPS |
| Intel Core Ultra 7 155H | 11 TOPS |
TOPSの値は上記の通りで、外部GPUが圧倒的に高いのですが、2025年最新のCPUであれば、外部GPUなしでも十分に高い値となっています。
40TOPS以上であれば、マイクロソフトが定義している「Copilot+ PC」の基準を満たすので、40TOPS以上が高いAI性能を持つPCと言えます。
Intel Core Ultra 9 285Hはそこまで値が高いわけではないのですが、それでも十分に速い結果となりました。
40TOPS以上のHP OmniBook X Flip 14で検証
Intel版
| OS | Windows 11 Home |
| CPU | インテル® Core™ Ultra 5 プロセッサー 226V, インテル® Core™ Ultra 7 プロセッサー 258V |
| メモリ | 16 ~ 32GB |
| グラフィックス | インテル® Arc™ グラフィックス 130V, 140V |
| ディスプレイ | 14.0インチ・2.8K・OLED タッチディスプレイ (2880×1800 / 16:10 / 400nit / DCI-P3 100% / 48~120Hz / 最大10.7 億色) |
| SSD | 512 GB ~ 1TB SSD |
| 無線LAN | IEEE802.11be(Wi-Fi 7)、Bluetooth 5.4 |
| 電源 | 65W USB Type-C™ スリムACアダプター (動作電圧:100-240 VAC、動作周波数:50-60 Hz) |
| 外形寸法 | 約 313 × 218× 14.6-16.9 mm |
| 駆動時間 | 最大17時間30分 |
| 重量 | 1.39kg |
| その他 | HP リチャージャブル MPP2.0 アクティブペン |
| 価格 | 14万円台~ |
AMD版
| OS | Windows 11 Home |
| CPU | AMD Ryzen™ AI 5 340, AMD Ryzen™ AI 7 350 |
| メモリ | 16 ~ 32GB |
| ディスプレイ | 14.0インチ・2.8K・OLED タッチディスプレイ (2880×1800 / 16:10 / 400nit / DCI-P3 100% / 48~120Hz / 最大10.7 億色) |
| SSD | 512 GB ~ 1TB SSD |
| 無線LAN | IEEE802.11be(Wi-Fi 7)、Bluetooth 5.4 |
| 電源 | 65W USB Type-C™ スリムACアダプター (動作電圧:100-240 VAC、動作周波数:50-60 Hz) |
| 外形寸法 | 約 313 × 218× 14.6-16.9 mm |
| 駆動時間 | 最大14時間30分 |
| 重量 | 1.41kg |
| その他 | HP リチャージャブル MPP2.0 アクティブペン |
| 価格 | 13万円台~ |
Intel Core Ultra 7 258VおよびAMD Ryzen AI 7 350を搭載し、47TOPS以上の性能を持つHP OmniBook X Flip 14-fm/fkでも検証してみました。
| CPU+メモリ | 掛かった時間 |
| Gemini 2.5 Pro(クラウド) | 35秒 |
| Intel Core i7-14650H + GeForcr RTX 4060 + メモリ32GB | 2分6秒 |
| Intel Core Ultra 9 285H + メモリ32GB | 3分52秒 |
| Intel Core Ultra 7 258V + メモリ32GB | 5分1秒 |
| AMD Ryzen AI 7 350 + メモリ32GB | 5分11秒 |
| Intel Core Ultra 5 225H + メモリ16GB | 5分57秒 |
| AMD Ryzen 7 6800U + メモリ16GB | 6分5秒 |
結果は5分1秒で、TOPSの値が劣るIntel Core Ultra 9 285Hよりも遅い結果になりました・・・
生成AIを動かしているときに、NPUがどれだけ使われているかを確認したところ、ほとんど使われていませんでした(汗
そのため、NPU性能がせっかく優れていても、その性能を活かしてAI性能が良くなるのかは、結局のところアプリ依存ということになります。
外部GPUありの機種で検証(ゲーミングノートパソコン)
| OS | Windows 11 Home |
| CPU | インテル® Core™ i7-14650HX プロセッサー |
| メモリ | 32 GB DDR5-5600MT/s (SODIMM)(2 x 16 GB) |
| GPU | NVIDIA® GeForce RTX™ 4060 Laptop GPU 8GB GDDR6 |
| ディスプレイ | 16インチ WQXGA液晶 (2560 x 1600) IPS, 光沢なし, マルチタッチ非対応, 100%sRGB, 350 nit, 165Hz, ブルーライト軽減パネル |
| SSD | 1 TB SSD M.2 2280 PCIe-NVMe Gen4 TLC |
| 無線LAN | Wi-Fi 6E対応 (IEEE 802.11ax/ac/a/b/g/n準拠) 2×2 & Bluetooth® |
| カメラ | 1080p FHDカメラ (電子式プライバシーシャッター付)、マイク |
| 電源 | 230W |
| 外形寸法 | 約 359.7×262.3×19.7~25.2mm |
| バッテリー | 4 セル リチウムイオンポリマーバッテリー 80 Wh |
| 重量 | 2.43kg(実測値) |
| 価格 | 22万円台 |
Lenovo Legion 5i Gen9はゲーミングノートパソコンですが外部GPUを搭載しており、生成AIにも高い性能を発揮します。
ローカルLLM(Gemma3)でブロック崩しゲームを作るのにかかった時間
| CPU+メモリ | 掛かった時間 |
| Gemini 2.5 Pro(クラウド) | 35秒 |
| Intel Core i7-14650H + GeForcr RTX 4060 + メモリ32GB | 2分6秒 |
| Intel Core Ultra 9 285H + メモリ32GB | 3分52秒 |
| Intel Core Ultra 7 258V + メモリ32GB | 5分1秒 |
| AMD Ryzen AI 7 350 + メモリ32GB | 5分11秒 |
| Intel Core Ultra 5 225H + メモリ16GB | 5分57秒 |
| AMD Ryzen 7 6800U + メモリ16GB | 6分5秒 |
クラウドのGemini 2.5 Proよりは遅いですが、外部GPUなしよりは圧倒的に速いという結果になりました。
動画をとっていますが外部GPUなしと比べてもプロンプトの回答速度が速く、これならある程度使い物になりそうだなというくらいの速度でした。
タスクマネージャーを確認してみても、GPU使用率が上がっているので、ローカルLLMの動作には外部GPUが有効に活用されていることが分かります。
逆にNPUは、現時点ではローカルLLMを動かすのにほとんど活用されておらず、外部GPUの有無のほうが性能には重要であるようです。
LM Studio+VSCode+ClineでローカルLLMと連携し生成AIプログラミング検証
ローカルLLMを動かすLM Studioには、リクエストを受け付けるサーバーの役割もこなすことができます。
その機能を使って、コードエディタのVSCodeに、ClineというLLMと連携してプロンプトをVSCode上で実行できるプラグインを入れて、ローカルLLMのGemmaと連携して生成AIプログラミング検証をしてみました。
結果ですが上記動画の通りで・・・
とてもじゃないですがレスポンスが遅すぎて使い物にはならなそうでした(汗)
LM Studio単体ではそれなりに早く回答もらえるのですが、これは単純にLM StudioとClineとの連携速度がいまいちなだけかもしれません。
LLMと連携した生成AIプログラミングは、Cursorなど優れたコードエディタがあるのですが、基本は有料です。
ローカルLLMをうまく活用すれば無料で生成AIプログラミングができるなと思ったのですが、さすがにそこまでうまくはいかないですかね。
ただ可能性を感じさせてくれました。こちらも今後の進歩に期待でしょうかね。
OpenAIよりリリースされた期待のローカルLLM「GPT-OSS」を検証
ChatGPTで有名なOpenAIで、最近ローカルLLMのGPT-OSSがリリースされたので、ローカルLLMを動かすツール「LM Studio」に、GPT-OSS-20bの精度のモデルをダウンロードし、Pythonのブロック崩しプログラムを作成してもらいました。
検証に使ったパソコンは、NPU性能が47TOPSある、Intel Core Ultra 7 258V+メモリ32GB、外部GPUなしの普通のビジネスモバイルノートパソコン「HP EliteBook X G1i 14 AI PC」で検証しています。
ちなみに「LM Studio」+「GPT-OSS-20b」を動かすと、他のアプリを動かさなくても25GB程度使っていたので、32GBのパソコンでないと動作は厳しいと思われます。
ローカルLLM(GPT-OSS-20b)でブロック崩しゲームを作るのにかかった時間
| CPU+メモリ | 掛かった時間 |
| Gemini 2.5 Pro(クラウド) | 35秒 |
| Intel Core Ultra 7 258V + メモリ32GB | 2分11秒 |
という結果になり、Gemma3が4分36秒だったのでこちらの方が早い、という結果になりました。
作成できたプログラム結果
かなりまともな、ブロック崩しゲームができており、精度はGemma3よりも高そうです。
プロンプトでの回答結果検証
日本車メーカースバルについての回答結果を、ローカルLLMのGPT-OSS-20bと、無料のChatGPTで比較してみました。
GPT-OSS-20bでの回答結果
| 項目 | 内容 |
|——|——|
| **正式社名** | 株式会社スバル (SUBARU CORPORATION) |
| **本社所在地** | 静岡県沼津市 |
| **創業年** | 1953 年(旧富士重工業 1939 年設立) |
| **代表的なブランドロゴ** | 四つ葉のクローバー (4WD の「四葉」+幸運を象徴) |—
## 歴史の主な流れ
| 時期 | 主要出来事 |
|——|————|
| **1939–1952** | 富士重工業として軍需部品製造。第二次大戦後に民生車へ転換。 |
| **1953** | スバル社設立、初代乗用車「サンディエゴ」発売。 |
| **1960年代** | 4WD トラック・SUV 開発。 |
| **1970年** | 「ファーラ」で北米市場に進出。 |
| **1981** | スバル・エンジニアリング設立。水平対向(Boxer)エンジンを確立。 |
| **1995–2000年代** | アウトバック/フォレスター 等で国際的な人気を獲得。 |
| **2018〜現在** | 電動化・ハイブリッドラインナップ拡充、EyeSight® など先進安全技術を標準装備へ。—
## 技術面での特徴
1. **水平対向エンジン(Boxer)**
– 低重心設計で車体安定性が高い。
– エンジンノイズ抑制に優れ、乗り心地が快適。2. **全輪駆動 (AWD)**
– ほぼすべてのモデルに標準装備。悪天候・路面でのトラクションが抜群。3. **先進安全技術**
– **EyeSight®**:カメラベースの衝突回避支援(レーンキープ、ドライバー注意度監視など)。
– ほとんどの車種で高い安全評価を受賞。4. **環境戦略**
– 電気自動車(EV)・プラグインハイブリッド(PHEV)ラインアップ拡大。
– 「スバル・エコパワー」シリーズで燃費と排出ガスの改善を実現。—
## 主力モデル(代表例)
| モデル | 発売年 | 主要特徴 | 用途 |
|——–|——–|———-|——|
| **アウトバック** | 1995 | 高走行性能+多目的SUV。AWDと高座席位置が魅力。 | ファミリー・アウトドア |
| **フォレスター** | 1999 | コンパクトSUV。軽量ボディにAWDを組み合わせた燃費効率。 | 日常通勤・レジャー |
| **インプレッサ / インプレッサiV** | 1972 / 2006 | 軽自動車/軽乗用。低燃費と高い安全性能。 | 日常通勤・ファミリー |
| **レヴォーグ / リーフ** | 2011 | ハイブリッドカー。低走行コストで環境配慮。 | 都市部利用 |
| **BRZ / WRX STI** | BRZ: 2012 / WRX STI: 1994(改良) | スポーツカー/パフォーマンスカー。水平対向エンジンとAWDを融合。 | スポーツ走行・レース愛好家 |—
## ブランド哲学
| 観点 | 内容 |
|——|——|
| **信頼** | 長寿命で耐久性の高い設計。 |
| **安全第一** | EyeSight® をはじめとする先進安全技術を標準装備。 |
| **環境への配慮** | CO₂削減を目指した電動化・ハイブリッド戦略。 |
| **アウトドア精神** | 自然や山岳地帯での走行性能に重点。 |—
## 今後の展望
– **2025 年までに全車種を EV / PHEV へ移行**(スバル・EV マップの拡充)。
– **自動運転技術の研究開発**(EyeSight の進化版やレベル3/4 自動走行への対応)。
– **グローバル市場でのブランド強化**(北米・欧州での販売拡大と新型SUV/クロスオーバーの投入)。—
### まとめ
スバルは「四つ葉のクローバー」を象徴に、低重心エンジンと全輪駆動を組み合わせた独自技術で、信頼性・安全性・走行性能を両立した車を提供してきました。近年は電動化と先進安全技術の拡充に注力し、アウトドア志向のユーザー層からも高い支持を得ています。
ChatGPTの回答結果
スバル(SUBARU)は、日本の自動車メーカーで、
親会社は**SUBARU株式会社(旧・富士重工業)**です。特に**水平対向エンジン**と**シンメトリカルAWD**(四輪駆動)を特徴とし、走行安定性や悪路走破性に強みを持っています。—
## 1. 基本情報
* **本社所在地**:東京都渋谷区
* **創業**:1953年(富士重工業としては1953年設立)
* **主な生産拠点**:群馬県太田市(日本)、米国インディアナ州ラファイエット(米国SUBARU工場)
* **ブランドスローガン**:
「Confidence in Motion(自信と共に)」—
## 2. 主な特徴と強み
### (1) 水平対向エンジン(BOXERエンジン)
* ピストンが水平に向かい合う構造
* **低重心化**によるコーナリング安定性向上
* 振動が少なくスムーズな回転フィール
* 例:レヴォーグ、フォレスター、WRXなどに搭載### (2) シンメトリカルAWD
* 車体の中心線上にエンジン・トランスミッション・ドライブシャフトを配置
* 重量バランスに優れ、**雪道・雨天・悪路**で安定性が高い### (3) 安全技術「アイサイト(EyeSight)」
* ステレオカメラによる先進運転支援システム
* 主な機能:* 全車速追従型クルーズコントロール
* プリクラッシュブレーキ
* 車線逸脱警報
* 衝突回避支援の評価が高く、国内外で好評### (4) ラリーでの実績
* WRC(世界ラリー選手権)で1990年代に大きな成功
* インプレッサWRXが「走りのスバル」というイメージを定着—
## 3. 代表的な車種
* **レヴォーグ**:日本市場向けスポーツツアラー
* **フォレスター**:SUVの人気モデル
* **インプレッサ**:コンパクトセダン/ハッチバック
* **アウトバック**:クロスオーバーワゴン
* **WRX S4/STI**:高性能スポーツセダン—
## 4. 弱み・課題
* 車種ラインナップが比較的少ない(トヨタやホンダに比べると選択肢が限定的)
* 生産規模が小さく、大量生産によるコスト競争力で不利
* 一部市場では販売網が弱い(特に欧州の一部)—
## 5. 海外展開
* 米国市場で非常に人気が高く、販売台数の6割以上が北米
* 「アウトドア」「安全」「四輪駆動」というブランドイメージが浸透
* 米国では\*\*スバリスト(Subarist)\*\*と呼ばれる熱心なファン層が存在—
もし希望があれば、スバルの**トヨタやホンダとの比較表**も作って、強みと弱みを整理できます。
そちらも出しますか?
ChatGPT無料版よりも、GPT-OSS-20bのほうが、詳細な回答がもらえましたが、本社所在地が間違っているとか、一部内容がおかしいところがありました。
学習データの精度はもう一息、というところでしょうかね。
「GPT-OSS-20b」は期待のローカルLLMなので、今後も他のパソコンなどで色々と検証してみます。
まとめ:ローカルLLMのAI性能は外部GPU性能>>>>>>CPU性能>>>NPU性能
ローカルLLMの生成AI性能を検証した結論としては、
外部GPU性能>>>>>>CPU性能>>>NPU性能
という結論で、外部GPUがあるかないかによるところが非常に大きいです。
NPU性能は、現状ではローカルLLMを動作させるアプリ「Ollama」「LM Studio」などが、活かしきれていないようで、有効に使っていけるかはまだこれから、というところのようです。
関連記事
Follow @SubieSE


