AI PC アフィリエイト広告

生成AIプログラミングをローカルで動かすためにローカルLLMを検証【AI PCだとどうか?】

記事内に商品プロモーションを含む場合があります

ここ1年くらい、生成AIがものすごくトレンドになっており、本業のSEの仕事でも頻繁に活用の検証をしていますし、パソコンレビューでもAI PCというカテゴリのPCが増えてきています。

このAI PCの性能をうまく検証できる、ローカルで動かせて、かつ重い生成AIの機能はないものか、と探しており、ローカルLLM(大規模言語モデル)を検証に使ってみてはどうか?と思い立ちました。

ローカルLLM(ローカル大規模言語モデル)とは、インターネットを介さず、自分のパソコンやサーバー上で直接動作する大規模言語モデル(LLM)のことです。

ChatGPTのようなクラウド型LLMと違い、ローカルのマシン上で完全に完結する点が最大の特徴で、クラウド上ではなく自分自身のPCで動かせるので、AI性能を測るのに最適なのでは?と思い検証した結果を当記事にまとめていきます。

 

私のメインPCは、レノボYoga 770という、2022年に発売されたノートパソコンです。

CPUは、AMD Ryzen 7 6800Uという、2022年のCPUですが比較的性能の高いCPUを搭載しています。メモリは16GBです。

2025年現在、最新版がYoga 7i/7 2-in-1 Gen10という名前で発売されており、これはCPUのAI性能(NPU性能)が高いのでAI PCというカテゴリに分類される高性能PCです。

Lenovo Yoga 7i/7 2-in-1 Gen 10(14型Intel/AMD)

レノボ直販サイト(Intel版)

レノボ直販サイト(AMD版)

 Intel版

OS Windows 11 Home
CPU インテル® Core™ Ultra 5 プロセッサー 228V, インテル® Core™ Ultra 7 プロセッサー 258V
メモリ 32 GB LPDDR5X-8533MT/s 
ディスプレイ 14インチ 2.8K OLED(有機ELディスプレイ) (2880 x 1800) 光沢あり, マルチタッチパネル, HDR 600 True Black, 100%DCI-P3, 500 nit, 120Hz, ガラス
SSD 512 GB SSD M.2 2242 PCIe-NVMe Gen4 TLC
無線LAN Wi-Fi 7対応 (IEEE 802.11be/ax/ac/a/b/g/n準拠) 2×2 & Bluetooth®
Webカメラ 500万画素カメラ、IRカメラ、人感検知機能、マイク
電源 65W ACアダプター (3ピン) USB Type-C
外形寸法 約 317x228x15.95mm(最薄部)
駆動時間 70 Whr  動画再生時 約 14.3 時間・アイドル時 約 17.2 時間
重量 1.38kg
価格 18.98万円~

 AMD版

OS Windows 11 Home
CPU AMD Ryzen™ AI 7 350
メモリ 24~32 GB LPDDR5X-7500MT/s (オンボード)
ディスプレイ 14インチ 2.8K OLED(有機ELディスプレイ) (2880 x 1800) 光沢あり, マルチタッチパネル, HDR1000 True Black, 100%DCI-P3, 1100 nit (HDRピーク)/500 nit (SDR標準), 120Hz, ガラス
SSD 512 GB ~1TB SSD M.2 2242 PCIe-NVMe Gen4 TLC
無線LAN Wi-Fi 7対応 (IEEE 802.11be/ax/ac/a/b/g/n準拠) 2×2 160MHz & Bluetooth®
Webカメラ 500万画素カメラ、IRカメラ(プライバシーシャッター付)、マイク
電源 65W ウォールマウント スリム ACアダプター (2ピン) USB Type-C
外形寸法 約 317x228x15.45mm(最薄部)
駆動時間 70 Whr  動画再生時 約 13.9 時間・アイドル時 約 19.4 時間
重量 1.4kg
価格 17.88万円~

ひとまず、手持ちのパソコンにAI PCがないので(汗)

このYoga770を使って、ローカルLLMで生成AIを動かすとどの程度の動作スピードになるかを検証します。

そのあとPCレビューなどでAI PCを使える環境になったときに、生成AI性能がどれだけ快適になるかを検証し追記していきます。

ローカルLLMを動かすためのツール「Ollama」をインストール

まず、ローカルLLMを動かすためのツール(Ollama、オラマと読むらしい)をダウンロードしてインストールします。

https://ollama.com/download

上記のページからダウンロードできます。

ローカルLLMやOllamaとは何ぞや?ですが、ChatGPTさんに聞いてみると以下の通りです(^^;

 

ローカルLLMとは

ローカルLLM(ローカル大規模言語モデル)とは、インターネットを介さず、自分のパソコンやサーバー上で直接動作する大規模言語モデル(LLM)のことです。ChatGPTのようなクラウド型LLMと違い、ユーザーのマシン上で完全に完結する点が最大の特徴です。

ローカルLLMのメリット

メリット 説明
🔐 プライバシー保護 データが外部サーバーに送られないため、個人情報や機密情報を安全に扱えます。
⚡ 応答速度が速い ネット通信が不要なので、処理が速くなる場合があります(特に小型モデル)。
🌐 オフライン動作 インターネットが使えない環境でも利用可能。旅行先や機密環境でも使えます。
🛠️ カスタマイズ可能 モデルのチューニングやデータ追加が自由にできます(LoRAなどによる軽量ファインチューニングなど)。

ローカルLLMのデメリット

デメリット 説明
💻 高いハードウェア要求 高性能なGPUや多くのRAMが必要になるモデルもあります(ただし軽量モデルも増加中)。
📉 性能はやや劣る場合がある GPT-4などの最先端クラウドモデルに比べると、自然さや知識の広さで劣ることがあります。
⚙️ セットアップが必要 初期設定(モデルのダウンロード・実行環境の整備など)に少し手間がかかります。

人気のローカルLLMモデル

モデル名 特徴
LLaMA 2 / 3 Metaが開発。高性能で汎用性が高く、多くのローカル環境で使われている。
Mistral / Mixtral 高速で軽量。チャンク分割や質問応答に強い。
Gemma Googleが開発。研究・実験向け。日本語でも比較的動作可能。
Phi 2 Microsoftの小型モデル。非常に軽く、低リソース環境向き。

ローカルLLMを動かす代表的なツール

ツール名 特徴
Ollama LLMを簡単に管理・実行できるCLIツール。初心者におすすめ。
LM Studio GUIベースで直感的に操作できるローカルLLMツール。
Text Generation WebUI Webインターフェースで複数モデルを切り替えられる高機能ツール。
GPT4All モデルのダウンロードと会話が一体化した簡易環境。

Ollamaとは

「Ollama(オラマ)」は、ローカルで大規模言語モデル(LLM)を簡単に実行・管理するためのツール/フレームワークです。特に、軽量なモデル(例:LLaMA、Mistral、Gemmaなど)をパソコン上で動かすのに適しており、開発者やAIに興味があるユーザーにとって非常に便利な環境を提供します。

Ollamaの主な特徴:

  1. ローカル実行
    インターネットに接続せず、PC上でLLMを実行できます。これにより、プライバシー保護高速な応答が可能になります。

  2. シンプルなCLI(コマンドラインインターフェース)
    ollama run llama3 のような簡単なコマンドで、モデルのダウンロードと実行ができます。

  3. 多様なモデルに対応
    LLaMA系だけでなく、Mistral、Gemma、Mixtral、Phiなど、さまざまなオープンソースモデルをサポートしています。

  4. カスタムモデルの作成が可能
    モデルに独自の知識を加えて再学習(ファインチューニング)したり、プロンプトに応じてカスタマイズすることもできます。

  5. API提供
    REST API を通して、自分のアプリケーションやツールからモデルにアクセスできます。

超簡単にまとめると

  • ローカルLLM環境を構築すると、ChatGPTのような機能を自分のマシン上で動かすことが可能
  • ローカルLLMを実行するためのツールの1つが「Ollama」

ということです。

メリットのプライバシー保護というのは今後重要になってくるように思います。企業で開発したソースコードを学習されたくないというニーズは多いと考えられるためです。

今回、ツールとしてOllamaをインストール、ローカルLLMモデルとして「Gemma」をインストールして環境構築しました。

↑最近読んだ生成AI系の本がこの構成例だったのでそのまま真似てみました(汗)

まずOllamaをインストールするのですがインストールは簡単で、インストーラーをダウンロードして、指示に従いインストールすれば完了です。

 

ローカルLLMモデル「Gemma」をいれて起動する

Ollamaをインストールしたら、コマンドプロンプトを開いて、Gemma(ジェマと読むらしい、昔の聖剣伝説のジェマの騎士を思い出します(^^;)をローカルPCにいれます。

ollama pull gemma3:4b

ollama pull gemma3:12b

上記のコマンドでインストールできます。上記どちらでもよいです。

後ろの4bや12bの違いですが、モデルの大きさ(パラメータ数)と、それに伴う性能・リソース要求の差となります。

なんのこっちゃ?となると思うので、以下ChatGPTさんに聞きました(^^;

「Gemma 3」の 4B と 12B モデルの違い

「Gemma 3」の 4B12B モデルの違いは、主にモデルの大きさ(パラメータ数)と、それに伴う性能・リソース要求の差です。以下にわかりやすく比較します。

基本スペック比較

項目 Gemma 3 4B Gemma 3 12B
総パラメータ数 約4.3B(43億) 約12.2B(122億)
埋め込みパラメータ 約675M 約1B
非埋め込みパラメータ 約3.2B 約10.8B
コンテキスト長 最大128Kトークン 同じ
マルチモーダル対応 あり(画像+テキスト) あり
トレーニングデータ量 約4兆トークン 約12兆トークン
推論用VRAM目安(int4量子化時) 約4.6GB 約6.6GB

性能・用途の違い

比較項目 4Bモデル 12Bモデル
💡 賢さ(精度) 中程度(短い会話・文書生成・要約には十分) 高い(複雑な文脈理解や自然な文章生成に優れる)
🚀 処理速度 速い(軽量な分、応答が速く、ローカルでも快適) やや遅いがその分出力の質が高い
💻 GPU要件 比較的軽い(ノートPCや古いGPUでも可) ある程度のVRAM(例:8GB以上)が必要
🧠 長文処理 可能(ただし精度は12Bにやや劣る) より優れている(複雑な要約や議論にも強い)
🛠️ 利用場面 個人利用、軽量アプリ、IoT、Edgeデバイスなど 専門用途、研究、業務利用、会話AIの精度を求める場面に最適

どちらを選ぶべき?

  • Gemma 3 4B をおすすめする人:

    • 軽量モデルが欲しい

    • ノートPCや限られたGPUメモリで動かしたい

    • 会話や文章生成がメインで、そこまで高精度を求めない

  • Gemma 3 12B をおすすめする人:

    • 精度の高い出力を求める(特に複雑な文章・質問応答)

    • 高性能GPU(VRAM 8GB以上)がある

    • 研究・業務・プロジェクトで使いたい

・・・ということで、ローカルPCの性能が高ければ精度の高い12b、そうでなければ4bがよいということになります。

さらに上の27Bというものもあります。

 

ちなみに、私のYoga770でメモリ16GBの環境だと、他のアプリをすべて落とせば、ギリギリ、

ollama run gemma3:12b

で、12Bが起動できました。でもメモリ使用率が90%ほどになり、Google ChromeやVSCodeなどほかのアプリを起動すると、メモリ不足で起動できませんでした。

なるほど・・・16GBでメモリは十分かと思いきや、こういった高負荷作業をするなら32GB欲しいというところですね。

 

ローカルLLMを利用してブロック崩しゲームを作ってもらう

ということで、

ollama run gemma3:12b

をコマンドプロンプトから入力してGemma 3の12bを起動したあと、

「pythonで動く、ブロック崩しゲームを作ってください」と入力し、pythonでブロック崩しゲームを作ってもらいました。

実際にローカルLLMでプログラム生成してもらっているのが上記の動画です。

この動画は一部のみですが、実際には生成完了するまで、Yoga770だと実に6分ほどの時間がかかりました。

まあ6分でもすごいですけどね・・

実際に出来上がったブロック崩しゲームがこちらで、なぜか自機が縦になっている?のですが、出来上がったコードそのままでブロック崩しゲームが動作しました。

いやーローカルの生成AI機能でも十分に、使えるだけの精度があるんですね・・これは驚きです。

今後は生成AIを使っていかないと、時代の流れに乗っていけなさそうな危機感はありますね・・

でもローカルで動かすならかなりの性能が欲しいですね。メモリは32GBは欲しいです。

 

2022年のノートパソコンだとローカル生成AIで6分かかったが最新AI PCだとどうなる?

ということで、ローカルに生成AI環境を作って、それなりに負荷のかかる生成AI機能を動かしてみたところ、ブロック崩しゲームを作るのに約6分かかりました。

これが最新AI PCだとどうなるか?今後メーカーよりパソコンをお借りしたタイミングで、検証してみようと思います。

Lenovo Yoga Pro 7i Gen 10(14型 Intel)

レノボ直販サイト

OS Windows 11 Home
CPU インテル® Core™ Ultra 7 255H, インテル® Core™ Ultra 9 285H 
メモリ 32 GB LPDDR5X-8533MT/s (オンボード)
ディスプレイ 14.5インチ 3K OLED(有機ELディスプレイ) (3000 x 1872) 汚れ防止, マルチタッチパネル, HDR600 True Black, 100%DCI-P3, 500 nit, 120Hz, ガラス
SSD 1 TB SSD M.2 2242 PCIe-NVMe Gen4 TLC
無線LAN Wi-Fi 7対応 (IEEE 802.11be/ax/ac/a/b/g/n準拠) 2×2 & Bluetooth®
Webカメラ 500万画素&IRカメラ、デュアルマイクロホン
電源 100W スリム ACアダプター (3ピン) USB Type-C
外形寸法 約 325.3×228.1×16.9mm(最薄部)
駆動時間 84 Whr
重量 1.54kg
価格 18.98万円~

こちらの機種は、最新のIntel Core Ultra 7 255Hを搭載しており性能も高そうで、近日このPCをお借りする機会があるので、この機種などで試してみて、結果は追記しようと思います。

 

関連記事

当記事を気に入っていただけましたら、ツイッターのフォローを頂ければ、ツイッターで最新更新情報をお届けいたします。
マルチモードノートPC Lenovo Yoga 7i/7 2-in-1 Gen 10(14型)のIntel/AMD版比較レノボより、14インチの高級マルチモード2-in-1ノートPC Lenovo Yoga 7i/7 2-in-1 Gen 10(14...
クリエイター向けLenovo Yoga Pro 7i Gen 10(14型 Intel)が超安い!【GWセール中】レノボよりクリエイター向けのノートパソコン Lenovo Yoga Pro 7i Gen10(14型 Intel) が、発売...