生成AIをLM Studioを使い低スペックPCで動かしてみた! 使えるモデルと実用性

ローカルAIは低スペックPCでも動く? PC
ローカルAIは低スペックPCでも動く?

ローカルAIは低スペックPCでも動く? LM Studioを試してみた

ローカルPCで生成AI(大規模言語モデル:LLM)を動かすことに興味があった。インターネットに情報を送信しない状態で使えるAIを探していたのが、そもそものきっかけだ。自分の仕事には、センシティブな情報を含むケースもあり、クラウド型AIではセキュリティ上、扱えない作業があるため。

手元のPCスペック:2020年購入のノーGPUマシン

使用しているPCは、2020年に購入したデスクトップ。スペックは以下の通り:

  • CPU:Intel Core i7-9700
  • メモリ:16GB
  • GPU:なし(オンボード)
  • OS:Windows10pro

いわゆる「低スペック」とまでは言えないが、GPUが無い点がLLMの運用には不利である。こんな環境でローカルAIはまともに動作するのだろうか?

LM Studioをインストール

ローカルでAIを使うには、いくつかの選択肢がある。中でもLM Studioは、GUIベースで導入も簡単そうであり、チャット画面が最初から備わっていたので初心者向けと思われた。これを試すことにした。

インストール手順(概要)

  1. 公式サイト(https://lmstudio.ai)からWindows版をダウンロード
  2. 起動後、使用するモデル(LLM)を選んでダウンロード
  3. チャット画面で実行可能に

インストールまではスムーズだったが、モデル選びが一番迷うポイントだった。

試したモデルと使用感

まず選んだのは、ELYZA-japanese-Llama-2-7b-instructという日本語対応モデル。数回使ってみたが、応答の品質がいまひとつ。日本語の出力精度に難があり、あまり実用的とは言えなかった。

次に、より新しいllama-3-elyza-jp-8bを導入。こちらは性能が良く、かなり自然な日本語で応答してくれた。

レスポンスと処理速度

このモデル(llama-3-elyza-jp-8b)をGPUなしで使った場合の動作は以下の通り:

  • 応答が始まるまで 数分
  • そこからゆっくりと文章が出力される
  • ChatGPTのような即応性はないが他の作業をして待てばよく、実用性がないほどの待ち時間ではない

リソース使用状況と動作音

  • メモリ使用量:約13GB(16GB中)
  • CPU使用率:最大で70%超え
  • ファン音:普段聞かないレベルの轟音(高負荷のためCPUファンが冷却のために高回転になる)

この挙動からもわかるように、GPUなしでも一応動くが、CPUとメモリにかなりの負荷がかかる。

結論:ぎりぎり動くが、使い方に工夫が必要

LM Studioは、GPUなしの中スペックPCでも動作可能だった。モデル選びさえ間違えなければ、雑談や文章生成には十分使える。

ただし、

  • 軽量モデルを使う工夫も必要
  • 他にメモリを大量に使うソフトを立ち上げない
  • 長時間使用する場合には、CPUの温度に注意

といった点を意識する必要がある。

今後試してみたいこと

  • より軽量な量子化モデル(Q4_KやQ5_Kなど)の比較
  • Tinyモデル(TinyLLaMAなど)でのレスポンス速度の検証
  • 外部アプリとのAPI連携(LM Studioはローカルサーバーとしても使える)

ローカルでAIを使う選択肢は、今後ますます重要になるはずだ。LLMの稼働には高いCPU性能とGPUが必須と思いがちだが、古いPCでもできることはある
興味がある人は、簡単なので、ぜひ一度試してみてほしい。

コメント

タイトルとURLをコピーしました