DXを推進するAIポータルメディア「AIsmiley」| AI製品・サービスの比較・検索サイト
03-6452-4750 10:00〜18:00 年末年始除く

LM Studioの使い方と日本語化!商用利用や推奨スペックも解説

最終更新日:2026/03/06

LM Studioの使い方と日本語化!

最近注目を集めている「LM Studio」は、あなたのパソコンでAIモデルを動かせる画期的なツールです。

インターネットに接続せずにAIと対話できるため、セキュリティを重視する方や、自社の機密情報を扱いながらAIを活用したい方に最適です。

この記事では、LM Studioの基本的な使い方から高度な活用法まで、以下のポイントを解説します。

  • 導入方法と必要なPC環境
  • モデルの選び方とダウンロード手順
  • 業務効率化のための連携テクニック
  • セキュリティ面でのメリット

特に、IT知識が豊富でない方でも、手順に沿って操作するだけで、ChatGPTのようなAIをローカル環境で使いこなせるようになります。

プライバシーを守りながらAIの恩恵を受けたい方は、ぜひ最後までお読みください。

LM Studioとは?ローカル環境でLLMを動かす特徴

LM Studioは、インターネット接続なしでもPCのローカル環境でLLM(大規模言語モデル)を動かせる画期的なツールです。

クラウドサービスに依存せず、自分のコンピューター上でAIモデルを実行できるため、近年急速に注目を集めています。

その主な特徴は以下の3点です。

  • プライバシー保護:データが外部に送信されないため、機密情報や個人情報を安全に扱えます
  • 使いやすいインターフェース:直感的なGUI操作で、プログラミング知識がなくても簡単に利用可能
  • 多機能性:チャット機能だけでなく、RAG(検索拡張生成)やAPIサーバー機能も標準搭載

特に企業ユーザーにとって朗報なのが、最近の利用規約変更により商用利用も含めて無料で利用できるようになったことです。

Ollama、text-generation-webui、LocalAIなど他のローカルLLMツールと比較しても、初心者から開発者まで幅広いユーザーに対応した、バランスの取れた機能セットを提供しています。

インターネット接続なしでデータを保護する安全性

LM Studioの最大の特長は、完全にローカル環境で動作する点にあります。

あなたが入力したデータやプロンプトは一切外部サーバーに送信されないため、機密性の高い情報を安心して扱うことができます。

これは企業の機密文書や個人のプライベートな情報を処理する際に特に重要な利点です。

初回のモデルダウンロード時やアプリケーションのアップデート確認時を除けば、インターネット接続なしでも完全に動作します。

以下のようなメリットがあります。

  • 社外秘情報を含む文書の分析や要約が社内で完結
  • 個人情報を含むデータの処理が外部に漏れる心配なし
  • ネットワーク環境のない場所でも継続して利用可能

クラウドベースのAIサービスでは、入力データが必ず外部サーバーに送信され処理されるため、情報漏洩のリスクが常に存在します。

一方、LM Studioではすべての処理があなたのPC内で完結するため、データセキュリティとプライバシー保護の観点で圧倒的に優位性があります。

特に、医療情報や法律文書など、厳格な守秘義務が求められる分野での活用に最適です。

最新の利用規約における商用利用の扱い

この変更により、以下のようなメリットが生まれました。

  • コストを気にせずに業務利用が可能になった
  • チーム内での検証や導入ハードルが下がった
  • スタートアップから大企業まで幅広く活用できるようになった

ただし、より高度な機能が必要な場合は有料プランの検討も必要です。

具体的には、

  1. シングルサインオン(SSO)による認証が必要な場合
  2. 組織全体での管理者機能を利用したい場合
  3. エンタープライズレベルのサポートが必要な場合

これらの機能が必要であれば、Teams プランや Enterprise プランへのアップグレードを検討するとよいでしょう。

無料版でも十分な機能を備えていますが、組織の規模や要件に応じて最適なプランを選択することをお勧めします。

参考:LM Studio|LM Studio is free for use at work

他のローカルLLM実行ツールとの機能比較

LM Studioは、OllamaやGPT4Allといった他のローカルLLM実行ツールと比較して、直感的なGUIを中心に設計されている点が最大の特徴です。

コマンドラインの知識がなくても、マウス操作だけでモデルの検索からダウンロード、起動までをすべて完結できるため、技術的なバックグラウンドを持たないユーザーでも簡単に利用できます。

特に優れている点として以下が挙げられます。

  • OpenAI互換APIを標準搭載しており、既存のOpenAI向けアプリケーションとの連携が容易
  • 数千種類のモデルをGUI上から直接検索・ダウンロードできる統合されたインターフェース
  • モデルのパラメータ調整が視覚的に行える設定画面

さらに、RAG(Retrieval Augmented Generation)機能によるドキュメント検索や、一部のモデルではマルチモーダル対応も実現しています。

Ollamaがコマンドライン操作に強みを持ち、GPT4Allが軽量さを特徴とする中、LM Studioは使いやすさと機能の豊富さでバランスの取れた選択肢となっているのです。

ツール名 GUI操作 API互換性 RAG / マルチモーダル 特徴・おすすめユーザー
LM Studio

(完全対応)

(OpenAI互換)

(標準対応)

バランス型

検索から起動までGUIで完結し、機能も豊富。初心者から開発者まで幅広く推奨。

Ollama

(基本CLI)

(独自仕様)

軽量・高速

コマンドライン操作に抵抗がない人や、動作の軽快さを重視する人向け。

GPT4All
(操作性良)

(限定的)

△ / × GUI重視

CPUでの動作に強く、チャット利用がメインの人向け。機能拡張性はやや低め。

LocalAI ×
(なし)

(OpenAI互換)
◎ / △ 開発者向け

設定ファイルで細かく制御したいエンジニア向け。GUIがないため導入難易度は高め。

LM Studioの導入手順と推奨されるPCスペック

LM Studioを導入するには、まず適切なPCスペックを確認することが重要です。

快適に動作させるためには、最低でも16GBのRAMと、NVIDIA GPUを搭載したマシンが推奨されます。

特に、7B~13Bパラメータのモデルを動かす場合は、RTX 3060以上のGPUがあると安定して動作します。

導入手順は非常にシンプルで、以下のステップで完了します。

  • 公式サイト(lmstudio.ai)からお使いのOSに合ったインストーラーをダウンロード
  • ダウンロードしたインストーラーを実行し、画面の指示に従ってインストール
  • 初回起動時に使用言語として「日本語」を選択

インストール後は、使用するモデルのサイズに応じて、PCのリソースを確認しておくことをお勧めします。

例えば、30Bを超える大型モデルを使用する場合は、32GB以上のRAMと高性能なGPU(RTX 4070以上)が必要になります。

初期設定では英語インターフェースですが、設定画面から日本語に変更できます。

これで基本的な導入は完了し、次はモデルのダウンロードに進むことができます。

項目 推奨スペックの目安
GPU (VRAM) >NVIDIA製 8GB以上(快適な動作に推奨)
メモリ (RAM) 16GB以上(GPUがない場合は特に重要)
CPU 最新のApple Silicon (M1/M2/M3) または 高性能Intel/AMD CPU

快適な動作に必要なハードウェア要件の目安

LM Studioを快適に動作させるには、ハードウェア、特にGPUのスペックが重要な要素となります。

最も理想的なのはNVIDIA製GPUで、VRAM容量が8GB以上あると多くのモデルをスムーズに動かせます。

RTX 3060以上のグラフィックカードがあれば、ほとんどの一般的なモデルを問題なく実行できるでしょう。

GPUを搭載していないPCでも動作は可能ですが、応答速度が大幅に低下することを覚悟する必要があります。

その場合は以下の対策が有効です。

  • 量子化(GGUF Q4_K_M など)されたモデルを選択する
  • システムメモリ(RAM)を16GB以上確保する
  • 軽量なモデルを選択する

モデルのサイズによって必要なリソースは大きく異なります。

具体的な目安は以下の通りです。

  • 7Bパラメータモデル:一般的なノートPCでも動作可能
  • 13Bパラメータモデル:中程度のスペックが必要
  • 30B以上のモデル:高性能なGPUとメモリが必須

ストレージに関しては、モデルファイル自体が数GBから数十GBになるため、少なくとも100GB程度の空き容量があると安心です。

SSDの使用も応答速度向上に貢献するため、可能であればSSDへのインストールをおすすめします。

公式サイトからインストーラーを入手する手順

LM Studioをインストールするには、まず公式サイト「lmstudio.ai」にアクセスしましょう。

トップページに表示されている大きなダウンロードボタンをクリックすると、お使いのOSに合わせたインストーラーが自動的に選択されます。

もし手動で選びたい場合は、ページ下部にあるWindows、macOS、Linux向けのダウンロードリンクから適切なものを選択できます。

ダウンロードが完了したら、次の手順でインストールを進めます。

  1. ダウンロードしたインストーラーファイルをダブルクリック
  2. 表示されるセキュリティ警告があれば「実行」を選択
  3. インストールウィザードの指示に従い「次へ」をクリック
  4. インストール先フォルダを確認または変更
  5. インストール完了後、デスクトップにショートカットが作成されます

初回起動時には、セットアップウィザードが表示され、使用レベルの選択を求められます。「User(一般ユーザー)」は基本機能のみ、「Power User(上級者)」は高度な設定にアクセスできるようになります。

初心者の方は「User」を選択し、後から設定画面でいつでも変更可能です。これでLM Studioの準備が整いました。

アプリケーションのUIを日本語に変更する設定

LM Studioのインターフェースは標準で英語表示ですが、日本語に切り替えることで操作性が格段に向上します。日本語化の手順はとても簡単です。

アプリケーション起動後、画面右上に表示されている歯車アイコン(Settings)をクリックしてください。設定メニューが開きますので、左側のメニューから「Appearance」(外観)を選択します。右側に表示される設定項目の中から「Language」(言語)の項目を探し、プルダウンメニューをクリックすると言語一覧が表示されます。

この中から「日本語 (Beta)」を選択してください。選択後、即座にインターフェース全体が日本語表示に切り替わります。メニュー項目やボタン、設定画面などすべての要素が日本語化されるため、直感的な操作が可能になります。

なお、日本語表示はまだベータ版のため、一部翻訳が不完全な箇所や英語表記が残っている部分もあります。

今後のアップデートで改善されることが期待されています。設定はアプリケーションを再起動しても保持されますので、一度設定すれば次回以降も日本語インターフェースで利用できます。

モデルのダウンロード方法とチャットの基本操作

LM Studioでの操作は、モデルのダウンロードから対話までシンプルな3ステップで完結します。

まず初めに行うのは「モデルの入手」です。左側のメニューバーにある「Discover」タブをクリックすると、Hugging Faceに公開されている様々なモデルを検索できます。

モデルを選ぶ際のポイントは以下の3つです。

  • ファイルサイズ(小さいほど動作が軽快)
  • 評価スコア(高いほど性能が良い傾向)
  • 特化分野(コード生成、創作、多言語対応など)

モデルをダウンロードしたら、次は「Chat」タブに移動してモデルをロードします。画面上部のドロップダウンメニューからダウンロードしたモデルを選択し、「Load」ボタンを押すだけです。

ロード完了後は、通常のチャットアプリのように下部の入力欄に質問や指示を入力するだけで対話が始まります。

さらに高度な使い方として、「System Prompt」の設定があります。

これはAIの役割や応答スタイルを指定できる機能で、「あなたは経理の専門家です」「簡潔に回答してください」などと設定すると、より目的に合った回答が得られます。

LM Studioの最大の魅力は、これらすべての操作がGUIベースで直感的に行える点です。プログラミングの知識がなくても、数クリックでローカルAIとの対話環境が整います。

検索機能を使って好みのモデルを取得する流れ

LM Studioでモデルをダウンロードする際は、左側メニューの「Discover(虫眼鏡アイコン)」を活用すると効率的です。

このアイコンをクリックすると検索画面が開き、上部の検索バーから希望のモデルを簡単に探せます。

以下のようなキーワードで検索すると良いでしょう。

  • llama(Meta社のモデル)
  • gemma(Google社のモデル)
  • mistral(Mistral AI社のモデル)
  • qwen(Alibaba社のモデル)

検索結果には、Hugging Face上でホストされている互換性のあるモデルが一覧表示されます。

各モデルには、性能や特徴、ファイルサイズなどの情報が表示されるので、自分のニーズや環境に合ったものを選びましょう。

モデル名の横に表示される「Q4_K_M」などの表記は量子化レベルを示しており、数字が小さいほどファイルサイズは小さくなりますが、精度はやや落ちる傾向があります。

PCのスペックに合わせた適切なサイズ選びが重要です。

  • 8GB RAM環境:4Bや7Bクラスの軽量モデル
  • 16GB RAM環境:7B〜13Bクラスのモデル
  • 32GB以上:13B以上の大型モデル

気になるモデルが見つかったら「Download」ボタンをクリックするだけで、ダウンロードが開始されます。

初回は時間がかかる場合がありますが、一度ダウンロードしたモデルは再利用できるので効率的です。

モデルをロードしてAIと対話を開始する手順

モデルをダウンロードしたら、いよいよAIとの対話を始めましょう。

まず画面上部の「Select a model to load」ドロップダウンメニューから、先ほどダウンロードしたモデルを選択します。

選択すると自動的にモデルのロードが始まり、PCのスペックによって数秒から数分かかることがあります。

ロードが完了すると、画面下部のチャット入力欄が活性化されます。

ここに質問やプロンプトを入力し、Enterキーを押すか送信ボタンをクリックすれば、AIからの回答が表示されます。会話はスレッド形式で積み重なっていくので、文脈を理解した対話が可能です。

特筆すべき点として、Gemmaや一部の最新モデルでは画像入力にも対応しています。

  • 画像をドラッグ&ドロップ
  • クリップボードからの貼り付け
  • 画像ファイル選択ボタンからのアップロード

これらの方法で画像を添付し、「この画像について説明して」などと質問すれば、AIが視覚情報を分析して回答してくれます。

対話の履歴は自動的に保存されるため、後から続きの会話を再開することも可能です。

システムプロンプトでAIの役割を指定する方法

LM Studioでは、AIの振る舞いをカスタマイズするためにシステムプロンプトが非常に重要な役割を果たします。

チャット画面の右側パネルにある「System Prompt」欄を編集することで、AIに特定の役割や指示を与えることができます。

以下のような指示が効果的です。

  • 「あなたは日本語で応答する親切なアシスタントです」
  • 「あなたはPythonに精通したプログラマーとして回答してください」
  • 「あなたは小学生にもわかりやすく説明する教師です」

特に注意すべき点として、多くのモデルはデフォルトでは英語で応答する傾向があります。日本語での対話を希望する場合は、システムプロンプトに「日本語で回答してください」と明記しておくと安心です。

また、専門的な内容を扱う場合は、その分野の専門家としての役割を指定すると、より的確な回答が得られることが多いです。

システムプロンプトは会話の最初に一度設定するだけで、その後の対話全体に影響するため、最初に適切に設定しておくことをおすすめします。

業務効率化に役立つRAGやAPI連携の活用法

LM Studioの真価は、単なるチャットボットとしての利用にとどまらず、実務プロセスに組み込んで業務効率を飛躍的に高める拡張機能にあります。

特に注目すべきは以下の2つの強力な機能です。

1. RAG(検索拡張生成)機能

  • 社内マニュアルやPDF資料を読み込ませ、その内容に基づいた回答を生成
  • 膨大なドキュメントから必要な情報を瞬時に抽出し、要約や分析が可能
  • インターネット接続なしで機密情報を安全に処理できる環境を提供します。

2. ローカルAPI連携

  • OpenAI互換のAPIをローカル環境で立ち上げ、外部ツールと連携
  • VS CodeやPythonアプリケーションからLLMの能力を呼び出し可能
  • API利用料を気にせず、開発やテストを無制限に実施できる経済性

これらの機能を活用することで、データ分析、コード生成、文書作成などの業務を自動化し、人間はより創造的な作業に集中できるようになります。

また、すべての処理がローカル環境で完結するため、データセキュリティを確保しながらAIの恩恵を最大限に享受できるのです。

PDFやテキストファイルを読み込んで回答させる機能

LM Studioには、業務効率化に大きく貢献するRAG(検索拡張生成)機能が搭載されています。

この機能を使えば、社内マニュアルやプロジェクト資料などのPDFやテキストファイルを読み込ませ、それらの内容に基づいた精度の高い回答を得ることができます。

ファイルの読み込み方法は非常に簡単です。

  • チャット画面に対象ファイルを直接ドラッグ&ドロップする
  • 画面下部の添付ボタンからファイルを選択する
  • 複数のファイルを一度に読み込ませることも可能

この機能の最大の利点は、AIが元々学習していない独自情報に基づいた回答が得られることです。
具体的には、次のような業務で大きな効果を発揮します。

  • 最新の社内規定について質問する
  • 製品マニュアルの内容を要約させる
  • 複数の研究論文から関連情報を抽出する

特に注目すべきは、インターネット接続なしでこれらの処理が完結する点です。機密性の高い社内文書でも安心して活用できるため、セキュリティを重視する企業環境でも安心して利用できます。

さらに、読み込んだ文書の内容を引用しながら回答するため、情報の出所が明確になり信頼性も向上します。

ローカルサーバーとして外部アプリと接続する設定

LM Studioの強力な機能の一つに、OpenAI互換のAPIサーバーとして動作する能力があります。

この機能を活用すれば、既存のOpenAI APIを利用するアプリケーションやツールと簡単に連携できるようになります。

設定方法は非常にシンプルです。LM Studioの「Developer」タブを開き、トグルスイッチを「Running」にするだけで、ローカルサーバーが起動します。

デフォルトでは、サーバーは「http://localhost:1234/v1」のエンドポイントで利用可能になります。

サーバー設定では以下のオプションをカスタマイズできます。

  • ポート番号の変更
  • ローカルネットワーク内の他のデバイスからのアクセス許可

この機能の最大の利点は、ChatGPT APIを使用する既存のツールやプログラムの接続先をLM Studioのエンドポイントに変更するだけで、すぐにローカルLLMを利用できることです。

これにより、APIコストを削減しながら、データのプライバシーを確保できます。

Pythonのプログラムであれば、OpenAIのライブラリの設定で「base_url」パラメータを変更するだけで連携が完了します。

これにより、社内システムやカスタムアプリケーションをセキュアに拡張できるでしょう。

 VS Codeの拡張機能からモデルを呼び出す方法

VS Codeで開発作業をしながらLM Studioのモデルを活用したい方には、拡張機能を使った連携がおすすめです。

特に「Cline」や「Continue」などのAI支援拡張機能を使えば、エディタ上で直接コード生成や修正の支援を受けることができます。

設定方法は以下の通りです。

  1. VS Code拡張機能マーケットプレイスから対応拡張機能をインストール
  2. 拡張機能の設定画面でAPIプロバイダーを「OpenAI Compatible」または「LM Studio」に変更
  3. ベースURLに「http://localhost:1234/v1」などLM Studioのローカルアドレスを指定
  4. APIキーには任意の文字列(例:「dummy」)を入力

この連携により、オンラインのAPIサービスと比較して次のようなメリットがあります。

  1. API利用料が一切かからない
  2. コード情報がインターネットに送信されない
  3. インターネット接続なしでも利用可能
  4. 自分の好みのモデルを使い分けられる

特にコーディング特化モデルを使えば、関数の自動補完やバグ修正、コメント生成などの作業効率が大幅に向上します。

一度設定してしまえば、VS Code上で開発しながらシームレスにAIの支援を受けられるようになります。

まとめ

LM Studioは、ローカル環境でLLMを安全かつ柔軟に活用できる強力なツールです。インターネット接続なしで動作するため、機密データを守りながらAIの恩恵を受けられます。

導入にあたっては、適切なハードウェア要件を満たしたPCを用意し、公式サイトからインストーラーを入手するだけで簡単に始められます。日本語UIへの変更も可能で、初心者にも使いやすい環境が整っています。

モデル選択においては、以下の点がポイントとなります。

  • 用途に合わせたモデルサイズの選択
  • システムプロンプトによるAIの役割設定
  • RAG機能を活用したドキュメント解析

さらに、API連携やVS Code拡張機能との統合により、開発効率を大幅に向上させることができます。プライバシーを確保しながらAIの力を最大限に引き出せるLM Studioは、今後のAI活用において欠かせないツールとなるでしょう。

アイスマイリーでは生成AI のサービス比較と企業一覧(LLM・大規模言語モデル)無料配布しています。課題や目的に応じたサービスを比較検討できますので、ぜひこの機会にお問い合わせください。

AIsmiley編集部

株式会社アイスマイリーが運営するAIポータルメディア「AIsmiley」は、AIの専門家によるコンテンツ配信とプロダクト紹介を行うWebメディアです。AI資格を保有した編集部がDX推進の事例や人工知能ソリューションの活用方法、ニュース、トレンド情報を発信しています。

・Facebookでも発信しています @AIsmiley.inc
・Xもフォローください @AIsmiley_inc
・Youtubeのチャンネル登録もお願いいたします@aismiley
メルマガに登録する

DXトレンドマガジン メールマガジン登録

業務の課題解決に繋がる最新DX・情報をお届けいたします。
メールマガジンの配信をご希望の方は、下記フォームよりご登録ください。登録無料です。

お名前 - 姓・名

お名前を入力してください

メールアドレス

メールアドレスを入力してください

AI・人工知能記事カテゴリ一覧

今注目のカテゴリー

生成AI

ChatGPT連携サービス

チャットボット

AI-OCR

生成AI

ChatGPT連携サービス

チャットボット

AI-OCR

AI活用のご相談したい企業様はこちら

03-6452-4750

AI製品・ソリューションの掲載を
希望される企業様はこちら