LM Studio#gpt‑oss(GPT‑OSS)を導入しよう

今回の記事ではLM StudioからOpenAI が 2025年8月初旬に発表した「gpt‑oss(GPT‑OSS)」を導入します。

さ、楽しもう!

前書き

いつも私の技術ブログとYouTubeチャンネルをご覧いただき、心より感謝申し上げます。また、いまFullさん(full@桜 八重 (@fulhause) / X)と共に毎週水曜日の夜にお届けしている「高橋クリス」ラジオ番組を運営しています。

技術は独り占めせず、届けるもの

私たちは工場の生産技術や制御に関する技術情報を、ブログや動画などで無料公開しています。「知識は誰でもアクセスできるべき」という信念のもと、現場で役立つ具体的なノウハウやトラブル事例などを発信してきました。すべて無料で続けているのは、「知らなかったせいで困る人」を少しでも減らしたいからです。

また、もしあなたの現場で…

  • 「このPLCとデバイスの組み合わせ、ちゃんと動くのかな?」
  • 「EtherCAT通信でうまくいかない部分を検証してほしい」
  • 「新しいリモートI/Oを試したいけど社内に検証環境がない」

など、困っている構成や試してみたいアイデアがあれば、ぜひお知らせください。機器の貸出や構成の共有が可能であれば、検証し、記事や動画で発信します(ご希望に応じて匿名対応も可能です)。

支援のかたち

現在、私達の活動はほぼ無償で続けており、記事や動画の制作には、時間と検証環境の整備が必要です。この活動を継続的にコンテンツを提供するためには、皆様の温かいご支援が大変重要です。

メンバーシップ(ラジオの応援)

Fullさんとのラジオをより充実させるための支援プランです。

https://note.com/fulhause/membership/join

Amazonギフトリスト

コンテンツ制作に必要な機材・書籍をリストにしています。

https://www.amazon.co.jp/hz/wishlist/ls/H7W3RRD7C5QG?ref_=wl_share

Patreon(ブログ・動画活動への応援)

月額での小さなご支援が、記事の執筆・検証環境の充実につながります。

https://www.patreon.com/user?u=84249391

Paypal

小さな支援が大きな力になります。

https://paypal.me/soup01threes?country.x=JP&locale.x=ja_JP

知ってたら助かること、届けたいだけです

あなたの応援が、知識の共有をもっと自由で持続可能なものにしてくれます。これからもどうぞよろしくお願いします。

soup01threes*gmail.com

https://x.com/3threes2

技術はひとりじゃもったいない。

gpt‑oss(GPT‑OSS)?

「gpt‑oss(GPT‑OSS)」とは、OpenAI が 2025年8月初旬に発表した初の オープンウェイト(open‑weight)モデル で、誰もがダウンロード、ローカル実行、カスタマイズ、商用利用できるようにした重要なモデルシリーズです。

2種類のモデル

現在は2種類のモデルが用意されています。今回の記事で使用するのはgpt‑oss‑20bです。

  • gpt‑oss‑120b:約116〜1170億パラメータ(実質117B)
  • gpt‑oss‑20b:約20〜21Bパラメータ(約21B)

性能と対応ハードウェア

  • gpt‑oss‑120b は、単一の 80 GB GPU(例:NVIDIA A100など)で実行可能。OpenAI の「o4‑mini」と同等かそれ以上の性能を実現。
  • gpt‑oss‑20b は、16 GB RAM のエッジデバイスやPCでも動作可能。「o3‑mini」と同等かそれ以上の性能を発揮します。

gpt-oss playground

最初は下記のLinkでgpt-ossを体験できます。

https://gpt-oss.com/

Done!

ローカルAI?

「ローカルAI」はクラウドに送らず、手元のPCや社内サーバー(オンプレ)でモデルを動かすこと。Ollama/LM Studio/llama.cpp/vLLM みたいな実行環境を使って、Q&A・要約・翻訳・コード補助などを自分のマシン上で完結させます。

メリット

  • 機密性・プライバシー:設計図、ログ、ソースコード、顧客情報を外部に出さない。NDA下や工場のクローズドネットで安心。
  • 低レイテンシ:ネット回線使用しない。
  • 推論が速い(特に短いプロンプト反復)。
  • オフライン:現場の隔離ネット、出張中の不安定回線でも動く。
  • コスト予測:大量利用なら従量課金より安定。使い倒しても追加のトークン課金が基本ない。
  • カスタマイズ自由度:社内用RAG(社内文書検索連携)、LoRA微調整、ツール連携を自由に組める。
  • 再現性・統制:バージョン固定しやすく、審査や監査対応が明快。

デメリット

  • 品質ギャップ:最先端の超巨大モデル(クラウド専用)に比べると、推論力や知識の新しさで劣ることがある。
  • 初期投資と保守:GPU/VRAM、ドライバ、CUDA/cuDNN、モデル配布の社内運用などの面倒を引き受ける必要。
  • スケール難:同時多数ユーザーや長時間バッチは、GPU台数やキューイング設計が要る。
  • 電力・騒音・発熱:ワークステーションやサーバー運用の現実問題。
  • 機能面の自前実装:ブラウザ操作・ファイルツール・高度な安全対策など、クラウド製品が持つ“便利機能”は自分で整えることが多い。
  • 更新追従:重たいモデルの更新・配布・互換検証が地味にコスト。

ダウンロード

LM Studioのセットアップを下記のLinkからDownloadしてください。

https://lmstudio.ai/

インストール

先ほどDownloadしたLM StudioのセットアップFileを起動し、Next>で進みます。

LM Studioのセットアップ場所を指定し、Installで進みます。

しばらく待ちます…

Done!LM Studioを起動します。

スタート!

LM Studioが初期起動しました。”Let ‘s get started”をクリックし進みます。

Power Userを選び、Continueで進みます。

最初にLLMモデルをDownloadしますか?って聞かれますが、Skipしてください。

gpt-ossモデルをセットアップ

LM StudioにあるDiscoverボタンをクリックします。

gpt-oss-20bを選び>Downloadします(注意するのはこのモデルは12GBあります)。

少々お待ち下さい…

Done!次はLoad Modelボタンをクリックします。

最後はいままでChat-GPTのように質問を聞きましょう!

シェアする

  • このエントリーをはてなブックマークに追加

フォローする