本日は、私の愛機である「MousePro G4-I7U01BK-E」のポテンシャルを100%引き出し、AIによる「辞書サイトの作成・校正」に特化したワークステーションへと進化させる環境構築を行いました。
ゲームは一切せず、最新のNPUとGPUのパワーをすべて「言葉の処理」に注ぎ込む贅沢なセットアップです。
1. 今回の主役:機材のポテンシャル
私のPCには、最新の**Core Ultra 7 258V(Lunar Lake)**が搭載されています。
- 32GBの爆速メモリ(LPDDR5X-8533)
- 強化されたGPU(Intel Arc 140V)
- AI専用のNPU(Intel AI Boost) この3つを、テキスト処理の工程ごとに「分業」させるのが今回のテーマです。
2. 導入した「三種の神器」アプリ
AIをローカル環境(自分のPC内)で動かすため、以下のアプリをインストールしました。
- LM Studio: AIの「脳」です。最新の日本語モデルをGPUで爆速動作させます。
- AnythingLLM: 辞書の「知識データベース」です。過去に書いた原稿との矛盾をNPUを使って瞬時に検索します。
- VS Code + Continue: 実際の「執筆・開発環境」です。エディタ内でAIと対話しながら執筆を進めます。
3. 厳選したAIモデルたち(2026年4月最新版)
辞書作成という「正確さ」が求められる作業のため、以下のモデルを使い分けることにしました。
- メインの校正:
ELYZA-JP-8B(mmnga氏版 Q8_0) 日本語の美しさと校正能力はピカイチです。32GBメモリを活かして、劣化のない最高精度の「Q8_0」を選択しました。 - データの構造化:
Qwen3-8B-Instruct執筆した原稿をJSON形式などのデータに整形する「理系的な思考」に強いモデルです。 - 画像からの文字起こし:
Qwen3-Vision-4B古い資料やメモを写真に撮ってデータ化する際に、NPUやGPUを使って活躍してくれます。
4. ハードウェアを100%使い切る「分業設定」
ここが一番のこだわりポイントです。各演算ユニットをサボらせない設定を施しました。
- GPU (Arc 140V):
ELYZAやQwen3による重い校正や執筆支援を一手に引き受けます。 - NPU (AI Boost): 文書の検索(Embedding)や、裏方でのリアルタイム校正を、電力を抑えつつ静かに実行させます。
- 32GB メモリ: AIをメモリに常駐させ、思考の待ち時間をゼロにしました。
- 物理冷却: 高負荷な処理が続くため、
COOLER MASTER ERGOSTAND 4を使い、物理的にも100%のパフォーマンスを維持します。
5. これからの展望
これで、ネットがなくても、機密性の高い辞書データを安全に、かつ驚異的なスピードで処理できる「ローカルAI編集室」が完成しました。
「Llama 3.3」や「Qwen3」といった最新モデルが、私のPCの中で専用の編集者として働いてくれる感覚は、まさに次世代の執筆体験です。これからこの環境を使い倒して、最高の辞書サイトを作り上げていこうと思います!


コメント