
CQ出版は2025年10月24日、技術情報誌「Interface」12月号を発売した。特集は「自分専用!LLMの作り方」で、RAG(Retrieval-Augmented Generation)、ファインチューニング、プロンプト設計、AIエージェントなど、LLM(大規模言語モデル)のカスタマイズ技術を扱う。別冊付録として「高コスパ・ボードですぐ作れる! FPGAデザイン集」も付属する。
特集では、ChatGPTやGeminiといった現在のLLMを実務で活用する際の課題に焦点を当てている。期待した結果が生成されない、事実と異なる回答をする、といった構造的な欠点を解決するカスタマイズ技術を、Pythonコードと具体例で解説する。
4部構成でLLMのカスタマイズを網羅
第1部「自分専用に育てるためのLLMカスタマイズ」では、LLMを賢く、速く、かつ軽量にする技術をPythonで実装して解説する。ローカルLLMでのRAG、精度向上(RAG、QLoRA)、軽量化(QLoRA)、高速化(vLLM)、画像対応(VLM)といった項目を扱う。
第2部「LLMのポテンシャルを最大限に引き出す運用術」では、プロンプト設計によるLLMへの効果的な指示の出し方、LLM用APIの使い方、ハルシネーション(事実と異なる回答)を抑制するデータ運用のコツを紹介する。
第3部「LLMの運用もマシンにお任せ!AIエージェント」では、AIエージェントの概念から、データを読み込んでグラフを描画させるコード生成、AIエージェントだけでのアプリ製作まで扱う。
第4部「今どきのローカルLLMをラズパイで動かしてみる」では、Gemma、Qwen、Llama、Granite、Phi4-miniといった主要なLLMモデルについて、Raspberry Piでどこまで動作するかを実験している。
MCP(Model Context Protocol)の基礎を解説
特設記事「AI用通信ルールセット はじめてのMCP」では、AIごとに専用の通信ルールが必要だった従来の課題を解決する統一ルール、MCP(Model Context Protocol)を紹介する。特にAIエージェントの進化を支える基盤として注目されているこの技術について、基本事項から簡易な実例まで解説している。
別冊付録でFPGA設計事例を紹介
別冊付録「高コスパ・ボードですぐ作れる! FPGAデザイン集」では、FPGA(Field Programmable Gate Array)の設計事例を紹介する。FPGAは独自の回路を構成できるICで、マイコンに比べて柔軟にシステムを設計できる。低遅延な処理や多チャネルの通信など、CPUだけでは難しい処理も得意だ。
掲載される設計事例は、高速フーリエ変換(FFT)によるディジタル・フィルタ、独自コマンド制御のディスプレイ・コントローラ、USB Video Class対応のUSBカメラ製作、EtherCATスレーブ・デバイスなどだ。
次号の1月号(2025年11月25日発売予定)では、「画像/時系列データで始める 生成AIで異常検出」を特集する。

