LumeGuard AI v1.6 マルチベースモデル対応で広がる選択肢
前回の記事では、v1.4で 精度100%(60/60) を達成した4つの技術的改善を解説しました。今回は、v1.6で対応した Gemma 4 ベースモデル と、Qwen3 / Gemma 4 の横並び評価から見えた PII 検知精度のさらなる引き上げ について説明します。
何が変わったのか
v1.6では、これまで唯一の本番モデルであった Qwen3-1.7B に加え、Gemma 4 E2B(Beta) をベースとしたバリアントを新たに提供できるようになりました。さらに、両モデルを横並びで評価する過程で見つかった2つの潜在課題を解消し、複数 PII を含む数百文字テキストの一括検知でも GPU 上で精度100%(20/20) を達成しています。
| 指標(マルチPIIベンチマーク・GPU) | v1.5(Qwen3のみ) | v1.6 Qwen3 | v1.6 Gemma 4 |
|---|---|---|---|
| 正解率 | 17/20 程度 | 20/20(100%) | 20/20(100%) |
| 平均レスポンス | 2.0 秒 | 1.27 秒 | 1.25 秒 |
| 最遅ケース | 11.5 秒(退化ループ) | 2.74 秒 | 1.98 秒 |
| Safe ケース TN | 7/10 | 10/10 | 10/10 |
この結果は、ベースモデルの多様化 と クロスモデル評価で見つかった2点の改善 の組み合わせによって達成されました。