Setting the Table 2025年12月26日

総務省 「AIのセキュリティ確保のための技術的対策に係るガイドライン」(案)に対する意見募集

2024年に経済産業省と総務省により「AI事業者ガイドライン」が発表され、2025年に更新がされています。

「AI事業者ガイドライン」は、AI開発、AI利活用、AIガバナンスを統合し、諸外国の動向を踏まえてAIの安全・安心な利活用のために定められています。機械、ロボット、クラウドシステム等幅広いAIシステムを対象としており、AIの開発・提供・利用を担う全ての当事者を想定読者としています。

この「AIのセキュリティ確保のための技術的対策に係るガイドライン」は「AI事業者ガイドライン」の「AIセーフティに関する評価関連ガイド(AISI)」で示された内容を踏まえた「セキュリティの確保」を取り扱っています。主にLLMを構成要素に含むAIシステムを対象としており、AI開発者や提供者を想定読者としています。

<対象とする脅威>

* プロンプトインジェクション攻撃
* DoS攻撃
* データポイズニング攻撃
* 細工をしたモデルの導入を通じた攻撃
* モデル抽出攻撃

<脅威への対策>

* 安全基準等の学習による不正な指示への耐性の向上
* システムプロンプトによる不正な指示への耐性の向上
* ガードレール等による入出力や外部参照データの連携
* オーケストレータやRAG等の権限管理

<所感>

AIはそのアウトプットに至るプロセスがブラックボックスとなっています。
生成AIは独自に学習を行い、またAI同士が連携して学習する能力を持っています。

AIから提供されるアウトプットの検証の手法は乏しく、
AIに対する攻撃がなされたことを、AIの利用者が気が付かない可能性もあります。

様々な点で、AIに対する攻撃の脅威は、ソフトウェアに対する攻撃と異なり、しかも大きなリスクを孕んでいますが、AIの開発もAIを利用したアプリケーションの開発も日々進んでおり、リスクそのものも認識することが難しいです。

完全な形での技術的なガイドラインが提供することが難しい分野にあって、AI開発者、AI提供者にとっては、こういったガイドラインに定める内容に取り組むことは最低限求められていくことになると思います。