はじめに 人口知能(AI)への攻撃をテーマにしたシリーズ第2回目にあたる本稿では、大規模言語モデル(LLM:Large Language Model)のシステムプロンプトを漏えいさせるアルゴリズム「PLeak」について、技術的視点を交えて解説します。 「システムプロンプトの漏えい」は、LLMに事前設定された指示内容(システムプロンプト)が意図せず外部に露出する事象を指し、機密情報の流出に至る可能性...