大規模言語モデル(LLM)からシステムプロンプトを漏えいさせる攻撃手段「PLeak」について分析
登録日 :
2025.08.15
掲載サイト :
トレンドマイクロ セキュリティブログ
はじめに 人口知能(AI)への攻撃をテーマにしたシリーズ第2回目にあたる本稿では、大規模言語モデル(LLM:Large Language Model)のシステムプロンプトを漏えいさせるアルゴリズム「PLeak」について、技術的視点を交えて解説します。 「システムプロンプトの漏えい」は、LLMに事前設定された指示内容(システムプロンプト)が意図せず外部に露出する事象を指し、機密情報の流出に至る可能性...![]()
関連記事
はてブのコメント(最新5件)
loading...