はじめに 私たちは日常的に、事前学習済みの人工知能(AI)モデルをダウンロードして導入していますが、その内部構造に疑問を持つことはどれほどあるでしょうか。オープンソースAIの急速な普及は、産業界に変革的な力をもたらしましたが、それと同時に、見過ごされがちな重大な脆弱性(モデルへのバックドア)も生み出しています。これらのバックドアは従来のバグとは異なり、学習時や配布後に埋め込まれ、特定の入力によって...![]()
関連記事
アンダーグラウンド界の内部抗争:情報窃取型マルウェア「Lumma Stealer(Water Kurita)」の提供元を狙った暴露活動の余波
トレンドマイクロ セキュリティブログ
任天堂、「Nintendo Switch Online」継続購入の案内を装った詐欺メールに注意喚起
ITmedia NEWS セキュリティ
「個人情報入りUSBメモリを拾った」──医療機関に郵便が届く→情報漏えい発覚 しかし紛失の形跡なく
ITmedia NEWS セキュリティ
アスクルのランサム被害、対応にLINEヤフーなども協力 対策本部は100人規模 物流システムへの影響大
ITmedia NEWS セキュリティ
「盗んだイラストを生成AIに学習させるぞ」と脅すハッカー集団あらわる アートサイトへの攻撃例も
ITmedia NEWS セキュリティ
はてブのコメント(最新5件)
loading...