生成AIサービス悪用が現実的な脅威に、プロンプトインジェクションで情報漏洩・侵入
生成AI(人工知能)を組み込んだシステムへの「プロンプトインジェクション」の脅威が迫っている。プロンプトインジェクションは、英語のinjection(注入・注射)になぞらえた大規模言語モデル(LLM)への攻撃手法だ。悪意あるプロンプトを「注入」、すなわち入力することにより、機密情報を盗んだり連係するシステムへ侵入したりする。
生成AIを社内システムや社外向けのサービスに組み込む企業が増加している。2023年の生成AIブーム初期から、API(アプリケーション・プログラミング・インターフェース)経由でLLMを使い、システムに対話機能を実装する企業が多く見られた。