「説明するAI」に注目が集まる 判断に信頼と責任の伴わないAIは人間を代替できない
2022.04.09(liverty web)
<picture></picture>
《ニュース》
さまざまな分野における人工知能(AI)の導入が進められているなか、「理由を説明するAI」に注目が集まっています。ロイター通信はこのほど、米マイクロソフト傘下のビジネス用SNS「リンクトイン」の営業チームが、「理由を説明するAI」により昨年7月以降の登録料収入が増えたことを紹介し、AI界の新たなトレンドを報じました。
《詳細》
AIは、膨大な情報をインプットして分析し、物事の因果関係に関する法則やモデルを構築してくことで、予測や判定を行います。上記のSNSの例で言えば、ユーザーの使用頻度やサービスの使い方を分析した結果、「この人は近々、解約する可能性が高い」とAIが推測し、営業スタッフに通知することで、対策を行う──というような形です。
しかしリンクトインでは、それだけでは営業スタッフは満足しなかったといいます。例えばAIに「この人がソフトを更新する確率は五分五分」などと分析されたところで、手の打ちようがない、といった具合です。
そこで同社は、「XAI」と呼ばれる「理由を説明するAI」を導入。AIが何らかの判定を行った時、合わせてその理由に関して自動生成した短い文書を読めるようにしたといいます。これにより営業チームはAIの結果を有効活用でき、成績が上がったと同社は主張しています。
一方、記事ではAIが判断理由を説明することで、AIに対する誤った安心感を生み出したり、プロセスの説明可能性を優先するあまり、予測の正確性を落としたりするといった専門家の懸念も紹介しています。
※コメント投稿者のブログIDはブログ作成者のみに通知されます