「責任あるAIを実現する」。アクセンチュアのビジネスコンサルティング本部AIグループ日本統括兼AIセンター長の保科学世氏は8月25日の「責任あるAI」の説明会で、AI活用が予測から意思決定へと広がる中で、企業に責任のあるAIの実現が強く求められていると主張する。消費者が倫理に反する企業の商品やサービスを購入しなくなっているからだろう。
背景には、AIの予測が判断基準の不透明なブラックボックス化し、差別や偏見を生み出していることにある。たとえば、チャットボットが人種差別を発言したことの記憶は新しい。なぜ、そんな発言をしたのか。原因は、収集したデータにある。データそのものに偏見があるのに、「データは正しい」という思い込みもある。結果、クレジットの審査で人種による不平等や、顔認証による誤認逮捕などが起きている。センシティブなデータを扱うには最新の注意が必要になる。AIにはリスクがあるのだ。
そうした中で、顔認証の活用から撤退する企業が出てきた。だが、保科氏は「AI活用をやめる必要はない」とする。そのメリットは計り知れないからだ。そこで、「責任あるAI」にするガイドライン作成を提案する。アクセンチュアによると、「責任あるAI」とは、顧客や社会に対して、AIの公平性・透明性を担保する方法論のこと。人間中心のAI活用を実現するための、信頼と信用、理解、安全、人間中心のデザインにする5つの行動原則がある。
まずはロードマップを作成には、倫理委員会を設置し、AIの専門家だけではなく、経営や法律などメンバーを構成する。次のステップは、経営者はAI活用に対するコミットメントを出す。もちろん、基本理念などを理解したうえでだ。第3ステップで、それを全社に広げるトレーニングなど研修を実施する。問題発生を未然に防ぐレッドチームも確保する。保科氏は、レッドチームを消防隊員と呼ぶ。火事が起きた原因や消火のプロセスを訓練したり、監視したりするからで、重要なのは初期消火を迅速に行うこと。第4ステップで、倫理指標を導入し、さらに問題提起できる環境を構築する。何か問題があったら、社員らが発言しやすいようにし、AIの偏見や暴走を防ぐ。
保科氏は「AIは人を模倣する技術」と、偏った考えの人から学ぶことの危険性を指摘する。気が付かなかった不平等を明らかにし、あるべき姿にしていく手段として、AIを活用する。AIを適切に運用し、人が正しいと判断できるようにする。そうした責任あるAIが急務だという。(田中克己)