「説明可能なAI」を開発 望む結果までの手順を導き信頼性向上
富士通研究所と北海道大学は4日、AIが自動判断した結果を基に、望む結果を得るために必要な手順を自動で提示できる技術を世界で初めて開発したと発表した。これによりAIが出した判断理由を知るだけでなく、個々の利用者が望む結果を得るために取るべき改善の手順を示すことが可能となり、AIによる判断の信頼性と透明性が向上することが期待される。
AIシステムに広く用いられている深層学習技術は、大量のデータに基づいた様々な判断を予測モデルと呼ばれる一種のブラックボックスのような規則を用いて自動的に行っている。このためAIシステムの透明性と信頼性の担保が求められ、個々の判断理由を提示する「説明可能なAI」の開発が進められている。従来の技術では、個々の項目に関して「これをしておけばよい結果が得られた」という仮定の改善項目は示せるものの、判断結果を改善していくための手順などは提示できなかった。
AIによる自動診断で望む結果を得るためには、変更が必要な属性を提示するだけでなく、その変更が現実的かつできるだけ小さい労力で変更できる属性を提示することが必要である。膨大な変更点の候補の中から実現の可能性や順序を考慮した上で、適切な変更の方法を見つけることが課題となっている。
今回の共同研究で開発された新技術は、「もしこれをしていれば結果はこうなっていた」というような事実とは異なる状態を示し説明する「反実仮想説明」という手法が用いられた。
例えば、健康診断で望む結果にするために筋肉量をプラス1kg、体重をプラス7kg変更しなければならない時に、筋肉量と体重の間の相互作用の事前分析により筋肉量を1kgプラスすれば体重は6kgプラスされるというような関係から、先に筋肉量を変化させることが労力は少ないという分析ができる。
このように、過去の事例の分析を通して非現実的な変更を避けつつ、属性値の変更がほかの属性値に与える因果関係などの影響をAIが推定し、適切な順序、かつ一番少ない労力で最適な結果が得られるアクションの提示を可能とした。
今回開発された反実仮想説明AI技術を用いて、糖尿病、ローンの与信審査、ワインの評価の3種類について検証したところ、全てのケースで少ない労力で望む結果を得るための適切な手順を取得でき、特にローンの与信審査のケースでは半分以下の労力を実現した。
この技術を活用することで、AIによる自動判断において望ましくない結果が予想された場合に、その結果を望む結果に変えるために必要なアクションを提示することが可能となる。
(写真はイメージ)