豆蔵 AI技術チームが開発した「何から学んだか」で予測を説明するAI手法を国際論文誌に発表
株式会社豆蔵デジタルホールディングスの事業会社である株式会社豆蔵 (本社:東京都新宿区、代表者:代表取締役社長 中原 徹也、以下「豆蔵」という) と、立教大学大学院人工知能科学研究科 (所在地:東京都豊島区、研究科委員長:内山 泰伸) による研究チームは、AI が「何を学習しこの予測に至ったか」で予測結果を説明する、「説明可能AI」の手法である『What I Know (WIK) 』を開発しました。この結果は国際学術論文誌「International Journal of Applied Earth Observation and Geoinformation」に掲載されました。本研究は、豆蔵と立教大学大学院人工知能科学研究科が締結した基本協定に基づき、豆蔵 AI技術チームが中心となり共同研究として実施されました。
豆蔵では、高度なAI知識を保有せずとも直観的にAIの予測結果の信頼性判断を可能とするソリューションにこの手法を利用し、高度なデータ活用による企業のDXを支援します。
AI導入の課題
AI 技術は産業界の様々な分野で活用されていますが、深層学習を始めとする高度なAI技術はその複雑さゆえにブラックボックスであると言われています。そのため、精度の数値だけでは予測結果を信じてよいかどうかの判断が難しく、なかなかAIの本格的な導入に踏み切れないという課題を多くの企業から伺っています。
この課題の解決に役立つと期待されているのが、説明可能AI (Explainable AI, XAI)という研究分野です。説明可能AIで代表的なものには、予測のために入力したデータのどの要素が重要かを示す手法があります。例えば、「あなたは病気のリスクが高い」というAIの予測に対し、「血圧が高いことが大きく影響している」ということを説明として示すという手法です。この手法は一定の評価を得ている一方で、この手法のみでは大きく影響しているという関係以上の説明はなく、因果関係を保証するものではないため、AIの予測はやはり信用できない、という声も聞かれます。
AIの信頼性を確認できる「説明」とは
AIの判断を信頼してよいかどうかを考えるためには、人間の場合はどうなのかを考えることが有用だと考えられます。例えば工場でベテラン工員が「この機械の動きには違和感がある、どこかはわからないがいつもと違う気がする」と言ったとすると、その発言には考慮の余地があり、機械の検査をした方が良いように感じられます。同じことを配属間もない新人工員が言ってもおそらく信頼されないでしょう。これは、判断を行なった人がこれまでにどれだけの経験を積んでいるかによって、信頼度が変わる例と言えます。
同様に、ビジネスにおける判断の広い範囲で、経験の有無が信頼度に差を生じさせます。ある日のある店舗での売り上げ予測が信頼できるかどうかは、予測対象日と似た状況をどれだけ経験し、そこから学習しているかで変わってきます。このように、これまでどれだけの事例を体験してきたか、特に今回予測した状況とどれだけ似た状況について知っているか、ということが予測の信頼性の一つの基準となると考えられます。
AIについても同様に考えることができます。AIでは多くの場合、過去のデータから学習し、学習結果に基づいて予測を行っています。先ほどの考え方をAIにも当てはめてみると、今回予測した状況とどれだけ似ている状況について学習しているかが、AIの過去の経験を示す指標となり、AIの信頼性を確かめるうえで有益であると考えられます。学習したデータの中で、予測対象と最も類似したデータを示す例としては、以下の表1のような場合が挙げられます。
予測/識別結果の例 | 類似データ提示による説明の例 |
今月は工期が遅れるリスクがある (予測) | これまで学習したXX年XX月のデータと似ている (説明) |
この顧客は製品を購入する確率が高い (予測) | これまで学習したこの顧客のデータと似ている (説明) |
この製品画像には異常が見られる (識別) | これまで学習したこの画像と似ている (説明) |
「何から学んだか」を示す手法WIK
この観点により、我々の研究チームはAIが「これまで学習した中で、今回対象とするデータに一番近いもの」を示す手法を開発しました。我々はこの手法を、AIが「私の知っていること」を提示するという意味で What I Know (WIK) と名付けました。この手法を用いれば、AI モデルが工場におけるベテラン工員のように信頼できるものなのか、もしくは新人工員のように経験に乏しく、その判断は信頼できないと考えられるのか、判断することができます。これまでの説明可能AIは、「入力データからどのように予測が導かれるのか」というプロセスに注目したものが中心でした。本研究で開発した手法は、学習データに注目した点が従来の手法と大きく異なり、AIに詳しくない人であってもAIの予測結果が信頼できるかどうかを、業務経験と照らし合わせるなどして直観的に判断することを可能にします。
衛星画像の分類による有効性の確認
今回発表した論文では、この手法を人工衛星による地球観測画像の分類問題に適用し、その有効性を示しました。用意した深層学習によるAIモデルでは、衛星画像に何が写っているかを、森、住宅地、川、高速道路など10 種類に分類します。識別する対象として5つの衛星画像を用意し、WIKによりそれぞれの類似画像を提示した例が以下の図1です。図1の上の段は今回識別対象とするデータであり、下の段は、モデルが学習したデータの中で最も上の段の画像に近いと判断されたものです。下段の画像は上段の画像に近いことから、このAIは上段の画像を識別するのに十分な学習を行なっていると言えます (先ほどの例では「十分な経験を持っている」ことに対応します)。このことから、このAIの判断結果は信頼できそうだということが確認できます。
豆蔵のデータ利活用サービス
本研究で開発した説明可能AIの手法は、豆蔵のデータ利活用支援サービスの一環として提供しております。本手法の提供実績から、少ないデータでの検証段階から簡単に導入が可能です。本サービスでは、顧客の保有するデータを活用した業務効率化や新規サービス創出等のデータ分析支援と、実運用に向けたデータ分析基盤構築支援サービスを提供しております。本研究を行った AI技術チームメンバーが中心となり、本手法をはじめとする専門技術を活用し、顧客の要望に合わせた最適なデータ利活用方法をご提案いたします。
データ利活用支援サービス
https://www.mamezou.com/services/strategic/dataoffice
豆蔵の衛星データ利活用サービス
豆蔵では、本研究で示したような人工衛星による地球観測データの利活用サービスも提供しております。衛星データ単体での活用だけでなく、顧客保有データと衛星データ、AI技術の組み合わせにより、新しい価値の創出や、他社と差別化できる可能性があります。衛星データに対する分析経験が豊富なメンバーが、既存のデータと衛星データを組み合わせることによるイノベーションを支援いたします。
衛星データ利活用サービス
https://www.mamezou.com/services/strategic/spacebiz
掲載情報詳細
S. Ishikawa, M. Todo, M. Taki, Y. Uchiyama, K. Matsunaga, P. Lin, T. Ogihara and M. Yasui, "Example-based explainable AI and its application for remote sensing image classification," International Journal of Applied Earth Observation and Geoinformation, Vol. 118, p. 103215, 2023.
掲載先: https://doi.org/10.1016/j.jag.2023.103215
arXiv: https://arxiv.org/abs/2302.01526
掲載誌情報
International Journal of Applied Earth Observation and Geoinformation は、オランダの世界的学術出版社 Elsevier が刊行するオープンアクセスの査読付き国際論文誌で、地理空間情報の分野における代表的な論文誌です。
https://www.sciencedirect.com/journal/international-journal-of-applied-…
関連リンク
- AIの予測結果を具体的学習内容で説明する手法を開発
- 立教大学と豆蔵、人工知能に関する研究と人材育成の早期社会適用実現のために連携 ~実践的な人材育成による産業界からのAI革命を現実のものに~
- 豆蔵、宇宙ビジネスに参入! 顧客が保有するデータと衛星データの組み合わせで新たなビジネスを創出 ~宇宙産業関連企業等が加盟する「xData Alliance」にも加入~
プレスリリース(PDF)
サービスに関するお問い合わせ
株式会社豆蔵 営業本部 第四営業部
TEL:03-5339-2114
ウェブよりお問い合わせ