説明可能な人工知能

従来型AIのブラックボックスを超越

エネルギー分野、ヘルスケア分野、ファイナンス分野などのリスクが高く価値も高い産業では、機械が行う推論の説明可能な理解もなしに、機械の決定を額面通りに信頼するには、リスクがあまりにも大き過ぎます。機械学習は多くのAIシステムの構成要素であるため、機械が何を学習しているのかを正確に知ることが重要です。機械学習は、人間に「何か」を教えることができる大量のデータを扱うのに適した手法です。しかし、AIシステムが人間の意思決定者に信頼されるアドバイザーになるには「なぜ」を説明できなければなりません。

説明可能なAI
信頼できる人工知能

AIの導入は急速に拡大しており、機械は、数百万ドル、あるいは人間の健康と安全が関わるような意思決定を下しています。エネルギー分野、ファイナンス分野、ヘルスケア分野など、規制を受け、リスクが高く、価値も高い産業では、機械が行う推論を理解できない状態で、機械の決定を額面通りに信頼することはリスクが大き過ぎます。エンタープライズは益々説明可能なAI (XAI)を求めるようになっています。

課題

多くの人にとって、AIの定義とは、機械学習、ディープラーニング、ニューラルネットワークなどの従来型AI技術です。しかし、そのような従来型AIのアプローチのアキレス腱は、AIが「ブラックボックス」になっていて、どのように答えを導き出したかを説明できないことです。

解決策

それとは対照的に、Beyond LimitsのコグニティブAIソリューションは常に「説明可能」です。Beyond Limitsのコグニティブエンジンは、明確な監査証跡を提示して、自らの推奨の背後にある人間のような推論を説明し、エビデンス、リスク、確実性、曖昧性を示します。この監査証跡は、人間が理解し、機械が解釈するように設計されています。説明可能性がAIに対する信頼を構築する鍵となります。

仕組み

説明可能なAIは、後からの思い付きやアドオンとして既存のシステムに実装できるものではありません。説明可能なAIは当初から設計の一部でなければなりません。Beyond Limitsのシステムは、フルスペクトルに渡って説明可能であり、ハイレベルのシステムアラートと、詳細なエビデンス、確率、リスクで裏付けられたドリルダウン可能な推論のトレースを提供します。説明可能なAIは、テクノロジーから謎を排除することに役立ち、信頼し合えて相互に有益な関係で人工知能が人間と仕事をすることを可能にする第一歩となります。