由立教大學人工智能科學研究科指定副教授 Shinnosuke Ishikawa 和 Mamezou Co., Ltd. 組成的研究小組開發了一種新的“可解釋的 AI”,它可以直觀地判斷“AI 的判斷結果是否可以被解釋”值得信賴。”宣布開發了一種方法
近年來,人工智能技術的發展令人矚目,各種人工智能服務層出不窮,但有些人卻猶豫是否要引入人工智能,因為他們不知道自己是否真的可以相信人工智能的判斷結果。另一方面,解釋和解釋AI的判斷並使AI的判斷透明化的“可解釋的AI”的研究領域正在引起人們的關注。
可解釋AI的代表方法是,比如解釋“高血壓”對AI預測“你患病風險高”有很大影響,有一種方法是提取影響較大的元素。另一方面,這個團隊從“以數據為中心”的角度嘗試了一種不同於這些方法的方法,並開發了一種新方法,可以根據“AI具體學習了什麼樣的數據”來解釋AI的決策。底部。
例如,為了確認 AI 判斷“某個物體是貓”是否可靠,該方法會詢問 AI 迄今為止見過(學習)過的“最相似的‘貓’” .這是一個可解釋的AI,呈現AI目前為止所學的數據中判斷為最接近的數據,比如呈現“。研究人員將其稱為 What I Know(WIK),意思是 AI 呈現的是“我所知道的”。
作為檢驗 WIK 在人造衛星對地觀測圖像分類問題中有效性的結果,WIK 能夠呈現與要識別的衛星圖像相似的圖像。換言之,可以說人工智能已經進行了充分的學習來識別衛星圖像,判斷結果很可能是可靠的。
研究團隊認為WIK可以立即應用於許多社會問題,併計劃在繼續驗證其有效性的同時推廣使用。
論文信息:[International Journal of Applied Earth Observation and Geoinformation] 基於實例的可解釋人工智能及其在遙感圖像分類中的應用