由立教大學人工智能科學研究科指定副教授 Shinnosuke Ishikawa 和 Mamezou Co., Ltd. 組成的研究小組開發了一種新的“可解釋的 AI”,它可以直觀地判斷“AI 的判斷結果是否可以被解釋”值得信賴。”宣布開發了一種方法

 近年來,人工智能技術的發展令人矚目,各種人工智能服務層出不窮,但有些人卻猶豫是否要引入人工智能,因為他們不知道自己是否真的可以相信人工智能的判斷結果。另一方面,解釋和解釋AI的判斷並使AI的判斷透明化的“可解釋的AI”的研究領域正在引起人們的關注。

 可解釋AI的代表方法是,比如解釋“高血壓”對AI預測“你患病風險高”有很大影響,有一種方法是提取影響較大的元素。另一方面,這個團隊從“以數據為中心”的角度嘗試了一種不同於這些方法的方法,並開發了一種新方法,可以根據“AI具體學習了什麼樣的數據”來解釋AI的決策。底部。

 例如,為了確認 AI 判斷“某個物體是貓”是否可靠,該方法會詢問 AI 迄今為止見過(學習)過的“最相似的‘貓’” .這是一個可解釋的AI,呈現AI目前為止所學的數據中判斷為最接近的數據,比如呈現“。研究人員將其稱為 What I Know(WIK),意思是 AI 呈現的是“我所知道的”。

 作為檢驗 WIK 在人造衛星對地觀測圖像分類問題中有效性的結果,WIK 能夠呈現與要識別的衛星圖像相似的圖像。換言之,可以說人工智能已經進行了充分的學習來識別衛星圖像,判斷結果很可能是可靠的。

 研究團隊認為WIK可以立即應用於許多社會問題,併計劃在繼續驗證其有效性的同時推廣使用。

論文信息:[International Journal of Applied Earth Observation and Geoinformation] 基於實例的可解釋人工智能及其在遙感圖像分類中的應用

立教大學

通過“RIKKYO Learning Style”獲得“新的”全球領導力

自 1874 年成立以來,立教大學一直致力於培養國際性和領導力的文科教育。目前,我們有10個學院、27個系、8個專業和1個課程。憑藉豐富的思想和領導力,我們可以應對全球性問題和社會需求,從廣闊的角度發現和解決問題 […]

大學學報在線編輯部

這是大學期刊的在線編輯部。
文章由對大學和教育具有高水平知識和興趣的編輯人員撰寫。