筑波大學的山木真一副教授和大阪大學的河原良信副教授(研究時)成功開發了一種人工智能技術,可以量化人類對音樂的感受,並以數字方式比較表演的相似性。
音樂性的判斷通常基於演奏技巧的差異,例如發音(將樂句中的曲調分開並賦予形狀和含義)、音調(動態)和樂句(如何剪切樂句)。如果這些標準可以量化,就有可能將感受數字化,成為新傳播方式的基礎。然而,直到現在,計算機還不能識別和理解這些元素。
該研究小組繼續進行研究,旨在開發人工智能技術,使計算機能夠識別性能差異,並根據人類對“音樂的表達”的敏感性以數字方式表達它們。而這一次,通過一個稱為MIDI(樂器數字接口)的標準將鋼琴演奏數字化並捕捉它,並根據標準樂譜從演奏數據中獲取差異,將人們感受到的演奏表現的差異量化。發現我能做什麼。結果,可以量化一個人感覺到“氣氛相似”的感受,並可以比較他或她的表現與這個人相似。
該研究小組表示,量化音樂表達的能力將導致人工智能的新應用。例如,據說可以使用音樂感性建立新的交流方式,例如使用演奏數據在互聯網上搜索與自己具有相同音樂感的人,並通過感性表達來創建新社區。..