Czy syntetyczna inteligencja rozumie muzykę? / Prof. dr hab. Konrad Szaciłowski

Muzyka wydaje się być naturalnym rozwinięciem komunikacji akustycznej, właściwym tylko naszemu gatunkowi. Cytując Guerrino Mazzolę, „jest potężnym kanałem komunikacyjnym, łączącym sfery fizyczne, symboliczne i emocjonalne”. Rozumiana jako uporządkowana sekwencja sygnałów o częstotliwościach akustycznych, powiązanych zestawem reguł formalnych, wydaje się być też interesującym obiektem do badań z wykorzystaniem systemów sztucznej czy syntetycznej inteligencji.

Rozumienie muzyki jest złożonym procesem psychofizjologicznym, który nie jest do końca poznany. Dlatego tak kuszące jest zastosowanie systemu opartego na obliczeniach rezerwuarowych (ang. reservoir computing) do wykrywania dysonansu i konsonansu muzycznego. Te badania z kolei dały bodziec w kierunku sztuk performatywnych. W efekcie powstała „Etiuda Rezerwuarowa nr 1 na dwie gitary, wiolonczelę, fortepian na cztery ręce i elektronikę”.

Czy muzyka jest zrozumiała dla systemów sztucznej/syntetycznej inteligencji, a ta tworzona z udziałem rezerwuarów jest przystępna dla słuchaczy to temat do stymulującej dyskusji.

Prof. dr hab. Konrad Szaciłowski

Prof. dr hab. Konrad Szaciłowski jest kierownikiem Zakładu Fotofizyki i Elektrochemii Półprzewodników w Akademickim Centrum Materiałów i Nanotechnologii AGH. Aktualnie jego główne zainteresowania badawcze obejmują projektowanie materiałów nieorganicznych do budowy memrystorów i innych elementów neuromorficznych, naśladowanie procesów neuronalnych i synaptycznych w układach nieożywionych, obliczenia rezerwuarowe oraz relacje harmonii muzycznej z innymi dziedzinami nauki.

W wolnym czasie kontempluje muzykę klasyczną, filatelistykę oraz szkocką whisky z Islay i Speyside.