Sama tehnoloogia, mis volitab teie vestluslikku mobiiliassistenti, võiks ühel päeval anda kõne neile, kes on kaotanud kõnevõime. Nagu Renae Reints Fortune'i kohta teatas, tegid Columbia ülikooli neuroteadlased hiljuti suure sammu selle futuristliku eesmärgi poole, tõlkides ajulained esimest korda edukalt arusaadavaks kõneks.
Meeskonna uurimistöö, mis on avaldatud ajakirjas Scientific Reports, hõlmab mõnevõrra tavatu lähenemisviisi. Selle asemel, et mõtteid otseselt kõne tekitamiseks jälgida, salvestasid teadlased neuroloogilisi mustreid, mille tekitasid katseisikud, kes kuulasid teisi rääkimas. Need ajulained juhiti vokooderisse - tehisintellekti algoritmi, mis sünteesib kõnet - ja teisendatakse seejärel arusaadavaks, ehkki robotilt kõlavaks kõneks, mis peegeldab osalejate kuuldud fraase.
"Meie hääled aitavad meid ühendada oma sõprade, pere ja ümbritseva maailmaga, mistõttu on vigastuse või haiguse tõttu hääle hääle kaotamine nii laastav, " ütleb uuringu autor Columbia neurobioloogia programmi insener Nima Mesgarani ajakirjas seisukoht. „Tänase uuringuga on meil potentsiaalne viis selle jõu taastamiseks. Oleme näidanud, et õige tehnoloogia abil saaks nende inimeste mõtteid dekodeerida ja iga kuulaja neist aru saaks. ”
Gizmodo George Dvorsky sõnul väärib märkimist, et teadlased pole veel välja mõelnud, kuidas sisemisi mõtteid, mida tuntakse ka kui kujutletud kõnet, otse sõnadesse tõlkida. Selle ideaalse stsenaariumi korral kujutleksid kõnetehnoloogiat kasutavad inimesed lihtsalt seda, mida nad öelda tahtsid, ja ootaksid kunstlikku häälsüsteemi nende mõtete verbaliseerimiseks.
Hiline briti füüsik Stephen Hawking kasutas teistega suhtlemiseks kõnesünteesi tehnoloogia algelist versiooni. Nagu Nina Godlewski ajalehele Newsweek kirjutab, diagnoositi Hawkingil 21-aastaselt amüotroofne lateraalskleroos (ALS). Motoorneuroni haigus nõudis lõpuks tema kõnevõimet, sundides teda kasutama kõne käivitamiseks käeshoitavat klõpsu.
Kui Hawking kaotas oma käte kasutamise, lülitas ta süsteemi, mis põhines näo liigutustel; Gizmodo Dvorsky selgitab veel, et teadlane kasutas häälesüntesaatori räägitavate sõnade valimiseks tema prillidega ühendatud põselülitit.
Selle tehnoloogia täiustatud iteratsioon jätaks keskmise inimese vahele, võimaldades kasutajatel kõne luua ilma arvuti või liikumistundliku süsteemi abita.
Võrreldes Avery Thompsoni väljaandega ajakirjale Popular Mechanics, keskendub Columbia meeskonna uuring „ülekuulatud kõne” tõlkimisele. Teadlased värbasid viis epilepsiahaiget, kellele tehti ajuoperatsioon ja palusid neil kuulata hulgaliselt räägitud sõnu - näiteks kellegi salvestus. loendamine nullist üheksani - samal ajal kui nad on ühendatud närvimonitoridega.
Nende tööriistadega hõivatud ajulained pandi vokooderisse, mis sünteesis närvivõrgu abil kõnesid, mida treeniti futurismi Kristin Houseri sõnade järgi, et väljund “puhastada” ja muuta helid arusaadavaks.
Järgmisena palusid teadlased veel 11 osalejal kuulata AI-toega kõnet. Oluline on, et uuringu kaasautor Mesgarani osutab Columbia avalduses, et need isikud suutsid umbes 75 protsenti ajast helisid „mõista ja korrata“ - mis tahes varasemates katsetes nähtud kiirusega „hästi ja kaugemal“. (Oma salvestuste üle saate ise otsustada siin.)
Intervjuus Gizmodo Dvorskyle ütles Mesgarani, et loodavad koos kolleegidega lähitulevikus sünteesida keerukamaid fraase. Teadlased soovivad ka salvestada aju signaale, mille on genereerinud katsealused, kes mõtlevad või kujutavad ette rääkimist, selle asemel, et lihtsalt teisi kuulata. Lõpuks lisab Mesgarani avalduses, et meeskonna eesmärk on muuta tehnoloogia ühel päeval implantaadiks, mis on võimeline tõlkima kandja mõtted otse sõnadesse.
Uue uurimistöö potentsiaalseteks piiranguteks on selle väike valimi suurus ja Newcastle'i ülikooli neuroteadlase Andrew Jacksoni sõnul, kes uuringuga ei tegelenud, on asjaolu, et närvivõrgustikke tuleks tutvustada suure hulga ajusignaalidega igalt uuelt osalejalt et sünteesida numbrid nullist üheksani kaugemale.
“Tulevikus on huvitav näha, kui hästi ühe inimese jaoks koolitatud dekoodrid üldistavad teisi inimesi, ” räägib Jackson Gizmodo . „See on natuke nagu varajane kõnetuvastussüsteem, mida tuli kasutaja individuaalselt koolitada, vastupidiselt tänapäevasele tehnoloogiale, näiteks Siri ja Alexa, mis suudab mõtestada igaühe häält, kasutades taas närvivõrke. Ainult aeg näitab, kas need tehnoloogiad suudavad ühel päeval ajusignaalide jaoks sama teha. ”