
Liblika tiiva mustrituvastus. Pilt viisakalt Li Li
Oleme siin Washingtonis kuulnud sellest, mida te nimetate eelplaneerimiseks, kuid me pole veel valmis seda omaks võtma. Natuke liiga futuristlik.
Sellegipoolest ei saa me imetleda kaugelt neid, kes üritavad ennustada, mis võib juhtuda rohkem kui kuu pärast. Nii et mul oli mõni nädal tagasi mulje, kui IBM-i suured mõtlejad kujutasid ette maailma viis aastat ja tegid kindlaks, mis nende arvates on viis innovatsioonivaldkonda, millel on meie igapäevaelule kõige suurem mõju.
Nad on seda teinud juba mõni aasta, kuid seekord järgnesid imetlevad vigurid teemale - viiele inimmeelele. Mitte et nad ütlevad, et 2018. aastaks on meil kõigil võimalik paremini näha, kuulda ja nuusutada, vaid pigem masinad - kiirelt arenevate sensoorsete ja kognitiivsete tehnoloogiate abil kiirendavad arvutid nende muundamist andmete otsimisest ja mootorite töötlemine mõtlemisvahenditeks.
Kas näete mustrit?
Täna tegeleme nägemisega. Loogiline on eeldada, et IBM viitab Google'i projektiklaasile. Pole kahtlust, et see on prillide rolli uuesti määratlenud, alates geekilisest aksessuaarist, mis aitab meil paremini näha nutitelefoni / andmesukeldusseadet, mida me kunagi oma nägu kanname.
Kuid seda ei räägi IBM-i tootjad. Nad on keskendunud masina nägemisele, eriti mustrituvastusele, mille abil arvutid on korduvate piltidega kokkupuute kaudu võimelised asju tuvastama.
Nagu selgub, oli Google seotud ühe eelmise aasta tähelepanuväärsemate mustrituvastuskatsetega - projektis, kus 16 000 protsessorit kasutav 1000 arvuti võrk oli pärast 10 miljoni YouTube'i videote pildi uurimist võimeline õpetama endale, mida kass nägi välja.
Eriti muljetavaldavaks tegi asjaolu, et arvutid suutsid seda teha ilma igasuguste inimlike juhisteta, mida otsida. Kogu õppimine viidi läbi koos töötavate masinate abil, et otsustada, millised kasside omadused väärivad nende tähelepanu ja millised mustrid on olulised.
Ja see on mudel, kuidas masinad nägemist õpivad. IBMi intelligentse teabehalduse vanemjuht John Smith selgitab seda järgmiselt:
“Ütleme nii, et tahtsime arvutit õpetada, kuidas rand välja näeb. Alustuseks näitaksime arvutis palju näiteid rannastseenidest. Arvuti muudaks need pildid eraldiseisvateks funktsioonideks, nagu näiteks värvijaotused, tekstuurimustrid, servade teave või video puhul liikumise teave. Seejärel hakkaks arvuti õppima, kuidas nende erinevate funktsioonide põhjal ranna stseene teistest stseenidest eristada. Näiteks õpiks see, et rannapildi puhul on kesklinna linnapildiga võrreldes tavaliselt teatud värvijaotused. "
Kui tark on nutikas?
Hea neile. Kuid ausalt öeldes on ranna tuvastamine enamikule meist inimestest üsna põhiline. Kas me saaksime käest ära, kui palju mõtlemismasinad meie jaoks ära teha suudavad?
New Yorgi ülikooli psühholoogiaprofessor Gary Marcus arvab nii. Hiljuti New Yorkeri veebisaidil kirjutades järeldab ta, et kuigi sügava õppimise all tuntuks saanud valdkonnas on tehtud palju edusamme, on masinatel veel pikk tee minna, enne kui neid tuleks pidada tõeliselt intelligentseteks.
„Reaalselt on sügav õppimine vaid osa intelligentsete masinate ehitamise suuremast väljakutsest. Sellistel meetoditel puuduvad viisid põhjuslike seoste esitamiseks (näiteks haiguste ja nende sümptomite vahel) ning tõenäoliselt seisavad nad silmitsi väljakutsetega abstraktsete ideede, näiteks „õde-vendade” või „nendega identsete” omandamisel. Neil pole selgeid viise loogiliste järelduste tegemiseks ja nad on veel kaugel abstraktsete teadmiste integreerimisest, näiteks teave selle kohta, mis objektid on, milleks need on mõeldud ja kuidas neid tavaliselt kasutatakse. ”
IBM-i inimesed kindlasti kahtlemata tunnistaksid seda. Masinõpe tuleb samm-sammult, mitte hüppeliselt.
Kuid nad usuvad, et viie aasta jooksul on sügav õppimine astunud piisavalt samme, et arvutid hakkaksid näiteks meditsiinilises diagnoosimises palju suuremat rolli mängima, et kasvajate ja verehüüvete määrimisel võivad nad tegelikult olla arstidest paremad või kahjustatud kude MRT-de, röntgenikiirte või CT-skaneeringute korral.
Ja see võib meie elus palju muuta.
Nägemine on uskumine
Siin on veel viis, kuidas masina nägemine meie elu mõjutab:
- Parima käe edasiandmine: Pittsburghi ülikoolis välja töötatud tehnoloogia kasutab mustrituvastust, mis võimaldab parapleegikutel juhtida robotiga kätt nende ajudega.
- Su suu ütleb jah, aga su aju ütleb ei: Stanfordi teadlased leidsid, et mustrituvastusalgoritmide kasutamine aju MRT-skannimisel võiks aidata neil kindlaks teha, kas kellelgi on tegelikult alaseljavalu või kas nad võltsivad seda.
- Kui teie mutid on lähivõteteks valmis: eelmisel aastal käivitas Rumeenia startup nimega SkinVision iPhone'i rakenduse, mis võimaldab inimestel oma nahal olevaid mutte pildistada ja seejärel omada SkinVisioni tuvastustarkvara, et tuvastada kõik eeskirjade eiramised ja juhtida tähelepanu riskitasemele - ilma tegeliku diagnoosi pakkumine. Järgmine samm on võimaldada inimestel oma nahapildid otse dermatoloogile saata.
- Kas ma olen teie jaoks kokkuleppe sõlminud: Nüüd on väljatöötamisel turundustehnoloogia nimega Facedeals. See toimib nii: kui kaupluse sissepääsu juures olev kaamera tunneb teid ära, saadetakse teie nutitelefonis kaupluses kohandatud pakkumisi. Ja jah, te peaksite kõigepealt valima.
- Ma tean seda pitserit ükskõik kus: mustrituvastust kasutav elektrooniline foto-ID-süsteem aitab Briti teadlastel jälgida hallhülgeid, millel on mantlil ainulaadsed märgistused.
Videoboonus: kui me tegeleme tehisintellektiga, siis siin on Beetoveni mängiv robot sülem, komplimente Georgia Tech teadlased. Panustage, et te ei osanud seda täna näha.
Rohkem saidilt Smithsonian.com
Inimlikum kunstlik aju
Kuidas tehnoloogia võitleb terrorismiga