https://frosthead.com

Kas tehisintellekt võib aidata kooli tulistamist peatada?

Kogu laskmise sagedus jääb koolitulistamisest segaseks õuduseks.

Mitte ainult pole vähe üksmeelt selles, kuidas neid peatada - ettepanekutega, mis piiravad relvade juurdepääsu piiramist relvastamise õpetajatele -, kuid veelgi vähem on kindlust selles, miks õpilane laseb klassikaaslastel tuld.

Nüüd on mõned teadlased hakanud uurima, kas tehisintellekt (AI) võiks aidata vastuseid leida. Idee on selles, et algoritmid võiksid kooli tulistamistega seotud andmeid paremini analüüsida ja võib-olla isegi tuvastada õpilaste keele- või käitumisharjumusi, mis võiksid koolivägivalda varjutada. Uurimistöö on alles algusjärgus ning väljavaade kasutada masinaid koolitulistajaks muutumisest võib tõstatada privaatsusprobleeme ja muid eetilisi küsimusi, mis on seotud igasuguse profileerimisega, eriti kuna protsess hõlmab lapsi. Eesmärk on aga näha, kas intelligentsete masinate analüütiline jõud võib anda rohkem selgust tragöödiatele, mida sageli kasutatakse kõrgete emotsioonide ja poliitilise retoorika keerises.

Pöördudes tehnoloogia poole

Kunstliku intelligentsuse kasutamine viisini teadusliku analüüsi tegemiseks midagi nii mõistmatut kui koolitulistamised meeldisid Shreya Nallapatile. Ta lõpetas just keskkooli Colorados, kuid tagasi veebruaris, pärast Floridas Parklandis peetud 17 õpilase surmajuhtumit, innustas teda õpilasjuht Emma Gonzalez tegutsema.

"Tundsin, et me ei peaks lihtsalt oma mõtteid ja kaastunnet avaldama, " ütleb Nallapati. "Arvasin, et kasvava tuhandeaastaste põlvkondadena peaksime proovima kasutada seda, mida me kõige paremini teame - tehnoloogiat."

Nii jõudis Nallapati, kes on keskkoolis tehisintellekti õppinud, kontakti teiste noorte naistega, keda ta tunneb programmi "Aspirations in Computing" kaudu, mida juhib Riiklik Naiste ja Infotehnoloogia Keskus. Arvutipüüdlused julgustavad noori naisi sisenema arvuti- ja tehnoloogiavaldkonda.

Nallapati palus teistel rühma liikmetel liituda temaga uues projektis #NeverAgainTech. Ta loodab, et ühiste jõupingutuste tulemuseks on AI-põhine koolide tulistamisega seotud paljude andmete kogumine ja analüüs - alates demograafilisest ja sotsiaal-majanduslikust teabest varasemate laskurite kohta, lõpetades uimastitarbimise või neuroloogiliste häiretega, relvade kättesaadavus riikides, kus rünnakud on aset leidnud. Eesmärk on välja töötada koolide tulistamise paljude komponentide põhjalikum jaotus kui praegu olemasolev, ja teha sellest tulenev tarkvara avalikkusele, eriti koolidele ja õiguskaitseorganitele kättesaadavaks järgmisel aastal.

Riski hindamine

Cincinnati Lastehaigla meditsiinikeskuse teadlaste meeskond kasutab AI kasutamist koolivägivallaga võitlemisel teistsugusel viisil. See avaldas hiljuti avaldatud uuringu, mille kohaselt võib masinõpe aidata terapeutidel ja nõustajatel õpilase tekkiva riskitaseme mõistmisel.

Täpsemalt, teadlased leidsid, et vägivaldse käitumise riski hindamisel oli AI sama täpne kui laste- ja noorukitepsühhiaatrite meeskond, kui küsitleti 119 last vanuses 12–18 aastat. Kuigi uuring keskendus suures osas füüsilisele agressioon, juhtivteadur Drew Barzman ütleb, et see oli kohaldatav ka kooli tulistamisriski hindamisel.

"Enne koolivägivalda on tavaliselt hoiatavad sildid, " ütleb ta. Varasema uuringu Barzmani sõnul võib keel, mida õpilane intervjuu ajal kasutab, eristada kõrge riskiga teismelisi madala riskitasemega teismelistest. Uuringust järeldati, et endine väljendas tõenäolisemalt negatiivseid tundeid enda ja teiste tegude suhtes. Samuti rääkis ta tõenäolisemalt endaga seotud vägivaldsetest tegudest ning vägivaldsetest videomängudest või filmidest.

Meeskond astus veel ühe sammu, lastes varasema uuringu AI algoritmi abil analüüsida uue uurimistöö jaoks küsitletud õpilaste ärakirju. Keelemustrite põhjal näitas see, kas inimesel on kõrge või madal oht vägivallatsemiseks. Enam kui 91 protsenti ajast oli ainult transkribereid kasutav algoritm kooskõlas laste- ja noorukite psühhiaatrite meeskonna ulatuslikuma hinnanguga, kellel oli juurdepääs ka vanemate ja koolide teabele.

Uuringus osalenud tudengid värvati suures osas psühhiaatria polikliinikutest, statsionaarsetest osakondadest ja erakorralise meditsiini osakondadest. Mõnel oli hiljuti olnud suuri käitumismuutusi, kuid teiste jaoks olid muudatused vähemolulised. Barzmani sõnul käisid nad erinevates koolides, kuigi ükski neist polnud koduõppega.

Barzmani sõnul keskendus uuring füüsilise agressiooni ennustamisele koolis, kuid endiselt pole teada, kas masinõpe saaks vägivalda tegelikult ära hoida. Siinkohal keskendutakse terapeutidele ja nõustajatele tööriista pakkumisega, mis võiks nende intervjuude põhjal õpilaste hinnanguid teravdada. Barzman märgib, et eesmärk ei ole lasta masinatel õpilaste kohta otsuseid teha.

"Põhimõtteliselt oleks see mõeldud abistamaks kliinikut tema otsuste tegemisel, " ütleb Barzman. "Pakume neile struktuuri, mida peame olulisteks küsimusteks. Võib olla keeruline õpilast intervjueerida, õiget teavet välja valida ja kõike meelde jätta. Idee on anda neile tööriist, mis saaks neid aidata protsessi kaudu ja suurendamaks nende hinnangute täpsust. "

Matty Squarzoni on veel üks tehisintellekti potentsiaali uskuja koolivägivallaga tegelemisel. Ta on California startupi nimega Sitch AI, kes plaanib turustada tehnoloogiat, mis tema sõnul võiks aidata koolidel selliste ohtudega toime tulla. Esialgu keskendutakse andurite süsteemi väljatöötamisele, mis võimaldab politseiametnikel tuvastada püsside täpse asukoha ja jälgida ka laskurite liikumist kooli kaudu. Kuid Squarzoni sõnul otsib ettevõte ka võimalusi ennustava analüüsi kasutamiseks võimalike probleemide tuvastamiseks enne, kui need vägivaldseks muutuvad.

Ta usub, et tehisintellekt võiks analüüsida õpilase andmeid ja märkida olulised muutused tema sooritustes või käitumises. Squarzoni tunnistab potentsiaalseid probleeme privaatsuse pärast, kuid ütleb, et ettevõte ei teaks õpilaste identiteeti.

"Me ei räägi profiilide loomisest, " ütleb ta. „Vaatleksime iga inimest kui ainulaadset üksust. Kuid inimesed on harjumuspärased olendid. Kui neil hakkab ilmnema ebakorrapärasusi, hakatakse neid vaatama. Märkate lippe ja võib-olla hakkavad lipud üha lähemale jõudma. Need võivad olla vaimse tervise probleemid või võib-olla langeb nende hinne.

"Me ei vaata seda, kas saaksime öelda:" See inimene saab laskjaks. " Tahame öelda: 'See inimene vajab abi.' '

Mitte nii kiiresti?

Kuid teistel on tõsine mure seoses kiirusega kasutada tarkvara algoritme keerukate ühiskondlike probleemide lahendamiseks.

"Nüüd näeme suundumust, mille kohaselt AI-d rakendatakse murettekitava kiirusega väga tundlikes domeenides ja inimesed, kes neid algoritme koostavad, ei mõista tingimata kasutatavate andmete kõiki sotsiaalseid ja isegi poliitilisi aspekte, " ütleb Rashida Richardson, New Yorgi ülikooli programmi AI Now Institute poliitikauuringute direktor, mis uurib tehisintellekti sotsiaalseid mõjusid.

Üks valdkond, kus AI kasutamine on põlenud, on nn ennustav politseitöö. Need on tarkvaratooted, mis analüüsivad kuritegevuse statistikat ja ennustavad seejärel, kus kuritegusid tõenäolisemalt toime pannakse. Kuid kriitikud märgivad, et sellised andmed nagu arreteerimised võivad olla inimese eelarvamuste tagajärg, mis võib lõpuks algoritmi sisse puhuda.

See on alati ennustava analüüsi oht ja miks on andmete allikas võtmetegur selle objektiivsuse määramisel. Kuna AI-tööriista töötavad välja Cincinnati Lastehaigla teadlased, põhineb analüüs siiski laialdase statistika koostamise asemel pigem sellel, mida üksikud õpilased intervjuu ajal ütlevad.

Sellegipoolest peab Richardson oluliseks, et seda tüüpi tarkvara loovad meeskonnad oleksid interdistsiplinaarsed, nii et näiteks koolitajad oleksid kaasatud õpilaste käitumist hindavatesse programmidesse.

„Teadlased ei pruugi mõista paljusid nüansse, mida inimesed haridus- ja õiguspoliitilises maailmas koolikliimaks nimetavad. See hõlmab ohutuse ja käitumisega seotud küsimusi, ”ütleb ta. „See, millises koolis olete, määrab sageli, kuidas käitutakse ja kuidas distsipliini käsitletakse.

"Näiteks on leitud, et hartakoolides on palju rangemad distsiplinaarmeetmed, " lisab Richardson. „Selles keskkonnas koheldakse lapsi palju erinevalt kui kalli erakooli korral ja isegi erinevates riigikoolides.

„Proovida mõista väga keerulisi küsimusi, millesse on sisendatud lugematul arvul sisendeid, ja rakendada selle lahendust peegeldavat tehnilist lahendust, sest see võib kas korrata samu probleeme, mida me ühiskonnas näeme, või luua lahenduse probleemile, mida seal pole. ”

Richardsoni sõnul on veel üks mure selles, et isegi kui AI-programm töötatakse välja parimate kavatsustega, võib seda lõpuks kasutada viisil, mida selle loojad ei ole ette näinud.

"Kui olete need tööriistad välja pakkunud, " ütleb naine, "pole nii, nagu oleks teil endiselt kontroll selle üle, kuidas neid rakendatakse või kuidas nad mõjutavad jätkuvalt ühiskonda laiemalt."

Kas tehisintellekt võib aidata kooli tulistamist peatada?