https://frosthead.com

Kuritegevuse ennustamiseks kasutatakse nüüd tehisintellekti. Kuid kas see on erapoolik?

Mis on õiglane?

Tundub lihtne küsimus, kuid see on küsimus, millele pole lihtsaid vastuseid. See kehtib eriti tehisintellekti (AI) kaarlevas maailmas, kus nutikate, emotsioonideta masinate, mis teevad imeliselt eelarvamustevabalt otsuseid, mõte hääbub kiiresti.

Võib-olla oli selle arvamuse kõige avalikum räige 2016. aasta ProPublica uurimine, kus jõuti järeldusele, et AI-süsteemi juhtinud andmed, mida kohtunikud kasutasid selleks, et teha kindlaks, kas süüdimõistetud kurjategija paneb tõenäoliselt toime rohkem kuritegusid, näivad olevat erapoolik. COMPAS-na tuntud algoritmi loonud ettevõte Northpointe vaidlustas ProPublica tulemuste tõlgenduse, kuid kokkupõrge on tekitanud nii arutelu kui ka analüüsi selle üle, kui palju peaks isegi kõige nutikamaid masinaid usaldama.

"See on väga kuum teema - kuidas saate algoritme õiglaseks ja usaldusväärseks muuta, " ütleb Daniel Neill. "See on oluline teema."

Neill jõuab nüüd selle arutelu keskele. Carnegie Melloni ülikooli arvutiteadlane, tema ja veel üks teadlane Will Gorr töötasid mitu aastat tagasi välja kuriteoennetuse tarkvaratööriista nimega CrimeScan. Nende algne kontseptsioon oli, et vägivaldne kuritegevus on mõnes mõttes nagu nakkushaigus, et see kipub geograafilistes klastrites puhkema. Samuti jõudsid nad arvamusele, et vähem kuriteod võivad olla vägivaldsemad, seetõttu ehitasid nad algoritmi, kasutades mitmesuguseid „peamiste näitajate” andmeid, sealhulgas teateid kuritegude kohta, nagu lihtsad kallaletungid, vandalism ja korratu käitumine, ning 911 nõuab selliseid asju nagu tulistatud kaadrid või relvaga nähtud inimene. Programm hõlmab ka hooajalisi ja nädalapäeva suundumusi ning lühiajaliste ja pikaajaliste raskete vägivaldsete kuritegude määra.

Idee on jälgida sädemeid enne tulekahju puhkemist. "Vaatleme rohkem väiksemaid kuritegusid, " ütleb Neill. „Lihtsad rünnakud võivad raskendatud raskustes olla rasked. Või võib teil olla kahe jõugu vahelise vägivalla eskaleerimine. ”

Prognoosimine millal ja kus

CrimeScan pole esimene tarkvara, mis on loodud nn ennustava politseitöö jaoks. PredPol-nimelise programmi lõid kaheksa aastat tagasi Los Angelese politseiosakonnaga koostööd tegevad UCLA teadlased, eesmärgiga näha, kuidas kuritegevuse andmete teaduslik analüüs võiks aidata tuvastada kuritegeliku käitumise mustreid. Nüüd, mida kasutab enam kui 60 politseiosakonda üle riigi, tuvastab PredPol naabruses asuvaid piirkondi, kus konkreetsel perioodil leiavad aset rasked kuriteod.

Ettevõte väidab, et tema uuringute kohaselt on kuritegude ennustamisel tarkvara kaks korda täpsem kui inimanalüütikutel. Ükski sõltumatu uuring ei ole neid tulemusi siiski kinnitanud.

Nii PredPol kui ka CrimeScan piiravad oma prognoose sellega, kus kuriteod võivad aset leida, ja väldivad järgmise sammu astumist ennustamaks, kes neid toime panna võivad - vastuolulist lähenemisviisi, mille Chicago linn on üles ehitanud kõige tõenäolisemalt kaasatud inimeste strateegilise subjektide nimekirja ümber. tulevastes tulistamistes kas tulistajana või ohvrina.

Ameerika kodanikuvabaduste liit [ACLU], Brennani justiitskeskus ja mitmesugused kodanikuõigustega tegelevad organisatsioonid on kõik tõstatanud tarkvarale eeldatava eelarvamuse ohu. Politsei tavade ajaloolised andmed, mida kriitikud väidavad, saavad luua tagasisidet, mille kaudu algoritmid teevad otsuseid, mis kajastavad ja tugevdavad suhtumist sellesse, millised naabruskonnad on „halvad“ ja millised - „head“. Seetõttu kannavad peamiselt arreteerimise andmetel põhinevad AI kõrgemat teavet eelarvamuste oht - see kajastab rohkem politsei otsuseid, mitte tegelikke kuritegusid. Näiteks CrimeScan hoiab eemale proovimast ennustada kuritegusid, nagu Neill ütleb: "te leiate ainult siis, kui neid otsite."

"Ma ei saa öelda, et meil pole eelarvamusi, " ütleb Neill, "kuid see on kindlasti rohkem vähenenud kui siis, kui me üritaksime ennustada narkootikumide omamist."

Siis on tagasiside poole teine ​​pool. Kui ennustav vahend suurendab ootusi kuritegude suhtes teatud naabruses, kas seal patrulliv politsei on vahistamiste tegemisel agressiivsem?

"Igasuguse andmepõhise politseitöö korral on reaalne oht unustada, et võrrandi mõlemal küljel on inimesed, " märgib Andrew Ferguson, Columbia linnaosa ülikooli õigusteaduse professor ja artikli autor. raamat „Suurandmete kogumise tõus: jälgimine, rass ja korrakaitse tulevik“. „Ametnikud peavad suutma tõlkida neid ideid, mis viitavad sellele, et eri linnaosade ohud on erinevad. Ja see, et keskendute numbritele, mitte teie ees olevale inimesele, muudab teie suhet nendega. ”

Musta kasti sees

Reaalsus on see, et tehisintellekt mängib rolli - kuigi sageli taustal - paljudes igapäevaelu mõjutavates otsustes - alates ettevõtete abistamisest valimisel, keda palgata, kuni krediidiskoori määramiseni kuni õpetajate hindamiseni. Pole üllatav, et see on intensiivistanud avalikku kontrolli selle üle, kuidas masinõppe algoritme luuakse, milliseid tahtmatuid tagajärgi need põhjustavad ja miks neid üldiselt eriti ei kontrollita.

Alustuseks on suur osa tarkvarast patenteeritud, seega pole algoritmide toimimise taga vähe läbipaistvust. Ja kuna masinõpe muutub keerukamaks, on isegi AI-süsteemi loonud inseneridel üha raskem selgitada selle tehtud valikuid. See läbipaistmatu ja vähese vastutusega otsuste tegemine on tagajärg nn musta kasti algoritmideks.

"Avalikkus ei saa kunagi võimalust selliste süsteemide kasutamist auditeerida ega nende üle arutleda, " ütleb Meredith Whittaker, New Yorgi ülikooli teadusorganisatsiooni AI Now Institute kaasasutaja, kes keskendub AI mõjule ühiskonnas. "Ja tehtud ennustusi reguleerivad andmed ja loogika pole sageli teada isegi neile, kes neid kasutavad, rääkimata inimestest, kelle elu mõjutatakse."

Eelmise aasta sügisel avaldatud aruandes läks AI Now nii kaugele, et soovitas, et ükski riigiasutus, mis vastutab selliste küsimuste eest nagu kriminaalõigus, tervishoid, hoolekanne ja haridus, ei peaks kasutama musta kasti AI-süsteeme. AI Now sõnul on harva tegemist juriidiliste ja eetiliste probleemidega, millele tarkvara loomisel palju tähelepanu pööratakse.

"Nii nagu te ei usaldaks kohtunikku sügava närvivõrgu ehitamisse, peaksime lõpetama eelduse, et inseneri kraadist piisab keerukate otsuste vastuvõtmiseks sellistes valdkondades nagu kriminaalõigus, " ütleb Whittaker.

Teine organisatsioon, demokraatia ja tehnoloogia keskus, on loonud “digitaalsete otsuste” tööriista, mis aitab inseneridel ja arvutiteadlastel luua algoritme, mis annavad õiglaseid ja erapooletuid tulemusi. Tööriist küsib palju küsimusi, mille eesmärk on panna nad oma eeldusi kaaluma ja ettenägematuid pulseerivaid efekte tuvastama.

"Tahtsime anda inimestele konkreetse lähtepunkti mõtlemiseks selliste küsimuste üle, nagu see, kui representatiivsed on nende andmed, millised inimrühmad võivad välja jääda ja kas nende mudeli väljunditel on soovimatud negatiivsed tagajärjed, " ütleb Natasha Duarte, kes jälgib projekti.

Kes vastutab?

Ehkki arendajatele on tehtud pingutusi nende algoritmide võimalike mõjude teadlikumaks muutmiseks, märgivad teised, et ka AI-le tuginevad riigiasutused ja ettevõtted peavad vastutama.

„Rõhk on disaineritel süsteemi mõistmisel. Kuid see puudutab ka süsteemi haldavaid ja rakendavaid inimesi, ”ütleb New Yorgi ülikooli õigusteaduskonna professor Jason Schultz, kes töötab koos AI Now Instituudiga õigus- ja poliitikaküsimustes. "Seal kohtub kumm vastutusega maanteel. AI-d kasutaval valitsusasutusel on kõige suurem vastutus ja nad peavad seda ka mõistma. Kui te ei saa tehnoloogiast aru, ei tohiks te seda kasutada."

Sel eesmärgil edendab AI Now „algoritmilise mõju hindamise“ kasutamist, mis nõuaks riigiasutustelt nende kasutatavate süsteemide avalikustamist ja võimaldaks välistingimustes tegutsevatel teadlastel neid analüüsida võimalike probleemide osas. Politseiosakondade osas peavad mõned õiguseksperdid oluliseks ka seda, et nad selgitaksid selgelt välja, kuidas nad tehnoloogiat kasutavad, ja oleksid nõus seda kohaliku kogukonnaga jagama.

"Kui need süsteemid on kavandatud vastutuse, õigluse ja nõuetekohase menetluse seisukohast, peab süsteemi rakendav isik aru saama, et neil on vastutus, " ütleb Schultz. "Ja kui me kavandame, kuidas me neid rakendame, on üks esimesi küsimusi" Kuhu see politsei käsiraamatus jõuab? " Kui teil pole seda kuskil politsei käsiraamatus, siis astugem samm tagasi, inimesed. "

Andrew Ferguson näeb vajadust selle järele, mida ta nimetab „järelevalve tippkohtumiseks“.

"Vähemalt üks kord aastas peaks igas kohalikus jurisdiktsioonis olema politseitehnoloogia eest vastutuse võtmise hetk, " ütleb ta. „Politseiülem, linnapea või võib-olla linnavolikogu juhataja peaks kogukonnale selgitama, milleks nad maksavad maksumaksja dollareid valve ja tehnoloogia osas, miks nad arvavad, et see on raha hea kasutamine, mida nad mida privaatsus mõjutab, seda auditeerides ja andmeid kaitstes. Ja kogukond oleks seal küsimuste esitamiseks. ”

CrimeScani looja Daniel Neill ütleb, et ta ei vaidlustaks AI tulemuste regulaarse auditeerimise ideed, ehkki ta suhtub sellesse kahtlusega, et seda tehakse enne, kui algoritm on küllalt testitud. Praegu teeb ta koostööd Pittsburghi politseibürooga CrimeScan'i kohtuprotsessil ja vähemalt oli alguses väljakutse "saada õige patrullimise intensiivsus prognoositavate kuumade punktide jaoks".

Tema sõnul on see olnud õppeprotsess, et kohandada CrimeScanit nii, et tänavataseme politseinikud usuvad, et sellest on abi. "Peame näitama, et mitte ainult ei suuda kuritegevust ette näha, vaid ka seda, et suudame seda tegelikult ära hoida, " märgib Neill. "Kui viskate tööriista lihtsalt üle seina ja loodate parimat, ei tööta see kunagi nii hästi."

Ta tunnistab ka ohtu algoritmi liiga palju edasi lükata.

"Tööriist aitab politseiametnikel teha häid otsuseid, " ütleb ta. „Ma ei usu, et masinad peaksid otsuseid langetama. Neid tuleks kasutada otsuste toetamiseks. "

Neill lisab: "Ma saan aru, et praktikas ei juhtu seda pidevalt."

Kuritegevuse ennustamiseks kasutatakse nüüd tehisintellekti. Kuid kas see on erapoolik?