Uz svu zapanjujuću učestalost, školske pucnjave ostaju zbunjujući užas.
Ne samo da postoji malo konsenzusa o tome kako ih zaustaviti - s prijedlozima u rasponu od ograničavanja pristupa oružju do nastavnika naoružavanja - nego postoji još manje sigurnosti oko toga zašto bi učenik otvorio vatru na svoje razrednike.
Sada neki znanstvenici počinju istraživati može li umjetna inteligencija (AI) pomoći u pronalaženju odgovora. Ideja je da bi algoritmi mogli bolje analizirati podatke koji se odnose na školske pucnjave i možda čak identificirati obrasce u jeziku ili ponašanju učenika koji bi mogli nagovijestiti školsko nasilje. Istraživanje je još uvijek u ranoj fazi, a mogućnost korištenja strojeva za predviđanje tko bi mogao postati školski strijelac postavlja pitanja privatnosti i druga etička pitanja povezana s bilo kojom vrstom profiliranja, posebice jer bi postupak uključivao djecu. Cilj je, međutim, vidjeti može li analitička snaga inteligentnih strojeva pružiti više jasnoće tragedijama koje se često konzumiraju u vrtlogu visokih emocija i političke retorike.
Prijelaz na tehnologiju
Korištenje umjetne inteligencije kao načina da se znanstvena analiza dovede do nečega što je nedostižno poput školskih pucnjava jako se svidjelo Shreya Nallapati. Upravo je završila srednju školu u Coloradu, no još u veljači, nakon smrti 17 učenika u Parklandu na Floridi, nadahnula ju je voditeljica Emma Gonzalez da poduzme akciju.
"Osjetio sam da ne bismo trebali samo postavljati svoje misli i sućuti", kaže Nallapati. "Mislila sam da kao porast generacije milenijala trebamo pokušati koristiti ono što najbolje znamo - tehnologiju."
Tako je Nallapati, koja u srednjoj školi studira umjetnu inteligenciju, posegnula za drugim mladim ženama koje poznaje kroz program nazvan Aspirations in Computing koji vodi Nacionalni centar za žene i informatičku tehnologiju. Aspiracije u računarstvu potiču mlade žene da uđu u područja računalstva i tehnologije.
Nallapati je zamolila ostale u grupi da joj se pridruže u novom projektu, #NeverAgainTech. Nada se da će zajednički napori rezultirati AI-om prikupljenim i analizama širokog raspona podataka koji se odnose na školske pucnjave - od demografskih i društveno-ekonomskih podataka o prošlim strijelcima, bilo koje povijesti droge ili neuroloških poremećaja, pa sve do dostupnost oružja u državama u kojima je došlo do napada. Cilj je razviti sveobuhvatnije raščlanjivanje mnogih komponenti školskih pucanja od svega što trenutno postoji i sljedeći godina omogućiti dobiveni softver dostupnim javnosti, posebno školama i agencijama za provođenje zakona.
Procjena rizika
Tim istraživača Medicinskog centra za dječje bolnice u Cincinnatiju koristi drugačiji pristup u korištenju AI-ja za suočavanje sa školskim nasiljem. Objavila je nedavnu studiju koja sugerira da strojno učenje potencijalno može pomoći terapeutima i savjetnicima u utvrđivanju razine rizika koju student može predstavljati.
Naime, znanstvenici su otkrili da je AI bio toliko precizan kao tim dječje i adolescentne psihijatrije kada je u pitanju procjena rizika od nasilničkog ponašanja, na temelju intervjua sa 119 djece u dobi od 12 do 18 godina. Dok se studija uglavnom usredotočila na fizičko agresije, glavni istraživač Drew Barzman kaže da je to bilo primjenjivo i za procjenu rizika od pucanja u školi.
"Obično postoje znakovi upozorenja prije nasilja u školi", kaže on. Konkretno, jezik koji student koristi tijekom intervjua može pomoći u razlikovanju visoko rizičnog tinejdžera od one s niskim rizikom, prema prethodnom istraživanju koje je Barzman uputio. Ta studija zaključuje da je veća vjerojatnost da će prva izraziti negativne osjećaje prema sebi i prema djelima drugih. Također je vjerojatnije govorio o nasilnim djelima koja uključuju same sebe i nasilnim video igrama ili filmovima.
Tim je napravio još jedan korak pomoću AI algoritma koji koristi rezultate ranije studije za analizu transkripata učenika intervjuiranih za novo istraživanje. Na temelju jezičnih obrazaca, ukazivalo se je li osoba visok ili nizak rizik od nasilja. Više od 91 posto vremena algoritam se, koristeći samo transkripte, usklađivao s opširnijim procjenama tima dječjih i adolescentnih psihijatara koji su također imali pristup informacijama od roditelja i škola.
Studenti su u velikoj mjeri zapošljavani iz psihijatrijskih ambulanti, bolničkih i hitnih odjeljenja. Neki su nedavno pokazali velike promjene u ponašanju, ali za druge su te promjene bile manje. Barzman kaže da su pohađali različite škole, iako nijedna nije bila kućna škola.
Prema Barzmanu, studija se fokusirala na predviđanje fizičke agresije u školi, ali još uvijek se ne zna može li strojno učenje zapravo spriječiti nasilje. Fokus u ovom trenutku je pružiti terapeutima i savjetnicima alat koji bi mogao pooštriti njihove procjene studenata na temelju intervjua. Namjera, napominje Barzman, nije da strojevi donose odluke o studentima.
"To bi u osnovi značilo pomoć kliničaru u njegovoj odluci", kaže Barzman. "Pružali bismo im strukturu onoga za što smo smatrali da je važno pitanje. Može biti teško intervjuirati učenika, odabrati prave informacije i zapamtiti sve. Ideja je dati im alat koji im može pomoći kroz postupak i povećati točnost njihovih procjena. "
Matty Squarzoni još je jedan vjernik potencijala umjetne inteligencije u rješavanju nasilja u školi. On je izvršni direktor kalifornijskog startapa pod nazivom Sitch AI, koji planira plasirati tehnologiju za koju kaže da bi mogla pomoći školama u suočavanju s takvim prijetnjama. Početni fokus bit će na razvoju sustava senzora koji će policajcima omogućiti precizno otkrivanje mjesta pucanja, kao i praćenje kretanja strijelca kroz školu. No, Squarzoni kaže kako kompanija također razmatra načine pomoću prediktivne analize kako bi uočio potencijalne probleme prije nego što postanu nasilni.
Vjeruje da bi umjetna inteligencija mogla analizirati podatke učenika i primijetiti značajne promjene u njegovom djelovanju ili ponašanju. Squarzoni priznaje potencijalnu zabrinutost zbog privatnosti, ali kaže da tvrtka ne bi znala identitet studenata.
"Ne govorimo o stvaranju profila", kaže on. "Na svaku bismo osobu gledali kao na jedinstven entitet. Ali ljudi su stvorenja u navikama. Kad počnu imati nepravilnosti, tada ih počnete gledati. Zamijetite zastave i možda se zastave počnu približavati i približavati. Mogle bi biti problema s mentalnim zdravljem ili možda njihove ocjene opadaju.
"Ne gledamo kako bismo mogli reći:" Ova osoba će biti strijelac. " Želimo biti u mogućnosti reći: "Ovoj osobi treba pomoć". "
Ne tako brzo?
Ali drugi su ozbiljno zabrinuti zbog žurbe s korištenjem softverskih algoritama za rješavanje složenih društvenih problema.
"Sada primjećujemo trend primjene AI na vrlo osjetljive domene alarmantnom brzinom, a ljudi koji izrađuju te algoritme ne razumiju nužno sve društvene, pa čak i političke aspekte podataka koje koriste", kaže Rashida Richardson, direktorica istraživanja istraživanja na AI Now Institute, programu na Sveučilištu New York koji proučava društvene implikacije umjetne inteligencije.
Jedno područje u kojem je upotreba AI zapao je ono što nazivamo prediktivnim policijskim radom. Riječ je o softverskim proizvodima koji analiziraju statistiku kriminala, a zatim predviđaju gdje je vjerojatnije da će počiniti zločine. No kritičari ističu da podaci poput uhićenja mogu biti rezultat ljudske pristranosti koja se u konačnici može upasti u algoritam.
To je uvijek rizik prediktivne analize i zašto je izvor podataka ključni faktor u određivanju koliko on zapravo može biti. S obzirom na to da su istraživači AIN-a razvijeni od strane istraživača Dječje bolnice u Cincinnatiju, analiza se temelji na onome što pojedini studenti kažu tokom intervjua, a ne na širokom sakupljanju statistika.
Ipak, Richardson vjeruje da je važno da timovi koji stvaraju ovakav softver budu "interdisciplinarni", tako da su npr. Nastavnici uključeni u programe koji procjenjuju ponašanje učenika.
„Istraživači možda ne razumiju mnogo nijansi onoga što ljudi u svijetu obrazovanja i pravne politike nazivaju školskom klimom. To uključuje pitanja sigurnosti i ponašanja ", kaže ona. „Vrsta škole u kojoj sudjelujete često će diktirati kako se ponašati i kako se s njim postupa.
"Na primjer, ustanovilo se da u charter školama postoje strože disciplinske politike", dodaje Richardson. „Djeca u tom okruženju tretirat će se puno drugačije nego u višoj privatnoj školi, pa čak iu različitim sredinama u javnim školama.
„Pokušaj razumijevanja vrlo složenih pitanja koja imaju bezbroj inputa i primjena tehnološkog rješenja koje odražava njegov djelić problema je problem, jer može ponoviti iste probleme koje vidimo u društvu ili stvoriti rješenje za problem koji tamo nema. ”
Richardson kaže da je još jedna zabrinutost da čak i ako se AI program razvija s najboljim namjerama, može se koristiti na načine koji njegovi tvorci nisu predvidjeli.
"Jednom kada nađete ove alate", kaže ona, "nije kao da i dalje imate kontrolu nad načinom provedbe ili kako će i dalje utjecati na društvo u cjelini."