https://frosthead.com

L'intelligenza artificiale può aiutare a fermare le riprese a scuola?

Nonostante la loro straordinaria frequenza, le sparatorie a scuola rimangono un orrore confondente.

Non solo c'è poco consenso su come fermarli - con suggerimenti che vanno dalla limitazione dell'accesso alle armi agli insegnanti armati - ma c'è anche meno certezza sul perché uno studente avrebbe aperto il fuoco sui suoi compagni di classe.

Ora, alcuni scienziati stanno iniziando a scoprire se l'intelligenza artificiale (AI) potrebbe aiutare a trovare le risposte. L'idea è che gli algoritmi potrebbero essere in grado di analizzare meglio i dati relativi alle sparatorie a scuola e forse persino identificare modelli nella lingua o nel comportamento degli studenti che potrebbero prefigurare la violenza nelle scuole. La ricerca è ancora agli inizi e la prospettiva di utilizzare le macchine per prevedere chi potrebbe diventare un tiratore della scuola solleva problemi di privacy e altre questioni etiche associate a qualsiasi tipo di profilazione, in particolare dal momento che il processo coinvolgerebbe i bambini. L'obiettivo, tuttavia, è vedere se il potere analitico delle macchine intelligenti può fornire maggiore chiarezza alle tragedie troppo spesso consumate in un vortice di forti emozioni e retorica politica.

Passando alla tecnologia

Usare l'intelligenza artificiale come un modo per portare l'analisi scientifica a qualcosa di insondabile come le sparatorie nelle scuole ha fatto molto appello a Shreya Nallapati. Si è appena diplomata al liceo in Colorado, ma a febbraio, dopo la morte sparata di 17 studenti a Parkland, in Florida, è stata ispirata dalla studentessa Emma Gonzalez ad agire.

"Sentivo che non dovevamo solo pubblicare i nostri pensieri e le nostre condoglianze", afferma Nallapati. "Pensavo che come una generazione in aumento di millennial, dovremmo cercare di utilizzare ciò che conosciamo meglio: la tecnologia."

Così Nallapati, che ha studiato intelligenza artificiale al liceo, ha contattato altre giovani donne che conosce attraverso un programma chiamato Aspirations in Computing gestito dal National Center for Women & Information Technology. Aspirazioni in Informatica incoraggia le giovani donne ad entrare nei campi dell'informatica e della tecnologia.

Nallapati ha chiesto ad altri membri del gruppo di unirsi a lei in un nuovo progetto, #NeverAgainTech. Spera che lo sforzo collaborativo si tradurrà in una raccolta e analisi basate sull'intelligenza artificiale di una vasta gamma di dati relativi alle sparatorie a scuola - dalle informazioni demografiche e socio-economiche sui tiratori passati, a qualsiasi storia di uso di droghe o disturbi neurologici, al disponibilità di pistole negli stati in cui si sono verificati gli attacchi. L'obiettivo è quello di sviluppare una ripartizione più completa delle molte componenti delle sparatorie nelle scuole rispetto a qualsiasi cosa sia attualmente esistente e rendere il software risultante disponibile al pubblico, in particolare le scuole e le forze dell'ordine, l'anno prossimo.

Valutazione del rischio

Un team di ricercatori del Cincinnati Children's Hospital Medical Center sta adottando un approccio diverso nell'utilizzo dell'IA per affrontare la violenza nelle scuole. Ha pubblicato uno studio recente che suggerisce che l'apprendimento automatico potrebbe potenzialmente aiutare terapisti e consulenti a discernere il livello di rischio che uno studente può presentare.

In particolare, gli scienziati hanno scoperto che l'IA era accurata come un team di psichiatri infantili e adolescenti quando si trattava di valutare il rischio di comportamenti violenti, sulla base di interviste con 119 bambini di età compresa tra 12 e 18 anni. aggressione, il ricercatore capo Drew Barzman afferma che era applicabile anche alla valutazione del rischio di sparatorie nelle scuole.

"Di solito ci sono segnali di avvertimento prima della violenza nelle scuole", afferma. In particolare, la lingua utilizzata da uno studente durante un colloquio può aiutare a distinguere un adolescente ad alto rischio da uno a basso rischio, secondo una precedente ricerca diretta da Barzman. Lo studio ha concluso che il primo aveva maggiori probabilità di esprimere sentimenti negativi su se stesso e sugli atti degli altri. Era anche più probabile che parlasse di atti violenti che coinvolgono se stesso e di videogiochi o film violenti.

Il team ha fatto un altro passo con un algoritmo AI che utilizza i risultati dello studio precedente per analizzare le trascrizioni degli studenti intervistati per la nuova ricerca. Basato su modelli linguistici, indicava se una persona era ad alto o basso rischio di commettere violenza. Più del 91 percento delle volte, l'algoritmo, usando solo i transciripti, si allineava alle valutazioni più approfondite di una squadra di psichiatri infantili e adolescenti, che avevano anche accesso alle informazioni di genitori e scuole.

Gli studenti dello studio sono stati in gran parte reclutati da cliniche ambulatoriali di psichiatria, unità di degenza e dipartimenti di emergenza. Alcuni avevano recentemente mostrato importanti cambiamenti comportamentali, ma per altri i cambiamenti erano più lievi. Barzman afferma di aver frequentato una vasta gamma di scuole, sebbene nessuna fosse a scuola.

Secondo Barzman, lo studio si è concentrato sulla previsione dell'aggressione fisica a scuola, ma non è ancora noto se l'apprendimento automatico potrebbe effettivamente prevenire la violenza. L'attenzione a questo punto è fornire a terapisti e consulenti uno strumento che possa affinare le loro valutazioni degli studenti sulla base di interviste. L'intento, osserva Barzman, non è che le macchine prendano decisioni sugli studenti.

"Fondamentalmente avrebbe lo scopo di aiutare il clinico nel suo processo decisionale", afferma Barzman. "Vorremmo fornire loro una struttura di quelle che abbiamo scoperto essere domande importanti. Può essere difficile intervistare uno studente, scegliere le informazioni giuste e ricordare tutto. L'idea è quella di fornire loro uno strumento che possa aiutarli attraverso il processo e aumentare l'accuratezza delle loro valutazioni ".

Matty Squarzoni è un altro credente nel potenziale dell'intelligenza artificiale nell'affrontare la violenza nelle scuole. È CEO di una startup californiana chiamata Sitch AI, che ha in programma di commercializzare la tecnologia che secondo lui potrebbe aiutare le scuole a gestire tali minacce. L'attenzione iniziale sarà sullo sviluppo di un sistema di sensori che consentirà agli agenti di polizia di individuare la posizione precisa degli spari e di monitorare i movimenti di un tiratore attraverso una scuola. Ma Squarzoni afferma che l'azienda sta anche cercando dei modi per utilizzare l'analisi predittiva per individuare potenziali problemi prima che diventino violenti.

Crede che l'intelligenza artificiale potrebbe analizzare i dati di uno studente e segnalare notevoli cambiamenti nelle sue prestazioni o nel suo comportamento. Squarzoni riconosce potenziali preoccupazioni sulla privacy, ma afferma che la società non conoscerebbe l'identità degli studenti.

"Non stiamo parlando di creare profili", afferma. “Guarderemmo ogni persona come un'entità unica. Ma gli umani sono creature abituali. Quando iniziano ad avere irregolarità, è allora che inizi a guardarle. Individua le bandiere e forse le bandiere iniziano ad avvicinarsi sempre di più. Potrebbero essere problemi di salute mentale, o forse i loro voti stanno calando.

"Non stiamo cercando di poter dire: 'Questa persona diventerà un tiratore". Vogliamo poter dire "Questa persona ha bisogno di aiuto". "

Non così in fretta?

Ma altri hanno serie preoccupazioni sulla fretta di utilizzare algoritmi software per affrontare complesse questioni sociali.

"Stiamo assistendo a una tendenza dell'IA applicata a domini molto sensibili a velocità allarmanti e le persone che realizzano questi algoritmi non comprendono necessariamente tutti gli aspetti sociali e persino politici dei dati che stanno utilizzando", afferma Rashida Richardson, direttore della ricerca politica presso l'IA Now Institute, un programma della New York University che studia le implicazioni sociali dell'intelligenza artificiale.

Un'area in cui l'uso dell'IA è stato messo a fuoco è quella che è nota come polizia preventiva. Si tratta di prodotti software che analizzano le statistiche sulla criminalità e quindi prevedono dove è più probabile che vengano commessi reati. Ma i critici sottolineano che dati come gli arresti possono essere il risultato di un pregiudizio umano, che alla fine può essere inserito nell'algoritmo.

Questo è sempre un rischio di analisi predittiva e il motivo per cui la fonte dei dati è un fattore chiave nel determinare quanto possano essere effettivamente obiettivi. Con lo strumento AI sviluppato dai ricercatori dell'ospedale pediatrico di Cincinnati, tuttavia, l'analisi si basa su ciò che i singoli studenti dicono durante un'intervista, piuttosto che su un'ampia raccolta di statistiche.

Tuttavia, Richardson ritiene importante che i team che creano questo tipo di software siano "interdisciplinari", in modo che gli educatori, ad esempio, siano coinvolti in programmi che valutano il comportamento degli studenti.

“I ricercatori potrebbero non capire molte sfumature di ciò che le persone nel mondo dell'istruzione e della politica legale chiamano clima scolastico. Ciò include problemi di sicurezza e comportamentali ", afferma. “Il tipo di scuola in cui ti trovi spesso detterà il modo in cui viene affrontato il comportamento e come viene gestita la disciplina.

"Ad esempio, è stato scoperto che le scuole charter hanno politiche disciplinari molto più rigorose", aggiunge Richardson. “I bambini in quell'ambiente verranno trattati in modo molto diverso rispetto a una scuola privata di alto livello e persino in diversi contesti di scuola pubblica.

“Cercare di comprendere questioni molto complicate che hanno una miriade di input e applicare una soluzione tecnologica che ne rifletta una parte è un problema perché può o reiterare gli stessi problemi che vediamo nella società o creare una soluzione per un problema che non c'è. ”

Richardson afferma che un'altra preoccupazione è che anche se un programma di intelligenza artificiale viene sviluppato con le migliori intenzioni, può finire per essere utilizzato in modi non previsti dai suoi creatori.

"Una volta che hai escogitato questi strumenti", afferma, "non è che continui ad avere il controllo su come vengono implementati o su come continueranno a influenzare la società in generale".

L'intelligenza artificiale può aiutare a fermare le riprese a scuola?