Fino ad oggi si è parlato di Intelligenza Artificiale con i recenti smartphone ma limitatamente a funzione di machine learning o riconoscimento scene in ambito fotografico, con risultati non sempre ottimali. Questo non toglie che si tratti di un ramo importantissimo della moderna tecnologia e che, un suo sviluppo costante, possa portare ad innovazioni in grado di cambiare il nostro stile di vita.
Recentemente Axon, precedentemente nota come Taser, si è lanciata nel mondo dell’Al nel tentativo di trovarne un’applicazione utile a migliorare la vita della gente.
Il nostro ruolo nel settore della pubblica sicurezza si basa sull’innovazione. Guardiamo sempre al futuro. Prima di incaricare qualcuno di occuparsi dell’intelligenza artificiale, Axon si è chiesta per anni quale potrebbe essere l’impatto dell’AI sui clienti. Abbiamo speculato sulle possibilità di applicazione dell’AI alle forze dell’ordine durante i colloqui e nelle nostre comunicazioni. Molte persone, compresi i clienti e il pubblico, ci hanno chiesto di proporre ipotesi relativamente al riconoscimento facciale e al lavoro di polizia predittivo, in quanto la società non aveva ancora pensato a queste cose. Questo non significa che stiamo realizzando, o che realizzeremo, questi progetti.
Dopo l’acquisizione in febbraio di due gruppi di ricerca che si occupano di machine learning, Dextro e Misfit, Axon ha per la prima volta la possibilità di occuparsi dell’intelligenza artificiale e si trova in una posizione ottimale per proporre l’AI per il bene pubblico.
Il team ha individuato nel settore della sicurezza pubblica l’ambito in cui sviluppare e proporre i benefici dell’intelligenza artificiale, in particolar modo si fa riferimento a risolvere e semplificare problemi di privacy per le forze dell’ordine e per i cittadini privati.
E’ così che nasce AI Ethics Board, una sorta di scheda etica gestita da un consiglio per guidare il suo uso dell’intelligenza artificiale. Il consiglio si riunirà due volte l’anno per discutere le implicazioni etiche dei futuri prodotti Axon, in particolare in che modo il loro utilizzo potrebbe influire sulla polizia.
“Con questo in mente, ci stiamo concentrando sulla nostra nuova iniziativa per l’intelligenza artificiale affrontando una delle sfide più formidabili nel settore delle forze dell’ordine: intendiamo eliminare le scartoffie dal campo e triplicare il tempo che gli agenti dedicano al servizio delle comunità. Per raggiungere questo obiettivo, i nostri ricercatori si concentrano su tre aree di investimento:
- Redazione automatizzata per accelerare il processo di condivisione dei filmati con il pubblico, proteggendo la privacy dei cittadini ripresi nel video.
- Trascrizione automatizzata per eliminare le note scritte a mano, consentendo agli agenti di impegnarsi ed entrare in sintonia con la comunità.
- Rapporti automatizzati per compilare registri dei fatti direttamente dal video e dall’audio, in modo che gli agenti possano dedicare più tempo al servizio della comunità.
Ci concentriamo sull’automazione di attività che portano via tempo agli agenti delle forze dell’ordine. Axon non desidera un mondo in cui gli agenti di polizia siano robot. Immaginiamo invece il contrario: eliminando l’onere delle note manuali e le infinite ore di lavoro alla tastiera, gli agenti possono essere presenti, tessere relazioni e rivelarsi più umani. Vogliamo che la nostra tecnologia permetta interazioni più personali per aiutare a costruire comunità più sicure e più forti.”
L’uso del riconoscimento facciale in tempo reale nella polizia è diventato un argomento importante, dal momento che le forze di polizia nel Regno Unito e in Cina iniziano a testare la tecnologia in pubblico. Il Regno Unito ha installato telecamere CCTV con riconoscimento facciale per la ricerca di teppisti alle partite di calcio, mentre la polizia cinese ha integrato la tecnologia in occhiali da sole per scansionare i viaggiatori nelle stazioni ferroviarie.
Il CEO di Axon, Rick Smith, ha affermato in passato che il riconoscimento in tempo reale potrebbe essere utile per casi estremi come rapimenti di minori o caccia all’uomo terrorista.
Ad ogni modo si tratta di una tecnologia che sfrutta un algoritmo di riconoscimento ancora troppo acerbo e con tassi di errore superiore su donne, bambini e uomini di colore. In un contesto di applicazione della legge, tali tassi di errore avrebbero un costo umano grave. I più alti falsi positivi per gli afro-americani porterebbero a più fermi di polizia e più arresti e come ha detto Laura Moy al Washington Post: “Esiste una reale preoccupazione che possa esacerbare il rischio di uso della forza da parte della polizia”
Parlando con The Verge, Tuttle ha sottolineato il desiderio dell’azienda di stare al passo con le preoccupazioni dell’opinione pubblica nei confronti dell’IA. “Chiaramente ci sono algoritmi di IA che avranno enormi abilità in arrivo nei prossimi cinque anni, e vogliamo iniziare a pensarci ora”, ha detto Tuttle. “L’obiettivo generale qui è sviluppare la fiducia del pubblico”.
Carlo Cannarella