Frontiere Algoritmiche. Profiling e prevenzione dei rischi attraverso l'analisi dei dati dei viaggiatori


Docenti di studi internazionali dell'Università di Trento
Di Georgios Glouftsios (assegnista di ricerca, Scuola di Studi Internazionali, Università degli Studi di Trento)
Immaginate di voler viaggiare in aereo da Milano a Parigi (o un'altra città europea) per visitare un amico che non vedete da molto tempo. Un mese prima del viaggio, fate una prenotazione online. Scegliete un volo di prima mattina, perché il vostro amico vuole venire a prendervi dall' aeroporto prima del lavoro. Per prenotare il volo, fornite i vostri dati personali: nome, cognome, indirizzo e-mail, numero di telefono. Prenotate un posto vicino al finestrino e selezionate un bagaglio. Infine, pagate con carta di credito.
Tutte le decisioni che prendete per il vostro viaggio (itinerario, bagagli, numero di posto, ecc.) e le informazioni personali che fornite per effettuare la prenotazione (nome, informazioni di contatto, dettagli della carta di credito, ecc.) vengono trasformate in dati digitali memorizzati nel sistema di prenotazione della compagnia aerea. Questi dati formano il vostro “Passenger Name Record” (Pnr), necessario alla compagnia aerea per gestire la vostra prenotazione. Ma quello che forse non sapete è che - secondo la direttiva Pnr dell'UE adottata nel 2016 - i Pnr vengono analizzati attraverso sistemi algoritmici dalle autorità di sicurezza per individuare i passeggeri che, potenzialmente, possono rappresentare rischi legati a criminalità e terrorismo. Diciamo che avete prenotato un posto al finestrino perché vi piace guardare il cielo mentre viaggiate: se il posto accanto a voi è stato prenotato da qualcuno che è noto alle autorità per il suo coinvolgimento in una organizzazione criminale, anche voi potreste diventare un sospetto.
La direttiva Pnr dell'Ue ha dato il via libera alla creazione di sistemi di sorveglianza dei viaggi aerei in tutta Europa che elaborano dati Pnr su milioni di passeggeri. I dati Pnr sono trasmessi dalle compagnie aeree alle autorità di sicurezza (le cosiddette “Passenger Information Units”) da 24 a 48 ore prima dell'orario di partenza dei voli, così come immediatamente dopo il completamento del processo di imbarco. I dati Pnr vengono poi analizzati per individuare i viaggiatori sospetti e produrre informazioni rilevanti per indagini di polizia. I dati Pnr promettono di rendere note le intenzioni dei viaggiatori in modo da prevenire futuri rischi di terrorismo e criminalità prima che si concretizzino nel presente. In questo senso, sono dati rilevanti per la cosiddetta polizia predittiva (predictive policing), che si basa sull'analisi di grandi quantità di dati per anticipare e prevenire i rischi, e per arrestare criminali e terroristi prima che colpiscano.
Uno dei modi in cui i dati Pnr vengono analizzati è per la creazione e l'aggiornamento di profili di rischio in base ai quali i passeggeri vengono controllati prima del loro viaggio. Un esempio di profilo sospetto potrebbe essere quello di un uomo sotto i 30 anni, che ha pagato il biglietto in contanti, che viaggia da una città dove opera un network di contrabbando, con più di 25 kg di bagagli, volando a tarda notte e senza aver prenotato un biglietto di ritorno. Questo è solo un esempio fittizio. Nella realtà, i profili sono più specifici e dettagliati. Si basano sulla conoscenza delle tendenze e dei pattern del crimine. La creazione dei profili è fatta sulla base di informazioni provenienti da indagini di polizia passate e in corso, e questi profili sono aggiornati regolarmente, perché il modus operandi delle organizzazioni criminali cambia. I passeggeri il cui comportamento o la cui logistica di viaggio corrisponde a un profilo sospetto sono individuati e fermati negli aeroporti, prima dell'imbarco o immediatamente dopo il loro arrivo. Questo inverte la presunzione di innocenza nei confronti dei passeggeri, che vengono fermati negli aeroporti non perché ci sono evidenze che abbiano commesso un reato in passato, ma perché i loro dati corrispondono a un profilo in base al quale si deduce che sono sospetti.
In generale, il profiling è una tecnica di polizia controversa, perché può risultare in controlli distorti che discriminano sulla base di categorie come razza, etnia, sesso e religione. La direttiva Pnr dell'UE proibisce l'uso di tali categorie discriminatorie nei profili usati per controllare i passeggeri. Tali divieti sono importanti per le nostre democrazie, e possono essere applicati perché i profili sono attualmente creati manualmente da unità di polizia specializzate in ogni Stato membro dell'UE. La creazione manuale dei profili significa che le autorità responsabili della protezione dei dati possono valutare se un profilo è discriminatorio.
Tuttavia, gli sviluppi futuri delle tecnologie di machine learning e dell'intelligenza artificiale potrebbero portare alla costruzione automatica di profili attraverso l'identificazione di pattern e correlazioni in grandi quantità di dati Pnr. Dovremmo essere molto attenti a questo potenziale sviluppo futuro principalmente per una ragione: anche i più abili ingegneri informatici non possono sempre capire il funzionamento preciso dei sistemi di machine learning. Ciò significa che non sarà facile valutare se i profili generati automaticamente e utilizzati per controllare i passeggeri siano discriminatori o meno.
Quando le autorità fermano e arrestano qualcuno all'aeroporto, dovrebbero essere in grado di spiegare perché l'hanno fatto. Questa spiegazione potrebbe non essere possibile a causa della complessità degli strumenti algoritmici di analisi dei dati. Questo non significa che i sistemi di machine learning siano intrinsecamente problematici. Per esempio, sulla base dei nostri profili come spettatori, gli algoritmi di machine learning sono utilizzati per fare predizioni automatiche e suggerire film su Netflix che potrebbero piacerci. Ma le previsioni sui film non hanno lo stesso impatto sulla nostra vita delle previsioni su crimine o terrorismo. Il fatto che gli strumenti di machine-learning per l'analisi dei dati siano disponibili sul mercato e sono utilizzati in altri settori, non significa necessariamente che debbano essere utilizzati per scopi di sicurezza, almeno non senza stabilire prima quadri normativi e legali per evitare previsioni distorte che si basano su profili discriminatori.