È sufficiente modificare un pixel, aggiungere un adesivo o trasmettere un suono imprevisto per imbrogliare un’intelligenza artificiale. Eppure le tecnologie basate sul machine learning, capaci quindi di apprendere da sole le regole che dovranno rispettare, sono considerate il futuro dell’evoluzione tecnologica. Se non il presente, dove già sbrigano compiti di estrema delicatezza come la verifica della solvibilità di un cliente bancario o la scelta se fermare o meno un’automobile a guida autonoma al semaforo. Pregiudizi degli algoritmi che oggi non solo sono difficili da risolvere ma anche da comprendere, come ha spiegato al Messaggero Alexey Malanov, esperto di sicurezza informatica di Kaspersky.
Ma la “discriminazione”, precisa lo stesso Malanov, può riguardare anche fattori biologici, come il colore della pelle. Un esempio è la capacità dei sistemi di riconoscimento facciale di distinguere correttamente un uomo da una donna, un afroamericano da un caucasico. Giudizi e pregiudizi ormai ampiamente superati dalla società civile (o almeno da gran parte di essa), ma che si manifestano in tutta la loro importanza negli archivi di dati che vengono utilizzati per istruire i computer, nei quali la presenza di soggetti femminili o dalla pelle scura è statisticamente minore.
È per questo che, per esempio, un’automobile a guida autonoma ha molte più probabilità di investire un pedone nero, come ha dimostrato una ricerca condotta dal Georgia Institute of Technology. La “falla” in questo caso è prettamente statistica e riguarda l’opportunità data a una macchina di apprendere in modo sufficientemente accurato come riconoscere persone con una carnagione statisticamente meno presente negli archivi che costituiscono il materiale di studio del computer. Un problema finora per lo più teorico, guardando alle automobili a guida autonoma, ma che diventa più tangibile quando si arriva al riconoscimento facciale, sempre più adottato dalle forze dell’ordine di tutto il mondo.
Ancora acerbe e scarsamente soddisfacenti (dimostrato in uno studio condotto nel Regno Unito), tali tecnologie hanno manifestato i propri limiti negli anni, ma continuano ad attirare nuovi utilizzatori con la promessa di un miglioramento che finora nessuno è stato in grado di realizzare (per esempio il governo indiano, intenzionato a creare il più grande network per il riconoscimento facciale in un Paese democratico). Ora come ora, ha detto Malanov, l’aspetto più preoccupante è la discriminazione del machine learning, un aspetto “molto difficile da comprendere e testare, ma soprattutto da risolvere”.
Ma come in ogni sistema informatico, un difetto può diventare una vulnerabilità, facilmente sfruttabile da un hacker per condizionarne le decisioni e prenderne il controllo. Nulla di nuovo fin qui: il principio stesso dell’hacking è strettamente collegato al trovare le fragilità di una macchina, portandola a compiere azioni per le quali non era stata programmata o che non erano previste. Un esempio? Una macchina a guida autonoma che, avvicinandosi a uno stop accelera, invece di fermarsi. Per farlo è sufficiente applicare sulla segnaletica dei piccoli adesivi di forma rettangolare, in grado di far scambiare il cartello “Stop” per uno che indica il “limite di velocità di 45 miglia orarie”, come dimostra uno studio pubblicato da un gruppo di ricercatori di quattro università statunitensi nel 2018.
Ancora automobili: ma se a imbrogliare le telecamere intelligenti fosse un pericoloso criminale? In quel caso i piccoli adesivi possono essere appiccicati alle lenti degli occhiali o al cappello che si indossa, come dimostra un’altra ricerca che ha messo in difficoltà l’algoritmo di ArcFace, considerato il più evoluto sul mercato del riconoscimento facciale.
Stratagemmi che non sfuggiranno di certo a chi ha un attivo interesse a eludere la sorveglianza di una telecamera della polizia. Lasciando l’onere della perquisizione a chi non ha nulla da nascondere: è il caso del riconoscimento facciale di Scotland Yard, che al passaggio di quarantaquattro persone, scansionate da una telecamera di sorveglianza, ne ha fermate ben ventidue, durante un esperimento di monitoraggio condotto dall’Università dell’Essex. Purtroppo però, di quei ventidue, solo otto erano veramente persone d’interesse delle forze dell’ordine. Quattro errori ogni cinque controlli.
Questi errori, precisa Malanov, sono ciò a cui vanno incontro le intelligenze artificiali, che oggi sono già impiegate nell’assegnazione di un punteggio per valutare le richieste di mutuo o per scegliere il candidato migliore per l’assunzione nelle aziende. “La discriminazione cominceremo davvero a vederla nel futuro più prossimo, quando un sacco di persone inizieranno a perdere il proprio lavoro”. Conseguenza evitabile, fintanto che dietro alla macchina l’essere umano avrà l’ultima parola.
Se avete correzioni, suggerimenti o commenti scrivete a dir@agi.it