L’Ucraina ha iniziato ad utilizzare il sistema di riconoscimento facciale di Clearview AI.
Clearview AI è un software che estrae immagini dai social media e da altre piattaforme, recentemente oggetto di pesanti critiche da parte di diversi Paesi europei, compresa l’Italia. Secondo un’indiscrezione di Reuters, la società americana ha offerto gratuitamente i suoi servizi al ministero della Difesa ucraino, consentendo l’accesso ad un enorme database di volti, 10 miliardi in totale, di cui più di 2 miliardi di immagini provenienti dal social media russo VKontakte.
Questo database, come viene affermato ufficialmente, può aiutare l’Ucraina ad identificare i corpi, anche quelli più martoriati, può essere utilizzato per riunire i rifugiati separati dalle famiglie; ma anche per controllare persone di interesse ai posti di blocco, identificare gli agenti russi e aiutare il governo a smascherare i fake relativi alla guerra sui social media.
L’uso dell’Intelligenza Artificiale in contesti di sicurezza non è una novità: Amazon, Google e Microsoft hanno sviluppato progetti di riconoscimento facciale per i governi, creando un polverone mediatico e appelli delle società per i diritti umani, a cui sono seguiti ripensamenti e riposizionamenti. Diversi studi hanno poi dimostrato che i sistemi di comparazione delle immagini dei volti usati dalle forze dell’ordine non sono precisi e spesso incentivano la discriminazione razziale.
L’uso in campo bellico o per sicurezza del sistema di riconoscimento facciale Clearview AI apre scenari inquietanti: diversi studi hanno dimostrato che i sistemi di intelligenza artificiale forniscono a volte indicazioni errate, circostanza preoccupante se contestualizzata in un ambito di guerra e di confusione.
La società commerciale vede quello militare come un mercato potenziale per espandere il suo business, ma rimangono molte questioni irrisolte. Clearview AI, nata nel 2017, è stata spesso criticata per violazioni della privacy dei dati in molti paesi del mondo. La difesa principale della società riguarda il fatto che il materiale raccolto sui social media sarebbe messo in rete a disposizione del pubblico da parte dei diretti interessati, quindi con un consenso implicito all’utilizzo: ma il software raccoglie anche altri dati, oltre a quelli degli iscritti sulle varie piattaforme. Basti pensare a tutti i soggetti che nelle foto compaiono perché inquadrati accidentalmente, o sullo sfondo.
L’Italia ha già multato la società per 20 milioni di euro, per aver violato le leggi sulla privacy dei consumatori Ue, ed ha ordinato di cancellare tutti i suoi dati sui residenti in Italia. L’Ufficio del Commissario per le informazioni del Regno Unito ha ordinato alla società di interrompere l’elaborazione di tutti i dati degli utenti a novembre, la Francia ha emesso un ordine simile a dicembre.