Articolo su Fortuneita.com
La proposta di Regolamento europeo per l’intelligenza artificiale pubblicata il 21 aprile può essere considerata sicuramente un primo tentativo di fare ordine nella materia, ma sono tanti gli aspetti che necessitano di correzioni o maggiori approfondimenti. Soprattutto sul delicato terreno del rapporto tra i benefici che può portare e il rischio di discriminazioni, l’uso dei dati biometrici o la tutela dei lavoratori. E’ quanto è emerso in un dibattito promosso dal deputato Alessandro Fusacchia e dall’Intergruppo parlamentare su A.I.
La proposta di regolamento riuscirà a tutelare i diritti fondamentali ? E’ questa la domanda che Felicia Pelagalli ha posto ai protagonisti del panel moderato per Fortune Italia e che ha visto confrontarsi sia esperti che parlamentari.
Quella presentata dalla Commissione è a suo modo una proposta storica e l’Europa è il primo continente a tentare di dotarsi di una legislazione in materia. Ma per Diletta Huyskes di Privacy Network, bisogna ricordare che “spesso si associa la tecnologia a una semplificazione automatica, senza considerare i gravi rischi che può comportare”, amplificando le discriminazioni per ragioni di sesso, etnia o età. Basti pensare, per esempio, al recruting e ai processi di assunzione – spiega – che possono scartare automaticamente dei curriculum perché appartenenti a dei giovani perché hanno meno titoli. Per Huyskes è importante il tema della governance dei dati ma “è una visione limitata. Ricordare che i dati non sono neutri è un passo in avanti ma non è colpa solo dei dati. Il problema è culturale e non basterà un regolamento a mitigare questi rischi”.
Laura Carrer dell’Hermes centre sottolinea invece i problemi connessi al riconoscimento dei dati biometrici. A suo giudizio, l’A.I. act è “un passo avanti ma spesso è vaga e vari elementi non sono definiti in maniera precisa, lasciando ampio spazio di discrezione”. Questo, dice, può portare al rischio di passare da “una sorveglianza mirata a una generalizzata”. Inoltre, osserva, “la proposta Ue non considera altri attori come autorità governative o aziende e per noi è grande mancanza”.
Si sofferma sulla tutela dei lavoratori Valerio De Stefano dell’Università di Loviano. “Il regolamento solleva più problemi di quanti non ne risolva in tema di tutela dei lavoratori” dal momento che “sembra dare per scontato che i metodi di sorveglianza dovrebbero essere ammessi purché regolamentati e invece questo è un dibattito che non abbiamo mai fatto e che dovremmo fare”. Secondo De Stefano, inoltre “il regolamento europeo rischia di essere il soffitto e non il pavimento della protezione” e “se viene approvato così com’è, si rischia che alcune legislazioni nazionali che magari danno più protezione, vengano considerate incompatibili e quindi disapplicate dal giudice”.
Fabio Chiusi di AlgorithmWatch pone soprattutto il problema della trasparenza. Questi sistemi, dice, “non sono trasparenti, è difficile sapere come funzionano, e spesso sapere persino se esistono”. A suo giudizio l’idea del data base è “un buono spunto” ma non può comprendere solo sistemi ad alto rischio.
Il tema dei diritti è stato discusso nello stesso panel anche dai parlamentari che, con Alessandro Fusacchia, fanno parte dell’Intergruppo e che sembrano un po’ più ‘benevoli’ nei confronti della proposta della commissione. Per Federico Mollicone di Fratelli d’Italia è “fondamentale sostenere la necessità di questo regolamento europeo”, bisogna “evitare di scivolare verso il dataismo” ed è “necessario garantire diritti sulle piattaforme ma non ci possiamo permettere di vivere nell’era dell’algocrazia”. Secondo la deputata dem Enza Bruno Bossio è giusto approntare un regolamento, è giusta l’attenzione su elementi discriminatori “ma non bisogna dimenticare nemmeno il potenziale dell’intelligenza artificiale”. Un approccio che viene condiviso dal suo collega di partito Filippo Sensi che ha presentato una proposta di legge per chiedere una moratoria sull’uso dei sistemi di videosorveglianza con riconoscimento facciale per dare tempo al Parlamento di legiferare. “Chiedo ai colleghi dell’intergruppo di spingere perché questa pdl venga discussa alla Camera”. Infine la senatrice M5s Laura Mantovani pone il tema delle competenze. “Senza competenze di base e avanzate siamo come analfabeti nel ventunesimo secolo. E gli analfabeti sono persone che rischiano di vedere i propri diritti calpestati. Per questo c’è il dovere morale di chi ha conoscenze di eventuali distorsioni, di prevenire illeciti e possibili danneggiamenti non solo per dolo ma anche per colpa”. A suo giudizio, quindi, A.I. “deve essere considerato come un diritto umano”.