Regolamento intelligenza artificiale, un parere

0 Commenti
356 Visualizzazioni
Autore: Diego Dimalta

DISCLAIMER: le considerazioni di questo articolo sono fatte sulla base di una bozza di regolamento risalente a gennaio 2021, e potrebbero risultare obsolete dopo la pubblicazione del testo definitivo (21 aprile 2021).

Dopo aver svolto una prima analisi della bozza di regolamento, vorrei riportare alcune impressioni soggettive che mi ha suscitato. Prima di scrivere questo articolo ho voluto quindi far passare qualche giorno, per far sedimentare correttamente le idee.

Oggi posso dire che il Regolamento sull’ Intelligenza Artificiale che, ricordiamolo, è arrivato al grande pubblico in una versione draft suscettibile di modifiche (anche importanti), pur essendo una norma sicuramente di grande pregio, ha in parte deluso.

Per spiegare il motivo potrei fare un’analogia con il mondo cinematografico, a me molto caro.

Se il GDPR è stato un blockbuster di successo, il Regolamento AI sembra una sorta di sequel/spin-off che, pur riprendendo schemi collaudati, non ha saputo rispettare lo spirito del suo predecessore.

Il grande pregio del GDPR, elemento che ne ha determinato il successo, era il fatto di essere una norma visionaria, capace di anticipare i problemi.

Questo aspetto manca molto nel Regolamento AI, ove è palese l’intento di cercare di arginare problemi già esistenti, lasciando aperte (spalancate) porte che consentiranno comunque in futuro di servirsi di tecnologie di intelligenza artificiale anche per finalità poco condivisibili.

Il riferimento in particolare va all’art. 4, che vieta tutta una serie di tecnologie di intelligenza artificiale ad alto rischio, salvo poi consentirne l’utilizzo se previsto per legge.

È buffo come in molti abbiano esultato sui vari canali social per il divieto all’utilizzo di tecnologie rischiose, senza poi però evidenziare che le stesse potrebbero comunque essere usate se previsto per legge, da parte delle pubbliche amministrazioni.

Recita infatti il comma 2 del medesimo articolo:

“The prohibition under paragraph 1, point (a), (b) and (c) shall not apply when such practices  are authorised by law and are carried out by public authorities”

Ora, questa clausola di riserva è in realtà piuttosto inqiuetante, perché è evidente che sia stata pensata dal legislatore come a dire “beh… non si sa mai”. Il punto, però, è che la presenza di una simile clausola apre la possibilità di usare “AI systems designed or used in a manner that manipulates human behaviour, opinions  or decisions through choice architectures or other elements of user interfaces, causing a  person to behave, form an opinion or take a decision to their detriment“. In pratica, sistemi pensati per essere usati per manipolare il comportamento umano, le opinioni o le decisioni.

La combinazione di simili previsioni fa quindi sorgere una domanda: perché una legge dovrebbe autorizzare le pubbliche amministrazioni ad usare tecnologie capaci di manipolare le decisioni umane? Perché questo Regolamento ha voluto lasciare aperta la porta ad una simile possibilità?

Insomma, il fatto che l’uso di questi sistemi sia ad appannaggio della pubblica amministrazione non significa che non siano pericolose, anzi, il loro potenziale potrebbe essere devastante se usato proprio da persone al potere.

Forse in molti tendiamo a dimenticare che meno di 80 anni fa proprio in Europa abbiamo conosciuto Hitler, che non è un personaggio dei fumetti. Se un soggetto come Hitler dovesse salire al potere gli basterebbe una normativa nazionale per poter rendere legittime delle tecnologie capaci di manipolare le decisioni umane. E non è fantascienza.

Un Regolamento che ambisce a tutelare i diritti fondamentali delle persone contro possibili abusi dell’intelligenza artificiale, non può non porre la dovuta attenzione a simili rischi.

Lo stesso dicasi per l’articolo 2, dove si legge che il Regolamento non è applicabile con riferimento a “sistems used for the operation of weapons or other military purpose”.

Questo è un altro passaggio quantomeno discutibile. Insomma, perché un civile in un paese in guerra dovrebbe avere meno diritti di un civile in un paese in tempo di pace?

Ricordiamo che le guerre non sono più quelle del 800 dove ci sono schieramenti di persone armate. Le guerre si svolgono in città, in posti dove i militari sono vicini ai civili. Non prevedere garanzie anche a loro favore è quantomeno miope.

Che poi… che cosa significa operation of weapons? L’Iraq è stato invaso dagli USA, ricordiamo, perché Bush sosteneva ci fossero armi di distruzione di massa la cui inesistenza è stata provata.

In una situazione del genere, le garanzie previste dal Regolamento non sarebbero applicabili e, volendo, potrebbero essere usati anche sistemi di intelligenza artificiale ad alto rischio, magari dotati di bias che possono portare a identificare bersagli sbagliati e, quindi ad uccidere persone innocenti.

È incredibile come nessuno abbia apparentemente pensato a questi scenari prima di ritenere il draft perfezionato.

In questo, il Regolamento sull’Intelligenza Artificiale non appare lungimirante. Ci sono pericoli enormi che potrebbero concretizzarsi proprio per colpa di come il Regolamento è stato scritto.

Sia chiaro, non tutto è da buttare, ma l’impressione è che questo draft necessiti ancora molte limature per uscirne perfezionato e per risultare la norma di cui l’UE ha bisogno per poter, anche in questo ambito come già nella protezione dei dati personali, risultare un punto di riferimento da imitare.

Il Regolamento deve essere un benchmark, e non un atto colmo di “è vietato… tranne” o di “si può fare… ma”.

L’intelligenza artificiale è una grande occasione per l’economia. È una grande occasione per l’Europa, che potrebbe tornare ad essere protagonista, rivendicando un ruolo per troppo tempo ad appannaggio degli USA. Per farlo, però servono scelte sensate, guidate dal parere di esperti. In modo da avere un Regolamento non solo soddisfacente ma impeccabile.