Via libera all’AI Act dal Parlamento europeo: ora serve aggiornare la strategia italiana

Il Parlamento Europeo ha approvato il 14 giugno scorso l’Artificial Intelligence Act, per normare l’utilizzo dell’intelligenza artificiale (IA) generativa. Proposto dalla Commissione Europea, il testo mira fornire all’UE uno strumento utile per giocare d’anticipo con le sfide che l’IA lancerà in tutti i settori delle nostre società.

Dalle robotizzazione delle fabbriche alle auto a guida autonoma, dalle chatbot come ChatGpt, al controllo remoto delle infrastrutture energetiche, dai sistemi d’arma all’avanguardia alla profilazione al “social scoring” dei cittadini, fino alla produzione di contenuti deep-fake, difficilmente distinguibili da quelli umani, è facile comprendere l’impatto dell’IA sulla nostra quotidianità.

La necessità di regole democratiche per l’IA

Tra i temi più discussi del testo rientra sicuramente quello sul riconoscimento biometrico in luoghi pubblici per ragioni di sicurezza, misura che aveva causato preoccupazione e allarme tra i watchdogs dei diritti umani. Lo strumento della profilazione e del riconoscimento facciale è oggi utilizzato non solo da big tech per fini commerciali, ma anche da governi per identificare oppositori politici o etnie discriminate. Il Parlamento Europeo ha chiaramente votato per vietarne l’utilizzo nei luoghi pubblici e in “tempo reale”, bocciando gli emendamenti in favore di essi proposti dal Partito Popolare Europeo (PPE). L’eventuale autorizzazione futura all’utilizzo di tali sistemi sarà consentita solo “a posteriori” (non in tempo reale) e previa autorizzazione giudiziaria nel contesto della lotta alla criminalità e al terrorismo.

Il riferimento è chiaramente rivolto a quegli attori che come la Cina – dominatrice assoluta del mercato di tecnologie di riconoscimento facciale – hanno fatto dell’utilizzo di sistemi di riconoscimento facciale biometrici AIbased un vero e proprio strumento di repressione. Pechino utilizza l’IA per individuare manifestanti (come nel caso delle proteste di Hong Kong del 2019) o monitorare e censire la minoranza musulmana uigura nella regione dello Xinjiang. Ad utilizzare tecniche di riconoscimento facciale sono però anche regimi democratici, come Stati Uniti, Francia e Regno Unito, dimostrando che il nervo scoperto dell’intera questione risieda nell’uso intrusivo di tale tecnologia nei confronti della società.

È per questa ragione che l’AI Act mira a vietare i sistemi di IA come quelli utilizzati per il punteggio sociale per “classificare” gli individui in base al loro comportamento sociale o alle loro caratteristiche personali, già sperimentata in alcune regioni della Cina, o quei sistemi di categorizzazione biometrica basati su caratteristiche sensibili utilizzati per scopi di polizia predittiva. L’AI Act stabilisce che l’uso di una determinata tecnologia debba essere impedito quando comporti un livello di rischio ritenuto inaccettabile per la sicurezza delle persone.

Il voto del Parlamento apre la strada alla negoziazione con gli Stati membri, per finalizzare la norma entro la fine della legislatura.

A che punto siamo in Italia?

L’Italia dal canto suo si è dotato di qualche strumento per provare a inquadrare gli effetti dell’IA e orientare il legislatore. Già nel 2018, l’Agenzia per l’Italia Digitale (AgID) aveva pubblicato il “Libro Bianco sull’IA a servizio del cittadino” per offrire una prima panoramica del possibile impiego dell’IA in relazione ai servizi e alla PA. Nel 2020, il Consorzio Interuniversitario Nazionale per l’Informatica (CINI) aveva pubblicato “AI for Future Italy”, sottolineando l’importanza della ricerca e sviluppo sull’IA, e della collaborazione tra istituzioni ed industria. Tuttavia, è con la pubblicazione della Strategia Nazionale sull’IA nel 2021 (“Programma Strategico Intelligenza Artificiale 2022-2024”), allineata alla Strategia Europea, che l’Italia ha adottato il suo primo documento strategico per stimolare il legislatore.

Oltre ad una normativa quadro che ad oggi ancora manca, e all’individuazione conseguente dell’autorità di riferimento che dovrà garantire l’applicazione e il rispetto dell’AI Act, la sfida più grande per l’Italia sarà riuscire a governare l’IA tutelando le libertà fondamentali dei suoi cittadini e nel rispetto delle regole democratiche.

L’utilizzo su larga scala dell’IA per ragioni di sicurezza in Europa potrebbe spingere le singole aziende a incrementare l’export verso mercati sempre più ampi, correndo il rischio di fornire supporto ai regimi che utilizzano l’IA per scopi repressivi.

La creazione di contenuti deep-fake con l’IA, difficilmente distinguibili da quelli reali, inoltre, rappresenta un rischio democratico se utilizzati per diffondere disinformazione nel dominio cibernetico. Non è una novità il loro utilizzo per l’information warfare, difatti.

Pertanto, mantenere l’utilizzo dell’IA su binari democratici, rappresenta una necessità politica e uno scudo verso potenziali interferenze esterne.

Il governo italiano dovrebbe perciò accogliere attentamente le novità introdotte dall’AI Act e negoziare con l’UE e con gli altri player un sistema di controlli per costruire standard e framework centrati sull’individuo, con al centro il rispetto della dignità, della libertà e della privacy. Questo ruolo pionieristico eviterebbe comportamenti ambigui nei confronti di regimi autocratici che potrebbero sfruttare l’IA per scopi politici a danno della democrazia. L’IA potrà essere uno strumento di progresso e di avanzamento di tecnologico, ma dovrà rimanere al servizio della democrazia.

Total
0
Shares
Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Previous Post

Per una strategia contro la disinformazione digitale

Next Post

Ricostruire l’Ucraina: Le lezioni apprese dall’esperienza dei Balcani

Related Posts