Skip to content

Il Regolamento UE sull’Intelligenza Artificiale: bilanciare innovazione ed etica

Il Regolamento UE sull’Intelligenza Artificiale: bilanciare innovazione ed etica

14 giugno 2023: il Parlamento europeo approva l’Artificial Intelligence Act (o “AI Act” o “AIA”). Si tratta del primo Regolamento al mondo sull’Intelligenza Artificiale, un primo passo verso il tentativo di regolamentare l’utilizzo di una delle tecnologie più discusse di sempre.

Vediamo cosa dice l’AIA, da quando entrerà in vigore e quali sono i suoi obiettivi.

Perché un Regolamento UE sull’Intelligenza Artificiale

Quello sull’Intelligenza Artificiale è un tema molto discusso: c’è chi teme che porti a un annullamento delle competenze umane, chi al contrario è convinto che possa solo favorire e semplificare la vita delle persone.

Analizzare le implicazioni di una nuova tecnologia è positivo e doveroso, per poterla utilizzare in modo consapevole e utile. E come accade per ogni tecnologia, arriva sempre il momento di stabilire alcuni principi univoci e istituzionali che permettano di bilanciare l’innovazione con l’etica.

L’IA non è da meno: ecco perché, in anticipo rispetto a tutti gli altri Paesi del mondo, l’Unione Europea ha deciso di approvare un Regolamento per garantire uno sviluppo e un utilizzo responsabile di questa tecnologia. Si chiama Artificial Intelligence Act ed è stato approvato dal Parlamento Europeo lo scorso giugno.

Quali sono gli obiettivi primari del Regolamento? Quali i punti cruciali? Quale sarà l’impatto sull’industria dell’IA?

Vediamolo subito.

I Fondamenti dell’Artificial Intelligence Act (AIA)

Il Regolamento UE sull'Intelligenza Artificiale è stato adottato con l'obiettivo di affrontare le sfide e le opportunità dell'IA in Europa. Questo regolamento si basa su tre pilastri fondamentali:

1. Fiducia e Affidabilità

Il Regolamento stabilisce i requisiti per garantire che i sistemi di IA siano sicuri e affidabili. Ad esempio, vi è l'obbligo di monitorare costantemente le prestazioni dei sistemi, prevenire il loro deterioramento e garantire che siano progettati per essere trasparenti e comprensibili.

2. Etica e Rispetto dei Diritti Fondamentali

L'AIA pone un'enfasi particolare sull'etica dell'IA. I sistemi di IA devono rispettare i principi dei diritti umani, inclusi l'uguaglianza, la non discriminazione e il rispetto della privacy. Allo stesso modo, il Regolamento vieta i sistemi di Intelligenza Artificiali che possano in qualche modo influire negativamente sulla dignità umana.

3. Supervisione e Regolamentazione

L'Unione Europea introdurrà un nuovo organo di controllo per monitorare l'applicazione del Regolamento e garantire la conformità, con sanzioni amare per le imprese che violeranno tali norme (fino al 6% del fatturato di un’azienda). 

 

Progetto senza titolo


L’Artificial Intelligence Act entrerà in vigore probabilmente tra il 2024 e il 2025.

La valutazione del rischio nei sistemi di Intelligenza Artificiale

L’AIA stabilisce, per regolamentare i sistemi di ’Intelligenza Artificiale, quattro livelli di rischio, con conseguenti obblighi e divieti per le aziende che sviluppano e utilizzano questa tecnologia.
Secondo il Regolamento, l’IA è considerata un “rischio inaccettabile” a fronte delle implicazioni che potrebbe avere nei confronti degli esseri umani. Nello specifico, il rischio inaccettabile fa riferimento alla manipolazione comportamentale cognitiva di persone o gruppi vulnerabili specifici, la classificazione sociale e sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale.
Ciò significa che il Regolamento vieterà una serie di sistemi basati sull’IA che: 

  • utilizzano tecniche subliminali, manipolative o ingannevoli per distorcere il comportamento;
  • sfruttano le vulnerabilità di individui o gruppi specifici;
  • utilizzano tecniche di categorizzazione biometrica in base ad attributi o caratteristiche sensibili;
  • fanno social scoring o vengono usati per valutare l'affidabilità;
  • creano database di riconoscimento facciale;
  • rilevano le emozioni nelle forze dell'ordine o sul posto di lavoro e nell'istruzione.

Sempre secondo l’AIA, l’Intelligenza Artificiale costituisce un “rischio alto” quando questa compromette la sicurezza e i diritti fondamentali.

Rientrano in questa categoria, ad esempio, tutte le infrastrutture dei trasporti, nei prodotti utilizzati in medicina, nei sistemi che calcolano l’affidabilità creditizia, nel sistema giuridico. 

Infine, si parla di “rischio minimo” per tutti quei sistemi che non costituiscono minaccia ai principi etici di base, ad esempio i videogames o i filtri antispam.

L’Impatto del Regolamento sull'Industria dell'IA

L'Artificial Intelligence Act avrà sicuramente un impatto importante sull'industria dell'IA in Europa e oltre. 

Tra le principali implicazioni vi sarà certamente quella della responsabilità: le aziende che investono sull’Intelligenza Artificiale dovranno farlo in maniera consapevole ed etica, investire nella ricerca e sviluppo con una mentalità responsabile, promuovere un tipo di innovazione che sia rispettosa dei diritti umani e delle diversità.

Le Intelligenze Artificiali non dovranno infatti perpetuare bias o discriminazioni (cosa che in verità sta già accadendo). Le aziende dovranno combattere i fenomeni di disuguaglianza nella progettazione dei sistemi di IA e considerare le implicazioni sociali ed etiche delle loro tecnologie.

In tale contesto, è chiaro che vi dovrà essere uno sforzo non indifferente per quanto riguarda la formazione dei dipendenti, per garantire la comprensione e la compliance con il Regolamento, e importanti dovranno essere gli investimenti dedicati alla valutazione dell'impatto etico per identificare e mitigare i rischi.

Per concludere, il Regolamento UE sull'Intelligenza Artificiale rappresenta un passo avanti importante nell’universo tecnologico: per la prima volta si è cercato di garantire che l'IA venga sviluppata e utilizzata in modo responsabile ed etico

Bilanciare l'innovazione con l'etica è fondamentale per costruire un futuro in cui l'Intelligenza Artificiale contribuisca positivamente alla società senza compromettere i diritti fondamentali.

Le aziende e gli sviluppatori di IA dovrebbero abbracciare questa sfida come un'opportunità per dimostrare il valore della tecnologia in modo responsabile e sostenibile.

Approfondisci, leggendo i seguenti argomenti:

 

Vuoi saperne di più su Pigro e su come funziona? Non esitare a contattarci!