News

Stop a IA pericolose: l’UE detta legge con l’AI Act

A partire dal 2 febbraio 2025, l’Unione Europea ha compiuto un passo significativo nella regolamentazione dell’intelligenza artificiale (IA), vietando i sistemi considerati più rischiosi. Questa mossa fa parte di un approccio più ampio delineato nell’AI Act, una legge pionieristica che mira a bilanciare innovazione e sicurezza nel campo dell’IA.

Divieto di applicazioni IA ad alto rischio

L’AI Act dell’UE ha messo al bando diverse applicazioni di IA che l’UE considera una minaccia inaccettabile per i diritti fondamentali e la sicurezza dei cittadini. Queste includono:

  • Sistemi di IA progettati per manipolare le persone attraverso tecniche subliminali o sfruttando le loro vulnerabilità.
  • Sistemi di scoring sociale che valutano e classificano le persone in base al loro comportamento o tratti della personalità.
  • Database di riconoscimento facciale costruiti attraverso la raccolta indiscriminata di immagini dal web o da telecamere a circuito chiuso.
  • Identificazione biometrica in tempo reale in spazi pubblici, con alcune eccezioni per le forze dell’ordine.
  • Sistemi di IA che presumono le emozioni delle persone in contesti lavorativi o educativi.
  • Sistemi che valutano il rischio di comportamenti criminali basandosi esclusivamente su profilazione o valutazione della personalità.

Misure severe e applicazione graduale

L’UE non si limita a vietare queste applicazioni. L’AI Act prevede anche misure di applicazione rigorose e sanzioni significative per garantire il rispetto delle sue normative. Le aziende che non si conformano rischiano multe fino a 35 milioni di euro o il 7% del loro fatturato globale annuo totale.

L’applicazione sarà gestita dalle autorità nazionali competenti in ciascun paese membro dell’UE, con la supervisione del Comitato Europeo per l’Intelligenza Artificiale. Le aziende dovranno condurre valutazioni approfondite dei rischi dei loro sistemi di IA, mantenere una documentazione dettagliata e garantire la trasparenza delle loro operazioni.

L’implementazione dell’AI Act è graduale, con diverse tappe fondamentali:

  • Febbraio 2025: Divieto dei sistemi di IA ad alto rischio.
  • Maggio 2025: Introduzione dei Codici di Condotta.
  • Agosto 2025: Applicazione dei requisiti di trasparenza e delle sanzioni.
  • Agosto 2026: Piena attuazione delle restanti disposizioni.

Un approccio basato sul rischio e obiettivi ambiziosi

L’AI Act dell’UE adotta un approccio basato sul rischio, il che significa che le regole sono più severe per le applicazioni di IA considerate più pericolose. Gli obiettivi principali della legge includono:

  • Proteggere i cittadini dai potenziali danni derivanti dall’IA.
  • Promuovere la trasparenza e la responsabilità nei sistemi di IA.
  • Stabilire l’UE come leader globale nello sviluppo di un’IA affidabile.

L’UE mira a creare un quadro normativo equilibrato che protegga i diritti fondamentali e promuova l’innovazione nel settore dell’IA.

Salvatore L.

Avvicinatosi al mondo videoludico grazie ad un Commodore64 alimentando in se la curiosità per il mondo Hi-Tech in particolar modo per tutto ciò che riguarda l' Hardware di un Computer. Dopo anni di collaborazioni con vari blog informatici Italiani nel 2012 apre il sito Hardware Mind.

Articoli Correlati

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ho preso visione della Privacy Policy ed Autorizzo al trattamento dei dati personali.

Pulsante per tornare all'inizio