0

“Pratiche di IA vietate: cosa devono sapere le aziende” #lawfacts

La scadenza (2 febbraio 2025) è ormai vicina. Ma quali requisiti devono essere rispettati?

L’intelligenza artificiale (IA, in inglese AI) ha trasformato radicalmente la nostra vita quotidiana e, in particolare, il settore economico. Tuttavia, come ogni tecnologia rivoluzionaria, l’IA comporta anche dei rischi. Con l’AI Act (Regolamento (UE) 2024/1689 che stabilisce norme armonizzate per l’intelligenza artificiale), è stato creato per la prima volta un quadro giuridico a livello europeo per garantire la tutela dei diritti fondamentali in questo contesto.

L’AI Act classifica i sistemi di IA in base al loro livello di rischio ed elenca, nell’art. 5, le pratiche inaccettabili e quindi vietate. Queste disposizioni si applicano a tutte le organizzazioni, indipendentemente dalle loro dimensioni, ed entreranno in vigore il 2 febbraio 2025.

In caso di mancato rispetto, sono previste sanzioni pecuniarie elevate, la cui entità specifica sarà stabilita solo il 2 agosto 2025. Tuttavia, le aziende dovrebbero essere consapevoli dei loro rischi già da ora, poiché le sanzioni potrebbero avere effetto retroattivo.

Si raccomanda quindi di verificare se nella propria azienda vengono utilizzati sistemi di IA che violano le norme e i valori fondamentali europei, in particolare quelli che non rispettano i diritti fondamentali. Tra le pratiche vietate ai sensi dell’art. 5 dell’AI Act rientrano, tra l’altro:

1. Influenza subliminale
È vietato l’uso di tecniche manipolative o ingannevoli che influenzano il comportamento umano e compromettono la capacità decisionale consapevole. Ciò include meccanismi psicologici sottili che, ad esempio, guidano inconsciamente le decisioni di acquisto dei consumatori. Le aziende devono garantire che le loro strategie di marketing basate sull’IA siano non solo conformi alla legge, ma anche eticamente accettabili.

2. Sfruttamento della vulnerabilità
È vietato sfruttare in modo mirato vulnerabilità legate all’età, alla disabilità o alle condizioni socio-economiche per influenzare il comportamento e causare danni significativi. Ad esempio, le aziende non possono sviluppare strategie di marketing basate sull’IA che mirino specificamente ai bambini o penalizzino gli anziani con offerte ingannevoli.

3. Valutazione sociale
È vietata la classificazione di persone o gruppi in base al loro comportamento sociale o alle loro caratteristiche personali se un tanto porta a un trattamento discriminatorio. Il Social Scoring, nel contesto economico, può portare a discriminazioni, ad esempio nelle decisioni di credito. Le aziende devono assicurarsi che i loro sistemi di IA si basino esclusivamente su criteri obiettivi e legalmente ammissibili.

4. Categorizzazione biometrica 
I sistemi che utilizzano dati biometrici per classificare caratteristiche sensibili (ad esempio razza, opinioni politiche, convinzioni religiose o orientamento sessuale) sono vietati. Fanno eccezione alcune applicazioni specifiche per le forze dell’ordine. Le aziende devono garantire che tali dati non vengano né archiviati né elaborati.

5. Attività di polizia predittiva
I sistemi di IA che valutano il rischio di un reato basandosi esclusivamente su profili o caratteristiche personali sono vietati. Sono consentiti solo come supporto alle valutazioni umane e sulla base di fatti oggettivi e verificabili, direttamente correlati ad atti criminali.

6. Raccolta indiscriminata di immagini facciali
La creazione di database di riconoscimento facciale attraverso la raccolta massiva e indiscriminata di immagini da Internet o da registrazioni video è strettamente vietata. Le aziende che utilizzano tecnologie di riconoscimento facciale devono garantire che queste si basino esclusivamente su dati raccolti legalmente e che esistano regole chiare per la loro archiviazione, utilizzo ed eliminazione.

7. Riconoscimento delle emozioni
L’uso dell’IA per il riconoscimento delle emozioni è consentito solo in condizioni rigorose. In particolare, sul posto di lavoro o nelle istituzioni educative, tali tecnologie sono ammesse solo per motivi medici o di sicurezza.

8. Identificazione biometrica remota in tempo reale
L’uso di sistemi di identificazione biometrica remota in tempo reale (RBI) in spazi pubblici è generalmente vietato, salvo alcune eccezioni, come:

  • la ricerca di persone scomparse o vittime di tratta di esseri umani
  • la prevenzione di una minaccia immediata (ad esempio, un attacco terroristico)
  • l’identificazione di sospetti in reati gravi (ad esempio, omicidio, stupro, traffico di droga)

Impatti sulle aziende
Con questi divieti, l’UE vuole garantire che le applicazioni di IA rispettino standard etici e non vengano abusate. Le aziende dovrebbero quindi verificare con largo anticipo se le loro soluzioni di IA sono conformi alle nuove norme. Una chiara strategia di compliance e, se necessario, la consulenza di esperti possono aiutare a evitare rischi legali e finanziari.

Articoli correlati

„A che età posso…

A norma di legge i bambini di età inferiore ai 14 anni non possono essere lasciati incustoditi. Chiunque violi l'obbligo di sorveglianza può essere perseguito penalmente. Le pene possono variare…
Saperne di più

“Nuove alternative per la…

A partire dal 24.10.2025, in Italia sarà introdotto l’“Arbitro Assicurativo”, un nuovo strumento per la risoluzione stragiudiziale delle controversie nel settore assicurativo. Il nuovo Arbitro sarà istituito presso l’IVASS, l’Autorità…
Saperne di più