L’Unione Europea approva l’AI Act: regole rigide per l’uso dell’intelligenza artificiale


Da anni l’intelligenza artificiale ha preso forma e si è insediata nella vita  quotidiana in diversi settori, da quello lavorativo a quello privato. Quando si parla di intelligenza artificiale si fa riferimento a quella progettazione informatica, alla tecnologia avanzata, con caratteristiche tipicamente umane. Sebbene la sua nascita sia collocata al 1956 con l’avvento dei computer, la diffusione di tale tecnologia è più recente. Basti pensare che, ad oggi, sui social network o sui programmi del computer, essa è utilizzata frequentemente. Ad oggi, l’intelligenza artificiale costituisce una realtà a tutti gli effetti e, più potente diventa, più cresce la paura che essa possa sostituire l’uomo con le sue macchine.

Di fronte all’intelligenza artificiale è intervenuta l’Unione Europea, la prima  istituzione che applica l’Artificial Intelligence Act (AI Act), già proposto nel 2021 dalla Commissione Europea, approvato a maggio del 2024, la cui conformazione sarà pian piano applicata nel corso del tempo. Il nuovo approccio applicato è basato sul rischio che l’intelligenza artificiale comporta, classificandolo in rischio minimo, alto o vietato. L’obiettivo diventa così la tutela delle persone che non conoscono o non sanno utilizzare bene tali strumenti, oltre che a regolarizzare coloro che non li usano in modo etico.

Esattamente, quali sono i rischi che comporta l’intelligenza artificiale? Con il AI Act, le pratiche che sono ritenute rischiose o meno sono state classificate in modo tale da condurre l’Intelligenza artificiale a non creare abusi su determinati usi. Le pratiche vietate dall’intelligenza artificiale e che sono eticamente inaccettabili o pericolose sono già vietate dal 2 febbraio 2025 e sono: il punteggio sociale, ossia valutare le persone in base al loro comportamento; la manipolazione psicologica, ossia spingere gli utenti a prendere decisioni inconsapevolmente; scraping di volti da internet, ossia estrarre foto per database biometrici; il riconoscimento delle emozioni; la sorveglianza biometrica in tempo reale.

Le pratiche ad altro rischio sono quelle che hanno conseguenze dirette sulla sicurezza, sui diritti o sull’accesso ai servizi essenziali. Tale regolamento sarà applicato dall’agosto 2026 e vedrà coinvolti fornitori, utilizzatori, importatori e distributori dell’intelligenza artificiale nell’Unione Europea. Alcuni esempi pratici di sistemi ad alto rischio sono: l’intelligenza artificiale usata per assumere dei candidati o valutare le performance; sistemi che determinano l’idoneità al credito; creare algoritmi per dispositivi medici o infrastrutture critiche; strumenti che influenzano il sistema giudiziario. 

Giulia Manciagli

Lascia un commento

Crea un sito web o un blog su WordPress.com

Su ↑