Dopo averne raccontato nelle scorse settimane la nascita, lo sviluppo e le diverse applicazioni, oggi affrontiamo un altro elemento fondamentale, cioè gli aspetti etici e normativi dell’Intelligenza Artificiale.
L’AI è una disciplina estremamente complessa. Per comprenderla e usarla correttamente sarà necessario, non solo sviluppare nuove competenze tecnologiche, ma anche affrontare le problematiche etiche e legali ad essa legate. Ancora oggi, infatti, è difficile immaginare quale sarà l’impatto dell’AI sul mondo del lavoro e sulla nostra società e molti si chiedono se questa tecnologia costituirà una minaccia o un’opportunità. Sicuramente bisognerà capire quali professioni saranno maggiormente coinvolte e come l’automazione inciderà sul sistema previdenziale.
Aspetti etici e normativi dell’Intelligenza Artificiale
Le problematiche di natura etica possono derivare da una progettazione impropria da parte degli sviluppatori di Intelligenza Artificiale.
In particolare, i possibili rischi derivanti riguardano:
- Bias, ovvero distorsioni involontarie che esistono nei dati e/o negli algoritmi o che possono essere introdotte da sviluppatori durante il processo di “addestramento”; tali bias possono dar luogo a pregiudizi nei sistemi di AI;
- Black Tech, cioè sistemi appositamente creati per scopi malevoli;
- Fairness ossia la possibile mancanza di imparzialità nelle decisioni prese col supporto dell’Intelligenza Artificiale;
- Privacy e quindi il mancato rispetto della normativa in materia di trattamento dei dati personali, monitoraggio e profilazione degli utenti;
- Transparency, ovvero la mancanza di trasparenza dei processi decisionali che caratterizzano i sistemi di AI.
Oltre ai suddetti, vi sono dei rischi derivanti dall’impatto dell’Intelligenza Artificiale sulla nostra società, con conseguenze dirette sulle persone, sulla collettività e sul sistema economico e politico:
- Equality: disuguaglianza nell’accessibilità alle tecnologie;
- Freedom: limitazione della libertà, dei diritti del singolo (libertà di pensiero, di espressione, di autodeterminazione, diritto all’oblio) e delle libertà collettive;
- Job: effetti sul mercato del lavoro in ragione della crescente automazione di alcuni impieghi;
- Psychology: minaccia del benessere mentale ed emotivo degli utenti;
- Sustainability: utilizzo eccessivo delle risorse ambientali;
- Trust: accentramento di risorse economico-finanziarie e di know-how tecnologico.
Intelligenza Artificiale e mercato del lavoro
Relativamente ai rischi legati al mercato del lavoro, si ipotizza che da qui a dieci anni, l’Intelligenza Artificiale sarà in grado di automatizzare diverse attività. Per valutare gli effetti di questo cambiamento, però, bisogna considerare che nel prossimo decennio, a causa dell’invecchiamento della popolazione, verranno a mancare circa 6 milioni di posti di lavoro. Di conseguenza, l’automazione resa possibile dall’AI potrebbe diventare una necessità più che un rischio. Ovviamente sarà essenziale un cambiamento di prospettiva rispetto alle nuove esigenze dei lavoratori e alla loro formazione.
Per quanto riguarda l’AI Generativa, cioè quella utilizzata per realizzare nuovi contenuti (testi, immagini, opere d’arte) – precedentemente prodotti dalla creatività dell’uomo – è difficile prevederne gli sviluppi. Attualmente sembra che nelle aziende i dipendenti non siano stati sostituiti dall’Intelligenza Artificiale, ma che questa venga usata a supporto dell’attività umana.
AI Act: il primo regolamento al mondo sull’Intelligenza Artificiale
Nell’ambito della regolamentazione degli aspetti etici e normativi dell’Intelligenza Artificiale, l’Europa si è affermata senza dubbio come istituzione all’avanguardia. Essa, infatti, è stata pioniera in questo contesto, presentando, fin dall’aprile 2021, l’AI Act, ovvero il primo regolamento al mondo sull’Intelligenza Artificiale. Il suo scopo è quello di far sì che i sistemi di AI che si trovano all’interno del mercato europeo siano sicuri e rispettino i diritti dell’UE.
Nello specifico, tale norma prevede di classificare i sistemi di Intelligenza Artificiale in base al loro livello di rischio e di disciplinarli di conseguenza, introducendo requisiti e obblighi per la loro immissione nel mercato europeo. Per i sistemi il cui rischio è considerato inaccettabile si giungerà, pertanto, al divieto di utilizzo.
Presentato per la prima volta nell’aprile 2021, l’AI Act è stato approvato dal Parlamento Europeo il 13 marzo 2024. Esso è entrato in vigore il 2 agosto 2024 a seguito dell’effettiva approvazione del Consiglio europeo e la maggior parte delle sue norme verrà applicata a partire dal 2 agosto 2026.
Attraverso questa direttiva l’UE punta a raggiungere un corretto equilibrio tra una regolamentazione adeguata in materia di Intelligenza Artificiale e lo sviluppo di una forte economia del settore.