AI generativa o degenerativa? Questione di etica

«L’intelligenza artificiale generativa può avere una duplice valenza: può essere educativa se adoperata in modo etico e favorendo il cammino di fioritura dell’umano, o può avere anche una valenza fortemente negativa, degenerativa, se questa tecnologia viene utilizzata per manipolare le coscienze o per diffondere fenomeni di odio, di mancanza di verità rispetto alle situazioni politiche».

Angelo Tumminelli, ricercatore presso il Dipartimento di Scienze Umane e componente dell’unità di ricerca di LUMSA, in una intervista uscita su ANSA sull’importanza di definire un'etica dell’AI generativa.

Angelo Tumminelli fa parte del progetto SOLARIS – Strengthening demOcratic engagement through vaLue-bAsed geneRative adversarIal networkS – di cui LUMSA è partner e finanziato dall’Unione Europea, che analizza i rischi etici e politici associati alle nuove tecnologie e all’intelligenza artificiale, proponendo normative per mitigare i rischi di deepfake.

Una delle tecnologie analizzate dal progetto sono le GAN (Generative Adversarial Networks), reti neurali che, partendo da contenuti reali (immagini e audio), ricreano in modo estremamente realistico le caratteristiche e i movimenti di un volto o di un corpo e ne imitano la voce; questi contenuti sono i deepfake.

LUMSA contribuisce al progetto SOLARIS su due ambiti specifici:
1) Filosofico: definizione di un’etica dell’intelligenza artificiale generativa.
2) Semiotico: sviluppo di modelli per l’analisi delle deepfake, con particolare attenzione verso i contenuti digitali sviluppati dall’AI generativa.

AI e fiducia

La domanda che sta alla base della ricerca filosofica della LUMSA è la seguente: ci si può fidare dell’AI?
Partendo dal presupposto che parliamo di macchine neutre la cui valenza dipende molto dall’utilizzo che se ne fa, la responsabilità è sempre dell’uomo che le progetta e di come le utilizza. L’AI generativa può diventare uno strumento di degenerazione dell’umano, se utilizzata non in modo educativo ed etico. Non dobbiamo “fidarci” delle macchine e della tecnologia, ma “affidarci” a loro; la fiducia va risposta in coloro che le costruiscono e che ne sono i veri responsabili, cioè gli esseri umani.
In un precedente articolo (La tecnologia e l’etica umana) ho segnalato l’opinione di Paola Pisano, ex Ministra per l’Innovazione Tecnologica e la Digitalizzazione, che condivido e che trova pienamente riscontro anche in questo contesto: «…la tecnologia deve essere etica, trasparente, sicura e inclusiva e la sua applicazione deve mirare a rendere la nostra vita migliore, ad affrontare problemi gravi sinora irrisolti.».

AI e sfide etiche

L’introduzione dell’AI generativa apre il campo a diverse sfide etiche che, se non affrontate in modo adeguato, rischiano di compromettere i benefici che l’AI potrebbe portare alla nostra vita sociale. Pensiamo agli errori di giudizio e interpretazione (bias), che possono portare a valutazioni o giudizi errati, alla poca trasparenza dei processi decisionali e degli algoritmi dell’AI, fino alla privacy e sicurezza delle informazioni.
Ovviamente per affrontare queste sfide, la sola tecnologia non è sufficiente. È necessario che chi sviluppa i sistemi (fornitore) abbia le competenze necessarie per individuare e mitigare i rischi relativi all’etica, mentre chi ne fa uso (utilizzatore) abbia la consapevolezza dei limiti di questi sistemi.

Quali soluzioni allora?

Il 13 marzo 2024 il Parlamento europeo ha approvato l’AI Act, il regolamento europeo sull’intelligenza artificiale. L’obiettivo è mettere al centro dello sviluppo di queste nuove tecnologie il rispetto e la tutela dei diritti fondamentali e della dignità delle persone. Il regolamento riguarda sia i fornitori che gli utilizzatori dei sistemi a intelligenza artificiale; gli acquirenti dovranno assicurarsi che il prodotto comprato abbia già passato la procedura di valutazione e conformità prevista, che sia provvisto di un marchio di conformità europeo e che sia accompagnato dalla documentazione e dalle istruzioni richieste.

Conclude il dottor Angelo Tumminelli: «Rispetto a tutti questi rischi la necessità etica è quella di esercitare un uso consapevole delle tecnologie digitali, ma anche da un punto di vista giuridico, normativo e politico, di definire sistemi di regole precise che disciplinino l’intelligenza artificiale… solo un uso etico dell’intelligenza artificiale implica la fioritura dell’umano».

2024-08-02T09:17:47+02:002 Agosto 2024|Categorie: Articoli|Tag: , , , |