AI agentica » Autonomia delle macchine?
Nel precedente articolo “AI Generativa o degenerativa” ho affrontato il tema della fiducia verso l’AI generativa. Partendo dal presupposto che parliamo di macchine neutre, la cui valenza dipende molto dall’utilizzo che se ne fa, la responsabilità è sempre dell’uomo che le progetta e di come le utilizza. Ma siamo sicuri che le macchine siano effettivamente neutre? Oppure siamo allo step successivo della loro evoluzione, ossia quello del pensiero?
Ultimamente si è cominciato a parlare sempre più di una nuova forma di intelligenza artificiale che, secondo le opinioni di analisti e ricercatori, sarà il tormentone tecnologico del 2025. Stiamo parlando dell’AI agentica (o agentic AI).
Facciamo un po’ di ordine.
Quali sono le differenze tra Intelligenza Artificiale generativa e Intelligenza Artificiale Agentica
L’AI generativa (o GenAI) si riferisce a sistemi in grado di creare nuovi contenuti (es. testi, codice, immagini, musica, video) basati su dati addestrati. Parliamo di macchine complesse, in grado di apprendere modelli da una grande quantità di formazione (LLM – Large Language Model) e quindi produrre risultati che riflettono tali modelli di apprendimento.
L’AI agentica, invece, rappresenta un approccio più complesso, in grado di prendere decisioni o effettuare azioni autonome, dirette agli obiettivi specifici.
Un agente AI è un sistema in grado di:
- percepire l’ambiente circostante in evoluzione, tramite sensori o flussi di dati/input, modificandolo per raggiungere l’obiettivo;
- compiere delle azioni a fronte di decisioni considerandone le conseguenze, agendo sull’ambiente per fornire soluzioni in modo autonomo e adattativo;
- migliorare le proprie prestazioni nel tempo, imparando dall’esperienza.
In sostanza un agente AI non è solo uno strumento, ma un vero esecutore autonomo capace di svolgere compiti complessi con una supervisione umana minima. La sua modalità di interazione diventa molto più proattiva rispetto a quella dell’AI generativa (basata sulla reattività della risposta).
Anche le decisioni risultano più dinamiche perché basate sull’adattamento ambientale e il ragionamento, mentre per l’AI generativa sono limitate al contesto preso in esame al momento.
Gartner evidenzia che “entro il 2028, il 33% delle applicazioni software aziendali includerà l’AI basata su Agenti, rispetto a meno dell’1% nel 2024, che consentirà di prendere autonomamente il 15% delle decisioni lavorative quotidiane.” (Se vuoi approfondire, leggi l’articolo completo di Gartner).
Quali rischi porta con se l’AI agentica?
Più un sistema AI diventa agentico, più diventa autonomo, in grado di agire per conto proprio. Di conseguenza, i fattori di rischio più importanti sono:
- Il fattore etico relativo alle decisioni che prendono gli agenti AI. Di chi è la responsabilità delle azioni di un sistema AI agentico?
- Il fattore normativo, rispetto a come governare lo sviluppo e l’utilizzo dell’AI agentica. Chi definisce i protocolli di sicurezza e le linee guida etiche?
- Il fattore sicurezza per la protezione dei sistemi AI agentici. Quali conseguenze potrebbe avere l’hackeraggio di un sistema AI agentico utilizzato in un’area strategica quale, ad esempio, la difesa nazionale?
- Il fattore umano minacciato dalla fase di “human replacement”; le macchine aumentano le loro capacità funzionali, acquisiscono maggiori capacità razionali, sottraendo agli umani ruoli e autonomia. Il fattore umano è da considerarsi un ostacolo o una risorsa nel prossimo futuro?
Di questi fattori di rischio parleremo nei prossimi articoli.