Difendersi dai rischi dell’Intelligenza Artificiale: serve approccio culturale e normativo ma, anche, il controllo dell’umano sulla macchina
“I rischi e i limiti dell’utilizzo dell’Intelligenza Artificiale vanno affrontati secondo tre direttrici, una culturale ed educativa, una normativa e una legata al controllo dell’umano sulla macchina”. Lo ha detto Carlo Tasso, già professore ordinario all’Università degli Studi di Udine e attualmente docente nell’ambito di Master Universitari, in occasione del meeting organizzato per i soci dal Lions Club Udine Host e intitolato “L’Intelligenza Artificiale: cos’è, successi, opportunità e rischi”.
A fare gli onori di casa è stata la presidente Maria Concetta Arena che ha ricordato come: “Abbiamo voluto affrontare un tema estremamente attuale che pervade molti aspetti della nostra vita. Attraverso questo meeting contiamo di acquisire le conoscenze necessarie per essere aggiornati e più consapevoli”.
Dopo aver ripercorso le principali tappe di sviluppo dell’IA a partire dagli anni Cinquanta, precisato il significato di alcuni termini tecnici ma ormai di uso comune come “machine learning” e “deep learning” e aver portato diversi esempi riferiti a situazioni ormai quotidiane, dal riconoscimento facciale alla traduzione automatica, Tasso si è soffermato sul modello linguistico generativo introdotto a novembre 2022 da ChatGPT per poi elencare alcuni aspetti di ordine etico, che necessitano di un’attenta analisi.
“Quello dell’Intelligenza Artificiale – ha precisato – è un mondo estremamente interessante e utile per l’uomo, tuttavia vi sono alcuni elementi che vanno regolamentati quali, per citarne alcuni, la privacy e il corretto reperimento e utilizzo dei dati necessari alla machina per apprendere automaticamente ma, anche, l’eliminazione di discriminazioni e pregiudizi, il rischio di una sorveglianza di massa, nel caso ad esempio del riconoscimento facciale, e il digital divide tra chi conosce e sa utilizzare questi strumenti e chi no. Un altro tema caldo è la capacità di distinguere il reale dal fake”.
In quest’ottica, secondo Carlo Tasso, è necessario: “affrontare l’IA da un punto di vista culturale ed educativo quindi insegnare alla popolazione a conoscerne i rischi e i limiti. In secondo luogo serve una normativa che la regolamenti, almeno a livello europeo, e infine sarà fondamentale che l’uomo mantenga il controllo e la responsabilità dell’utilizzo dell’Intelligenza Artificiale decidendo cosa delegare o meno alla macchina”.