di Filomena Montella

Il celebre filosofo e linguista americano Noam Chomsky, a 95 anni, in un’intervista rilasciata a edukitchen.net, punta il dito sull’IA generativa, non per demonizzarla, ma per chiarire subito alcuni punti chiave rispetto a quanto sta accadendo.«La mente umana non è, come ChatGPT e i suoi simili, una macchina statistica e avida di centinaia di terabyte di dati per ottenere la risposta più plausibile a una conversazione o la più probabile a una domanda scientifica». Al contrario… «la mente umana è un sistema sorprendentemente efficiente ed elegante che opera con una quantità limitata di informazioni. Non cerca di danneggiare le correlazioni dai dati, ma cerca di creare spiegazioni. Smettiamola di chiamarla allora “Intelligenza Artificiale” e chiamiamola per quello che è e fa un “software di plagio” perché “Non crea nulla, ma copia opere esistenti, di artisti esistenti, modificandole abbastanza da sfuggire alle leggi sul copyright. Questo è il più grande furto di proprietà intellettuale mai registrato da quando i coloni europei sono arrivati nelle terre dei nativi americani».

Come docente in un Istituto tecnico economico, che punta molto sul digitale, ho cercato di mettere ordine nel mio pensiero.

L’IA, è vero, non deve essere demonizzata, ma ai miei alunni devo insegnare ad utilizzarla per le proprie necessità (e non solo per sbrigarsi con i compiti). Quello che voglio fare a scuola è sviluppare lo spirito critico.

Parto da una definizione di IA. L’Intelligenza Artificiale è l’abilità di un sistema informatico di mostrare capacità umane come il ragionamento, la pianificazione, la creatività e l’apprendimento. Utilizzare sistemi di Intelligenza Artificiale, quindi, significa fare uso di tecnologie che siano in grado di apprendere attraverso l’esperienza; ragionare e classificare le informazioni; interagire in maniera sociale e con l’ambiente circostante.

A Chatgpt ho chiesto la definizione di IA generativa: “L’IA generativa è un campo dell’Intelligenza Artificiale che si concentra sullo sviluppo di modelli e algoritmi in grado di creare dati o contenuti che sono simili a quelli prodotti da essere umani. Questi modelli sono capaci di apprendere dai dati di addestramento e di generare nuovi esempi che possono includere testo, immagini, audio o video”. L’IA generativa utilizza modelli di machine learning (un sottoinsieme dell’Intelligenza Artificiale, il cui compito è addestrare i computer a imparare dai dati e a migliorare con l’esperienza, anziché essere appositamente programmato per riuscirci) per imparare da contenuti esistenti e quindi generare nuovi contenuti simili. Gli algoritmi basano le loro conoscenze su set di dati forniti dai programmatori, che potrebbero essere incompleti o presentare errori. Anche gli algoritmi quindi potrebbero essere a loro volta errati.

Le Raccomandazioni d’uso etico dell’Intelligenza Artificiale dell’UNESCO, pubblicate nel novembre 2021, pongono al centro la tutela dei diritti umani e di principi fondamentali come la trasparenza e l’equità, ricordando sempre l’importanza del controllo umano dei sistemi di IA.

È possibile sintetizzare le Raccomandazioni in alcuni punti fondamentali.

Ambiente e benessere: le tecnologie di IA devono essere rispettose dell’ambiente e contribuire al benessere umano;

Educazione e formazione: bisogna promuovere una cittadinanza informata e consapevole sulle implicazioni dell’IA;

Democrazia: bisogna assicurare la partecipazione pubblica nelle decisioni che riguardano l’IA ed evitare la manipolazione delle opinioni con l’IA;

Trasparenza: gli algoritmi di IA devono essere trasparenti e comprensibili, consentendo agli utenti di comprenderli;

Giustizia: i sistemi di IA devono evitare discriminazioni basate su razza, genere, religione o altre caratteristiche protette;

Responsabilità: gli sviluppatori e gli utilizzatori di IA devono essere responsabili per le conseguenze delle loro creazioni o azioni;

Umanità: sviluppare l’IA promuovendo l’uguaglianza e evitando discriminazioni e pregiudizi.

Nel luglio 2023 l’Unesco ha approfondito nuovamente la questione e ha pubblicato una Guida veloce a ChatGPT e all’uso dell’IA nella didattica, i cui punti essenziali sono:

Integrità accademica: preoccupazione riguardo al crescente rischio di plagio e frode nel caso in cui gli studenti utilizzino ChatGPT per preparare saggi ed esami;

Regolamentazione: occorre indagare e comprendere meglio i rischi potenziali e sviluppare protocolli condivisi;

Privacy: questioni relative a quali dati vengano raccolti, da chi e come vengano applicati nell’IA;

Commercializzazione: il coinvolgimento di aziende private nell’IA con obiettivo di profitto;

Diversità e parità di genere: il problema della mancata partecipazione femminile nella ricerca/sviluppo sull’IA, e della produzione da parte dell’IA di contenuti che discriminino o rafforzino gli stereotipi di genere.

Quindi, in questo documento è esplicitato che partendo dall’assunto che l’accuratezza dei contenuti è importante, è possibile usare ChatGPT in modo sicuro solo se si è abbastanza esperti per riconoscere se l’output del sistema è accurato e se ci si assume piena responsabilità per eventuali imprecisioni nei contenuti.

Infine, nel settembre 2023, l’Unesco ha pubblicato la Guida all’IA generativa nella Didattica e nella Ricerca.

Dopo una breve analisi di come funzionano sistemi di IA quali ChatGPT e dopo una panoramica dei sistemi alternativi a ChatGPT, la Guida ci mette in allerta su alcuni punti. «L’IA Generativa può aiutare insegnanti e ricercatori a generare testo e altri risultati utili per supportare il loro lavoro, ma non è detto che questo avvenga attraverso un processo semplice. Può richiedere molte iterazioni di un prompt prima di ottenere l’output desiderato. Una preoccupazione è che i giovani, per definizione meno esperti degli insegnanti, potrebbero accettare senza rendersene conto e senza un coinvolgimento critico l’output dell’IA Generativa che è superficiale, inaccurato o addirittura dannoso».

I ricercatori, gli insegnanti e gli studenti devono conoscere i diritti dei proprietari dei dati e verificare se gli strumenti di IA che stanno utilizzando violano qualsiasi normativa esistente. Dovrebbero anche essere consapevoli che le immagini o i codici creati con l’IA potrebbero violare i diritti di proprietà intellettuale di qualcun altro e che ciò che creano e condividono su Internet potrebbe essere sfruttato da altri sistemi di IA.

I ricercatori, gli insegnanti e gli studenti dovrebbero essere consapevoli della mancanza di normative appropriate per proteggere la proprietà delle istituzioni e dei singoli del paese e i diritti degli utenti e per rispondere alle questioni legislative innescate dall’IA Generativa.

La diffusione di IA  ha esacerbato la povertà digitale, che è la mancanza di accesso ai dati e alle risorse di calcolo necessarie per creare e utilizzare le tecnologie IA. Questo mette a rischio i paesi e le comunità del Sud Globale, che sono stati esclusi dai benefici dell’IA Generativa e che vedono l’IA addestrata con i dati, e riflettere quindi i valori e le norme, del Nord Globale.

Le reti neurali artificiali sono solitamente scatole nere (“black box”), cioè i loro meccanismi interni non sono aperti all’ispezione. Di conseguenza non sono “trasparenti” o “esplicabili” e non è possibile accertare come sono stati determinati i loro output.

I modelli di IA sono a volte chiamati “pappagalli stocastici”, possono generare testo che sembra convincente, ma spesso contiene errori e affermazioni dannose. Non ricevono informazioni dalle osservazioni del mondo reale o da altri aspetti chiave del metodo scientifico. Non possono perciò generare contenuti genuinamente nuovi sul mondo reale.

I ricercatori, gli insegnanti e gli studenti dovrebbero essere consapevoli che i sistemi di IA potrebbero produrre materiale offensivo e non etico e che  a lungo termine che potrebbero insorgere problemi per l’affidabilità delle conoscenze quando i modelli di IA  futuri saranno basati su testi generati da modelli di IA precedenti

I ricercatori, gli insegnanti e gli studenti che utilizzano i sistemi di IA devono sapere che il testo risultante rappresenta solo la visione più comune o dominante del mondo al momento in cui è stato prodotto il suo dataset di addestramento e che parte di esso è problematico o contiene bias (ad esempio, i ruoli di genere stereotipati).

L’IA può essere usata per alterare o manipolare immagini o video esistenti per generare falsi che sono difficili da distinguere da quelli reali. l’IA sta rendendo sempre più facile creare questi “deepfake” e la cosiddetta “fake news”. In altre parole, l’AI Generativa sta rendendo più facile commettere atti immorali e criminali, come la diffusione di disinformazione, la promozione dell‘hate speech e l’incorporazione dei volti delle persone, senza la loro conoscenza o consenso, in video completamente falsi e talvolta compromettenti.

Se siamo consapevoli di ciò, l’IA non è una minaccia.

Ma quindi, l’IA generativa è davvero così intelligente? Ci ruberà il lavoro? Niente panico! È importante ricordare sempre che gli algoritmi dell’IA non hanno le stesse capacità cognitive o emotive degli esseri umani. Il ruolo dell’utente è infatti fondamentale nell’interazione con l’IA: le domande sono più importanti delle risposte!

Inoltre, l’IA generativa non ci ruba il lavoro, ma ci supporta in diverse professioni: marketing (per la personalizzazione dei prodotti e dei contenuti, come email e contenuti promozionali; ricerca scientifica (per generare nuove idee, testare ipotesi e accelerare la scoperta e anche per la redazione di testi scientifici); intrattenimento (per creare contenuti visivi per film, giochi e altri strumenti di marketing e multimediali); risorse umane (per riassumere i CV ricevuti, scrivere annunci di lavoro, pre-impostare email di feedback per i candidati, approfondire gli aspetti tecnici dei ruoli ricercati); design (per creare e modificare progetti in modo efficiente e veloce: da disegni di vestiti a progetti di automobili e piantine di edifici).

Concludo, quindi, con le parole di David Mhlanga, ricercatore di Università di Johannesburg: «Quando un elemento tecnologico educativo che ha il potenziale per rivoluzionare il campo viene reso disponibile al pubblico, è responsabilità degli educatori e dei politici affrontare eventuali problemi che potrebbero sorgere come risultato della sua implementazione e ideare strategie per eliminare pratiche educative inefficienti».

Onnivori, ma non acritici. Italo Calvino docet.

 


FOTO: di kjpargeter su Freepik

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Abilita le notifiche per non perderti nessun articolo! Abilita Non abilitare