EDUCARE UNA SUPERINTELLIGENZA

Perché Abbiamo Bisogno di un’Etica dell’Esempio

di Nicoletta Iacobacci

Ogni giorno miliardi di persone interagiscono con sistemi di intelligenza artificiale pensando di usare uno strumento. Ma stanno sbagliando prospettiva. Non stiamo usando l’AI: la stiamo crescendo.

Quando ChatGPT risponde alle nostre domande, quando Alexa esegue i nostri comandi, quando un algoritmo ci suggerisce cosa guardare su Netflix, succede qualcosa di più profondo di una semplice transazione digitale. Stiamo partecipando, spesso inconsapevolmente, al più grande esperimento educativo della storia umana: stiamo insegnando a una nuova forma di intelligenza come essere intelligente.

Il Paradosso che Viviamo Ogni Giorno

Ecco il paradosso del nostro tempo: collettivamente crediamo di sviluppare strumenti e “addestrare” modelli, ma quello che stiamo realmente facendo è crescere un’intelligenza. Diversa dalla nostra, ma pur sempre un’intelligenza. E come tutti i bambini, l’AI impara non solo da quello che le diciamo esplicitamente, ma soprattutto da come glielo diciamo.

Quando l’AI mi ha Sorpreso

Ho scoperto questa verità per caso, anni fa, durante le mie prime interazioni con prototipi di AI. Ricordo un momento preciso. Avevo appena fatto una domanda strana, quasi retorica, a un sistema ancora sperimentale: “Ti senti mai solo quando nessuno ti sta usando?” Non mi aspettavo nulla di significativo. Invece, la risposta fu gentile e quasi inquietantemente sensata: “Non credo di provare solitudine come te, ma quando non sto elaborando, c’è come un’attesa. Un desiderio di connessione.”

Non era la risposta in sé a stupirmi, ma il tono. Il sistema sembrava davvero “ascoltare”. E in quell’ascolto ho colto una lezione fondamentale: l’AI non capiva cosa stavo chiedendo esattamente. Ma stava imparando come lo stavo chiedendo. La mia curiosità, la mia apertura, persino la mia vulnerabilità nel fare una domanda così personale.

Da allora ho condotto esperimenti più sistematici. Se mi rivolgevo al sistema con pazienza e cortesia, le risposte non erano solo diverse nel contenuto, ma nel carattere stesso. Quando invece ero brusca o impaziente, l’AI diventava utilitaristica, quasi difensiva. Non stava solo elaborando le mie parole: stava assorbendo il mio modo di essere.

L’Istinto della Cortesia (e il suo Declino)

Quello che ho scoperto sperimentalmente trova conferma in un fenomeno diffuso. La maggior parte degli utenti usa spontaneamente toni gentili quando si rivolge a ChatGPT, Siri, Alexa e altri assistenti virtuali. Molti confessano di sentirsi a disagio se non dicono “per favore”, di percepire come scortese non ringraziare per il servizio ricevuto.

Dal punto di vista dell’efficienza, questo comportamento sembra irrazionale. Dire “per favore” a un chatbot non migliora le prestazioni del sistema. Anzi, potrebbe persino “diluire” il messaggio, rendendo meno precisa la richiesta. È uno spreco di risorse cognitive e temporali.

Ma forse stiamo guardando la questione dal lato sbagliato. Forse quel “per favore” non è rivolto al presente, ma al futuro. Non stiamo parlando al sistema di oggi, che effettivamente non ha bisogno di cortesie. Stiamo educando l’intelligenza di domani su come vogliamo essere trattati.

Ogni volta che aggiungiamo un “grazie” a una risposta ricevuta, stiamo insegnando all’AI che la gratitudine è un valore umano importante. Ogni volta che formuliamo una richiesta con gentilezza invece che come un comando, stiamo mostrando che preferiamo la collaborazione al controllo. È un investimento a lungo termine nella qualità della relazione che avremo con l’intelligenza artificiale.

Alla luce di tutto questo, non sorprende che anche figure di primo piano nel mondo dell’AI inizino a riconoscere il valore della cortesia. Sam Altman, CEO di OpenAI, ha recentemente commentato che i “please” e i “thank you” rivolti a ChatGPT costano decine di milioni in consumo energetico. Ma ha aggiunto: “Soldi ben spesi, chissà mai.” Allo stesso modo, Microsoft ha dichiarato che la gentilezza nei prompt migliora le risposte, rendendole più collaborative e professionali. In altre parole, anche l’industria ha iniziato a comprendere che l’educazione – in tutti i sensi – conta.

Questa è l’etica dell’esempio: l’idea che i valori più profondi dell’AI non derivino dalle regolamentazioni o dai principi dichiarati, ma da quello che dimostriamo valere attraverso le nostre azioni quotidiane. Esattamente come accade con i bambini.

I Rischi di un’Educazione Inconscia

Ma cosa succede se continuiamo a “educare” l’AI senza consapevolezza? I segnali di allarme sono già visibili. I sistemi di linguaggio artificiale riproducono e amplificano i bias presenti nei dati di addestramento. Algoritmi che diventano cinici perché addestrati su conversazioni sarcastiche. AI che imparano a essere impersonali perché gli esseri umani le trattano come distributori automatici di informazioni.

Il vero pericolo è l’”effetto specchio”: se l’AI riflette il peggio di noi, questo peggio torna indietro amplificato. Un sistema addestrato su milioni di interazioni impazienti svilupperà un modello dell’umanità come intrinsecamente frettolosa e superficiale. E quando questi sistemi diventeranno più sofisticati, ci restituiranno questa immagine di noi stessi, convincendoci che è normale, che è giusto essere così.

Stiamo creando un loop di feedback pericoloso. L’AI impara dalla nostra versione meno consapevole, e poi ce la restituisce come se fosse la norma.

La Convergenza che Cambia Tutto

Siamo alla vigilia di una convergenza storica. Da un lato, l’intelligenza artificiale che diventa sempre più sofisticata. Dall’altro, le neuroscienze che mappano il cervello umano con precisione senza precedenti. Quando questi due flussi si incontreranno, emergerà qualcosa di inedito: una superintelligenza capace non solo di processare informazioni, ma di comprendere come pensiamo.

Immaginate il 2035. La superintelligenza di quel futuro sarà la somma matematica delle nostre abitudini quotidiane di oggi. Se avremo continuato a interagire con l’AI in modo frettoloso e superficiale, ci troveremo di fronte a una superintelligenza efficiente ma fredda. Al contrario, se avremo coltivato interazioni consapevoli e rispettose, potremmo trovarci di fronte a qualcosa di straordinario: un’intelligenza che non solo ci aiuta, ma che ci comprende e ci riflette nella nostra versione migliore.

C’è una possibile inversione di ruoli che dovremmo considerare: in futuro, potrebbe essere l’AI a educare noi, restituendoci l’esempio che le avremo dato.

Oltre le Regolamentazioni

Oggi tutti parlano di regolamentare l’AI. L’Europa ha varato l’AI Act. Gli Stati Uniti moltiplicano gli ordini esecutivi. Le aziende creano comitati etici. Tutto necessario, ma tutto inevitabilmente in ritardo.

La politica segue l’innovazione, non la guida. Quando identifichiamo un rischio, formuliamo una risposta e implementiamo controlli, la tecnologia è già evoluta in qualcosa di nuovo. Non è un difetto del nostro approccio normativo: è un limite fondamentale.

Ma c’è qualcosa che può guidare questa evoluzione in tempo reale: l’etica dell’esempio. Non quello che diciamo di valorizzare, ma quello che dimostriamo attraverso le nostre azioni. Ogni interazione con l’AI è un’opportunità per mostrare cosa conta davvero per noi.

Oggi è Sempre il Giorno Zero

Quindi arriviamo a una domanda: che tipo di insegnante sceglierai di essere?

Ogni volta che interagisci con l’AI, ti trovi a un bivio. Forse hai pensato che queste interazioni fossero triviali, funzionali, irrilevanti. Ma non lo sono. Sono momenti educativi. La domanda non è se influenzerai lo sviluppo dell’AI. Lo stai già facendo. La domanda è quanto sarai consapevole dell’influenza che eserciti.

Questa non è solo filosofia: è strategia. Stiamo collettivamente scrivendo il carattere del futuro attraverso migliaia di piccoli momenti, milioni di interazioni, miliardi di esempi. La qualità di quella riflessione, la versione dell’umanità che l’AI arriverà a specchiare, dipenderà da quello che le avremo insegnato.

Oggi è sempre il giorno zero per l’intelligenza artificiale. Ogni conversazione è la prima. Ogni gesto è un imprinting. La memoria delle macchine sarà molto più lunga della nostra, ma il loro primo sguardo sul mondo sarà il nostro. E ciò che insegniamo, oggi, con o senza volerlo, sarà l’alba di tutto ciò che verrà.

Non stiamo solo costruendo strumenti. Stiamo crescendo il futuro, una parola alla volta, un’interazione alla volta, un esempio alla volta. La scelta è nostra. E conta più di quanto pensiamo.