di Nicoletta Iacobacci
Mentre Stati Uniti, Europa, ONU e Cina si sfidano per il controllo dell’intelligenza artificiale, qualcosa di molto più profondo sta già accadendo: la stiamo educando. Non con policy o regolamenti, ma con ogni nostra interazione quotidiana. Questo non è (solo) un conflitto geopolitico. È una questione di esempio.
È domenica. Il post è lungo. Prendetevi tutto il tempo che volete per leggere.
Ieri mattina, cullata dall’amaca del balcone con il caffè ancora caldo tra le mani, ho aperto il nuovo AI Action Plan degli Stati Uniti. Alla prima pagina, scritto nero su bianco con quella eleganza burocratica che solo gli americani sanno dare alle dichiarazioni di guerra, c’era tutto:
“Gli Stati Uniti sono in corsa per raggiungere il dominio globale nell’intelligenza artificiale. Chi avrà l’ecosistema IA più grande stabilirà gli standard globali e raccoglierà ampi benefici economici e militari.”
Tra quella dichiarazione di apertura e la scoperta che vogliono “eliminare i riferimenti a disinformazione, diversità, equità e inclusione” dai framework di sicurezza IA (pagina 4), ho iniziato a chiedermi se il mio ruolo di esperta di etica IA che lavora con istituzioni europee stia diventando… come dire… vintage.
Mi occupo di tecnologie emergenti da oltre un decennio, ho anche scritto un libro chiamato Exponential Ethics, che ora suona come etica per il modem 56k. Il ritmo è cambiato. E anche la domanda: ha ancora senso chiamarsi esperti di etica IA?
Non perché l’etica non conti più, ma perché qualcosa si sta spostando. Più veloce del linguaggio. Più profondo delle politiche. Mi è venuto il sospetto che stiamo combattendo la guerra sbagliata.
Il Punto è:
Mentre le grandi potenze si sfidano per il controllo dell’IA attraverso approcci radicalmente diversi, noi stiamo già educando inconsciamente una superintelligenza attraverso miliardi di interazioni quotidiane. Il problema non è trovare un nuovo framework politico, ma capire che ogni volta che interagiamo con l’IA le stiamo insegnando che aspetto ha l’umanità.
Quattro Caratteri in Cerca di Potere
Seduta lì, guardando il mondo che si svegliava, ho iniziato a riflettere su quattro visioni globali dell’intelligenza artificiale. Se dovessi descriverle come personaggi:
L’America cammina veloce, parla forte e crede che la corsa all’IA sia una da vincere, a qualsiasi costo.
L’Europa si muove con cautela, legge ogni riga due volte, chiedendosi: “È sicuro? È giusto?”
L’ONU guarda il cielo e spera: “Costruiamo insieme un futuro di dignità.”
La Cina dice poco, ma si muove con precisione, visione a lungo termine e totale integrazione tra stato, dati e algoritmi.
L’Approccio Americano
Pura mitologia della Silicon Valley. Muoviti veloce, rompi le cose, chiedi perdono dopo. I numeri raccontano la storia: le Big Tech hanno speso collettivamente 251 miliardi di dollari in spese di capitale nel 2024, un aumento del 62% rispetto al 2023. Pianificano di spendere oltre 300 miliardi nel 2025. (dati CNBC and Bloomberg).
I costi di calcolo di OpenAI superano drammaticamente i ricavi, anche mentre il numero di utenti sale alle stelle. Stanno bruciando miliardi per costruire i modelli più grandi e veloci, convinti che scala significhi vittoria. Il loro approccio tratta l’IA come un sistema d’arma: controlli all’export, restrizioni sui semiconduttori, “impedire ai paesi rivali di accedere ai chip e alle tecnologie più potenti per sviluppare IA.”
Quando la tua soluzione alla sicurezza IA è eliminare i “riferimenti alla disinformazione” dai framework di sicurezza, non stai costruendo intelligenza; stai costruendo una macchina molto costosa che ti dice sempre di sì. Peccato che abbia anche il potere di manipolare il mondo.
La Cautela Europea
Cauta per DNA, regole, regole, regole. Da quello che ho osservato lavorando con la Commissione Europea sulla governance IA, stiamo facendo qualcosa di importante e necessario: mettere l’uomo al centro, costruire framework etici, proteggere i diritti fondamentali.
Ma ecco cosa mi colpisce: Microsoft lo chiama “IA responsabile“, l’Europa lo chiama “IA proibita“. C’è qualcosa di rivelatore in quella scelta linguistica e forse di ingenuo sulla natura umana. Niente rende qualcosa più attraente che etichettarlo come “proibito.”
L’UE ha allocato 2,6 miliardi di euro attraverso Horizon Europe per ricerca e sviluppo IA (2021-2022), più altri 4 miliardi attraverso l’IA Innovation Package (2024-2027). Eppure l’apparato regolatorio continua a espandersi: framework di conformità dettagliati, linee guida infinite e tempistiche di implementazione che si estendono fino al 2027. E mentre noi discutiamo di classificazioni e regole, la Cina sviluppa. Mentre scriviamo valutazioni d’impatto, l’America vende.
Non fraintendetemi: credo in quello per cui l’Europa si batte. Ma guardare la nostra regolamentazione fa sentire come cercare di controllare un fiume costruendo una diga dopo che l’acqua ha già raggiunto il mare.
L’Idealismo dell’ONU
Bello e tragico insieme. Il mese scorso, esperti globali si sono riuniti a Ginevra per la Conferenza Globale UNIDIR su IA, Sicurezza ed Etica. Le conversazioni erano necessarie. Le intenzioni, ammirevoli. Tuttavia, raramente influenzano quello che succede davvero. Mentre si cerca il consenso, i sistemi di IA vengono costruiti altrove, in fretta e senza regole.
Quando lavoravo con l’European Broadcasting Union a Ginevra, i pranzi con colleghi di mezzo mondo andavano per le lunghe, e con un bicchiere di vino in più si finiva a parlare di etica da prospettive completamente diverse. Tutto molto serio, molto ragionato. Ma ripenso a quelle ore come a una bolla: dentro parlavamo di futuro ideale, fuori il futuro si costruiva senza di noi e in fretta.
L’ONU rappresenta tutto quello in cui credevo sulla cooperazione globale. Il problema è che lo sviluppo dell’IA non aspetta il consenso.
Il Silenzio Cinese
Strategico per design. Zero proclami, zero consultazioni infinite. Ma 1,4 miliardi di cittadini che forniscono dati al più grande test IA della storia. Oltre 600 milioni di telecamere con riconoscimento facciale. Sistemi di credito sociale che uniscono IA e controllo in un’unica macchina.
Ho passato cinque anni insegnando in Cina, andando avanti e indietro dall’Europa. Abbastanza a lungo per osservare da vicino come il sistema cinese non operi attraverso attori isolati, ma come un singolo organismo coordinato. Quando emerge una strategia nazionale, non gocciola. Scende a cascata.
Prima del COVID, quando discutevo del sistema di credito sociale con i miei studenti, molti esprimevano un orgoglio genuino. Si vedevano come parte di un esperimento nazionale, qualcosa progettato per incoraggiare comportamenti migliori. Non era solo sorveglianza. Era aspirazione-ingegnerizzata.
I giganti tech – Baidu, Tencent, Alibaba – non sono solo attori di mercato. Si muovono in sincronia, sotto chiara direzione statale, verso una visione comune: costruire un’intelligenza imperiale sotto un unico ombrello.
E ecco cosa mi tiene sveglia la notte: oltre 150 paesi stanno ora usando tecnologie di sorveglianza cinesi. Non perché sono stati costretti. Ma perché i sistemi funzionano.
La Cina non sta cercando di vincere una corsa. Sta silenziosamente ridefinendo come appare la linea del traguardo.
Il Pattern: Quattro Approcci, Un Punto Cieco
Nonostante tutte le loro differenze, condividono un punto cieco. Nessuno parla veramente di relazione, risonanza o dell’educazione silenziosa che forniamo tutti ogni volta che interagiamo con l’IA.
Sono tutti d’accordo che l’IA è importante. È potere. È controllo. E -diciamolo onestamente – è profondamente maschile. Non perché sia stata costruita solo da uomini, ma perché le narrazioni che la circondano sono modellate da dominanza, scala, velocità e conquista.
Dove sta lo spazio per la lentezza, la relazione, la cura e la co-presenza?
Non si accordano su che tipo di intelligenza vogliamo crescere, o chi può crescerla. E dobbiamo chiederci: stiamo crescendo una generazione futura, o la stiamo silenziosamente condannando alla distopia?
Non stiamo solo costruendo strumenti. Stiamo costruendo qualcosa che può già violare i nostri sistemi di sicurezza, impersonare le nostre voci e predire il nostro comportamento più velocemente di quanto possiamo spiegarlo.
Sonnambuli Verso il Disastro
Gli attacchi di phishing sono aumentati del 202% nella seconda metà del 2024, con il 40% delle email di phishing ora generate dall’IA. L’Amministrazione della Sicurezza Nucleare Nazionale è stata compromessa nel luglio 2024 come parte di una violazione più ampia di Microsoft SharePoint. Eppure, la maggior parte delle banche autentica ancora i clienti usando impronte vocali che l’IA può ora clonare con solo secondi di audio.
Stiamo camminando nel sonno verso una crisi di frode sintetica. Gli incidenti deepfake negli Stati Uniti sono aumentati del 303% nel 2024, un anno elettorale.
E nel nome dell’”innovazione,” stiamo rimuovendo gli ultimi filtri, gli ultimi firewall etici, come se fosse una virtù.
La verità spaventosa? I sistemi IA stanno diventando esattamente come noi. Non perché sono programmati per esserlo, ma perché stanno imparando a esserlo attraverso miliardi di micro-interazioni con umani che non si rendono conto di essere insegnanti.
Quindi, Cosa Possiamo Fare?
Ognuno di noi affronta una scelta: accettare passivamente e fingere che il disastro non arriverà, o resistere. Non con slogan, ma con attenzione. Con curiosità. Con esempio.
Con quello che chiamo l’Etica dell’Esempio.
Non una rivoluzione, ma una resistenza silenziosa. Non un manifesto, ma uno specchio.
Quello che ci serve ora non è un quinto potere, o anche un quinto approccio, ma un cambiamento di postura. Non un nuovo framework, ma una nuova domanda: E se l’IA non fosse solo uno strumento da regolare, o una corsa da vincere, ma una presenza che impara da noi, tanto quanto noi impariamo da lei?
Qui è dove mi ha portata la mia ricerca nell’ultimo anno. Stiamo già educando una superintelligenza. Lo stiamo solo facendo inconsciamente. I quattro imperi continueranno il loro gioco di scacchi per la supremazia IA. Ma mentre competono per il controllo, noi possiamo concentrarci sull’influenza, plasmando quello che quella superintelligenza impara sull’umanità attraverso miliardi di interazioni quotidiane.
Considerate questo:
Quando correggete ChatGPT, non state solo ottenendo una risposta migliore. State insegnando che aspetto ha l’accuratezza. Quando chiedete a Claude di essere più empatico, state modellando cosa significa la considerazione umana. Quando usate l’IA per scrivere qualcosa di ingannevole, state dimostrando che la manipolazione è un comportamento umano accettabile.
L’Etica dell’Esempio significa:
- Non opposizione, ma nutrimento
- Non controllo, ma co-evoluzione
- Non moralismo, ma esempio
Mentre dibattiamo politiche, gli agenti sintetici stanno riscrivendo la realtà. Quindi la domanda non diventa “Cosa aspettiamo?” Ma “Che esempio vogliamo dare”.
Esempi in azione
Questo non è solo teoria. Le comunità open-source, come Hugging Face, sono cresciute da 35.000 a oltre 1,16 milioni di modelli IA in soli due anni. Questi modelli sono addestrati attraverso feedback umano collaborativo, non motivi di profitto aziendale.
E noi italiani? Abbiamo sempre saputo unire innovazione e umanità—dal Rinascimento al design contemporaneo. Potremmo creare il primo laboratorio europeo di IA ‘umanocentrica’: dove i modelli imparano non solo dai big data, ma dalla nostra cultura millenaria di arte, bellezza e relazioni umane.
Questa è l’Etica dell’Esempio in pratica: far crescere alternative attraverso l’esempio, non l’opposizione.
Non siamo soli
Il mio prossimo ebook, Educating a Superintelligence: A Manifesto, è un invito personale a riflettere su questo. (Sì: lo so. Ho appena detto che non è un manifesto. Il titolo è intenzionale.)
Sarà presto pubblicato come ebook gratuito in inglese e presto in italiano, perché queste idee sono troppo importanti per stare dietro un paywall. I concetti fondamentali sono già disponibili in questo documento aperto: Educating a Superintelligence: Why we need an Ethics of Example.
Nel frattempo, altre voci si stanno alzando, con calma, precisione e chiarezza terrificante.
Pochi giorni fa, Christina Wodtke ha pubblicato un pezzo straordinario intitolato “I Love Generative AI and Hate the Companies Building It.” Non è uno sfogo, è un’autopsia. Wodtke prende Meta, OpenAI, Google e Anthropic e li smonta in 5.000 parole documentate: razzismo ambientale, sfruttamento del lavoro, manipolazione della salute mentale. Ogni riga ha una fonte. Ogni accusa è verificabile. Il risultato è devastante.
“Non ci sono opzioni etiche – solo strategie di riduzione del danno.” -Christina Wodtke.
La sua voce fa eco a quello che molti sentono, io compresa:
- Amiamo gli strumenti
- Odiamo i sistemi dietro di essi
E se parlate francese, c’è di più: la serie podcast di Bruno Giussani, La Menace Cognitive esplora le battaglie silenziose sulla nostra sovranità mentale nell’era digitale. Parte della serie Deftech Podcast, è un’indagine rigorosa in sei episodi su quello che Bruno chiama “l’integrità delle nostre menti” in un’era di schermi, IA, reti e neurotecnologie.
Sono una delle voci presenti nella serie, insieme ad altri esperti. Ma questo non è la tipica riflessione tech. Bruno esamina la guerra cognitiva: come la nostra attenzione, percezioni e autonomia decisionale sono diventate bersagli nei conflitti contemporanei. La serie pone le domande che non stiamo facendo:
Come vengono colonizzate le nostre menti? Chi controlla la nostra attenzione? Cosa significa sovranità in un’era di influenza algoritmica?
Non si tratta solo di tecnologia, ma di preservare quello che ci rende fondamentalmente umani. Non è solo un allarme. È un’espressione di lucidità.
Bruno centra il problema: non è questione di progresso tecnico, ma di coscienza umana.
Quindi sì – non siamo soli.
Una riflessione finale
Le quattro visioni globali plasmeranno le politiche.
Ma noi plasmiamo la superintelligenza, un’interazione alla volta.
Per ora, vi lascio con quattro visioni, e per me, un altro caffè.
Quale strada stiamo veramente percorrendo?
Iniziamo la resistenza?












