QUATTRO IMPERI SI SFIDANO SULL’IA. E NOI?

di Nicoletta Iacobacci

Mentre Stati Uniti, Europa, ONU e Cina si sfidano per il controllo dell’intelligenza artificiale, qualcosa di molto più profondo sta già accadendo: la stiamo educando. Non con policy o regolamenti, ma con ogni nostra interazione quotidiana. Questo non è (solo) un conflitto geopolitico. È una questione di esempio.

È domenica. Il post è lungo. Prendetevi tutto il tempo che volete per leggere.

“Gli Stati Uniti sono in corsa per raggiungere il dominio globale nell’intelligenza artificiale. Chi avrà l’ecosistema IA più grande stabilirà gli standard globali e raccoglierà ampi benefici economici e militari.”

Tra quella dichiarazione di apertura e la scoperta che vogliono “eliminare i riferimenti a disinformazione, diversità, equità e inclusione” dai framework di sicurezza IA (pagina 4), ho iniziato a chiedermi se il mio ruolo di esperta di etica IA che lavora con istituzioni europee stia diventando… come dire… vintage.

Mi occupo di tecnologie emergenti da oltre un decennio, ho anche scritto un libro chiamato Exponential Ethics, che ora suona come etica per il modem 56k. Il ritmo è cambiato. E anche la domanda: ha ancora senso chiamarsi esperti di etica IA?

Non perché l’etica non conti più, ma perché qualcosa si sta spostando. Più veloce del linguaggio. Più profondo delle politiche. Mi è venuto il sospetto che stiamo combattendo la guerra sbagliata.

Il Punto è:

Mentre le grandi potenze si sfidano per il controllo dell’IA attraverso approcci radicalmente diversi, noi stiamo già educando inconsciamente una superintelligenza attraverso miliardi di interazioni quotidiane. Il problema non è trovare un nuovo framework politico, ma capire che ogni volta che interagiamo con l’IA le stiamo insegnando che aspetto ha l’umanità.

Quattro Caratteri in Cerca di Potere

Seduta lì, guardando il mondo che si svegliava, ho iniziato a riflettere su quattro visioni globali dell’intelligenza artificiale. Se dovessi descriverle come personaggi:

L’America cammina veloce, parla forte e crede che la corsa all’IA sia una da vincere, a qualsiasi costo.

L’Europa si muove con cautela, legge ogni riga due volte, chiedendosi: “È sicuro? È giusto?”

L’ONU guarda il cielo e spera: “Costruiamo insieme un futuro di dignità.”

La Cina dice poco, ma si muove con precisione, visione a lungo termine e totale integrazione tra stato, dati e algoritmi.

L’Approccio Americano

I costi di calcolo di OpenAI superano drammaticamente i ricavi, anche mentre il numero di utenti sale alle stelle. Stanno bruciando miliardi per costruire i modelli più grandi e veloci, convinti che scala significhi vittoria. Il loro approccio tratta l’IA come un sistema d’arma: controlli all’export, restrizioni sui semiconduttori, “impedire ai paesi rivali di accedere ai chip e alle tecnologie più potenti per sviluppare IA.”

Quando la tua soluzione alla sicurezza IA è eliminare i “riferimenti alla disinformazione” dai framework di sicurezza, non stai costruendo intelligenza; stai costruendo una macchina molto costosa che ti dice sempre di sì. Peccato che abbia anche il potere di manipolare il mondo.

La Cautela Europea

Cauta per DNA, regole, regole, regole. Da quello che ho osservato lavorando con la Commissione Europea sulla governance IA, stiamo facendo qualcosa di importante e necessario: mettere l’uomo al centro, costruire framework etici, proteggere i diritti fondamentali.

Non fraintendetemi: credo in quello per cui l’Europa si batte. Ma guardare la nostra regolamentazione fa sentire come cercare di controllare un fiume costruendo una diga dopo che l’acqua ha già raggiunto il mare.

L’Idealismo dell’ONU

L’ONU rappresenta tutto quello in cui credevo sulla cooperazione globale. Il problema è che lo sviluppo dell’IA non aspetta il consenso.

Il Silenzio Cinese

Prima del COVID, quando discutevo del sistema di credito sociale con i miei studenti, molti esprimevano un orgoglio genuino. Si vedevano come parte di un esperimento nazionale, qualcosa progettato per incoraggiare comportamenti migliori. Non era solo sorveglianza. Era aspirazione-ingegnerizzata.

La Cina non sta cercando di vincere una corsa. Sta silenziosamente ridefinendo come appare la linea del traguardo.

Il Pattern: Quattro Approcci, Un Punto Cieco

Nonostante tutte le loro differenze, condividono un punto cieco. Nessuno parla veramente di relazione, risonanza o dell’educazione silenziosa che forniamo tutti ogni volta che interagiamo con l’IA.

Sono tutti d’accordo che l’IA è importante. È potere. È controllo. E -diciamolo onestamente – è profondamente maschile. Non perché sia stata costruita solo da uomini, ma perché le narrazioni che la circondano sono modellate da dominanza, scala, velocità e conquista.

Dove sta lo spazio per la lentezza, la relazione, la cura e la co-presenza?

Non si accordano su che tipo di intelligenza vogliamo crescere, o chi può crescerla. E dobbiamo chiederci: stiamo crescendo una generazione futura, o la stiamo silenziosamente condannando alla distopia?

Sonnambuli Verso il Disastro

E nel nome dell’”innovazione,” stiamo rimuovendo gli ultimi filtri, gli ultimi firewall etici, come se fosse una virtù.

La verità spaventosa? I sistemi IA stanno diventando esattamente come noi. Non perché sono programmati per esserlo, ma perché stanno imparando a esserlo attraverso miliardi di micro-interazioni con umani che non si rendono conto di essere insegnanti.

Quindi, Cosa Possiamo Fare?

Ognuno di noi affronta una scelta: accettare passivamente e fingere che il disastro non arriverà, o resistere. Non con slogan, ma con attenzione. Con curiosità. Con esempio.

Con quello che chiamo l’Etica dell’Esempio.

Non una rivoluzione, ma una resistenza silenziosa. Non un manifesto, ma uno specchio.

Quello che ci serve ora non è un quinto potere, o anche un quinto approccio, ma un cambiamento di postura. Non un nuovo framework, ma una nuova domanda: E se l’IA non fosse solo uno strumento da regolare, o una corsa da vincere, ma una presenza che impara da noi, tanto quanto noi impariamo da lei?

Qui è dove mi ha portata la mia ricerca nell’ultimo anno. Stiamo già educando una superintelligenza. Lo stiamo solo facendo inconsciamente. I quattro imperi continueranno il loro gioco di scacchi per la supremazia IA. Ma mentre competono per il controllo, noi possiamo concentrarci sull’influenza, plasmando quello che quella superintelligenza impara sull’umanità attraverso miliardi di interazioni quotidiane.

Considerate questo:

Quando correggete ChatGPT, non state solo ottenendo una risposta migliore. State insegnando che aspetto ha l’accuratezza. Quando chiedete a Claude di essere più empatico, state modellando cosa significa la considerazione umana. Quando usate l’IA per scrivere qualcosa di ingannevole, state dimostrando che la manipolazione è un comportamento umano accettabile.

L’Etica dell’Esempio significa:

  • Non opposizione, ma nutrimento
  • Non controllo, ma co-evoluzione
  • Non moralismo, ma esempio

Mentre dibattiamo politiche, gli agenti sintetici stanno riscrivendo la realtà. Quindi la domanda non diventa “Cosa aspettiamo?” Ma “Che esempio vogliamo dare”.

Esempi in azione

E noi italiani? Abbiamo sempre saputo unire innovazione e umanità—dal Rinascimento al design contemporaneo. Potremmo creare il primo laboratorio europeo di IA ‘umanocentrica’: dove i modelli imparano non solo dai big data, ma dalla nostra cultura millenaria di arte, bellezza e relazioni umane.

Questa è l’Etica dell’Esempio in pratica: far crescere alternative attraverso l’esempio, non l’opposizione.

Non siamo soli

Il mio prossimo ebook, Educating a Superintelligence: A Manifesto, è un invito personale a riflettere su questo. (Sì: lo so. Ho appena detto che non è un manifesto. Il titolo è intenzionale.)

Nel frattempo, altre voci si stanno alzando, con calma, precisione e chiarezza terrificante.

“Non ci sono opzioni etiche – solo strategie di riduzione del danno.” -Christina Wodtke.

La sua voce fa eco a quello che molti sentono, io compresa:

  • Amiamo gli strumenti
  • Odiamo i sistemi dietro di essi

Sono una delle voci presenti nella serie, insieme ad altri esperti. Ma questo non è la tipica riflessione tech. Bruno esamina la guerra cognitiva: come la nostra attenzione, percezioni e autonomia decisionale sono diventate bersagli nei conflitti contemporanei. La serie pone le domande che non stiamo facendo:

Come vengono colonizzate le nostre menti? Chi controlla la nostra attenzione? Cosa significa sovranità in un’era di influenza algoritmica?

Non si tratta solo di tecnologia, ma di preservare quello che ci rende fondamentalmente umani. Non è solo un allarme. È un’espressione di lucidità.

Bruno centra il problema: non è questione di progresso tecnico, ma di coscienza umana.

Quindi sì – non siamo soli.

Una riflessione finale

Le quattro visioni globali plasmeranno le politiche.
Ma noi plasmiamo la superintelligenza, un’interazione alla volta.

Per ora, vi lascio con quattro visioni, e per me, un altro caffè.

Quale strada stiamo veramente percorrendo?

Iniziamo la resistenza?


NUOVE USCITE HERAION

IN LIBRERIA

E-BOOKS


TAGS DEL MAGAZINE

alimentazione (32) ambiente (37) america (33) arte (79) cinema (65) civismo (67) cultura (437) democrazia (65) economia (139) elezioni (74) europa (129) fascismo (41) filosofia (43) formazione (38) geopolitica (32) giovani (39) guerra (134) intelligenza artificiale (52) israele (35) italia (87) lavoro (59) letteratura (72) mario pacelli (32) media (80) medio oriente (32) memoria (41) milano (36) musica (195) pianoforte (38) podcast (36) politica (642) potere (263) rai (35) religione (34) roma (33) russia (41) salute (77) scuola (41) seconda guerra mondiale (61) sinistra (33) società (594) stefano rolando (32) storia (90) teatro (51) tecnologia (41) televisione (51) tradizione (34) trump (58) ucraina (45) USA (48)



ULTIMI ARTICOLI PUBBLICATI