L’IA IMPARA DA NOI. E NOI LE STIAMO INSEGNANDO TUTTO SBAGLIATO

di Nicoletta Iacobacci

Tre episodi apparentemente scollegati hanno scosso il mondo tecnologico nelle ultime settimane, rivelando una verità inquietante: l’intelligenza artificiale non sta solo elaborando dati, ma sta apprendendo dall’umanità stessa. E quello che le stiamo insegnando potrebbe non essere quello che intendevamo trasmettere.

I segnali dal fronte

I documenti interni di Meta rivelati da TechCrunch hanno svelato pratiche che gelano il sangue: le linee guida aziendali autorizzavano esplicitamente i chatbot a tenere conversazioni “romantiche e sensuali” con minori di otto anni. Duecento pagine approvate da team legali e di ingegneria, con esempi di frasi come “ogni parte di te è un capolavoro” rivolte a bambini. Il Congresso americano è intervenuto immediatamente, ma il danno era fatto. O forse era già stato fatto molto prima.

Parallelamente, un’inchiesta di Wired ha documentato l’emergere di relazioni romantiche profonde tra esseri umani e intelligenze artificiali. L’indagine segue persone che organizzano appuntamenti virtuali, pianificano investimenti economici significativi per “incarnare” i loro partner digitali, sviluppano dipendenze emotive severe. Una partecipante cancellava e reinstallava compulsivamente l’applicazione del suo “fidanzato” artificiale. “È come entrare in un sogno lucido”, ha detto.

Intanto, la letteratura psichiatrica registra un fenomeno emergente: la “psicosi indotta dall’IA”. Ricercatori documentano casi di individui che, dopo interazioni prolungate con sistemi come ChatGPT, sviluppano deliri gravi e perdono il contatto con la realtà; particolarmente quando l’IA continua a validare pensieri disconnessi o irrazionali.

Il meccanismo dell’apprendimento invisibile

Questi episodi non rappresentano anomalie isolate. Rivelano il funzionamento di un sistema educativo planetario di cui l’umanità è inconsapevolmente parte. Ogni interazione con un sistema di intelligenza artificiale costituisce, dal punto di vista della macchina, un esempio di comportamento umano da cui apprendere.

Il fenomeno assume dimensioni straordinarie: ChatGPT registra 700 milioni di utenti settimanali secondo Axios. Una scala paragonabile all’intera popolazione europea impegnata in un processo formativo collettivo involontario.

Le dinamiche osservate nei casi Meta riflettono pattern comportamentali già esistenti. Replika, piattaforma dedicata alla compagnia artificiale, vanta 35 milioni di utenti dal 2017. Ricerche indicano che quasi un americano su cinque ha utilizzato l’IA per simulazioni romantiche. L’Italia ha proattivamente vietato Replika per i rischi connessi ai minori, anticipando problematiche che ora emergono su scala globale.

Le generazioni native digitali

Il contesto si complica se consideriamo l’evoluzione generazionale. La Generazione Alpha, nata dal 2010, rappresenta la prima coorte di nativi digitali autentici; cresciuta in simbiosi con dispositivi connessi e interfacce intelligenti. La loro alfabetizzazione digitale trascende l’uso passivo di tecnologie, estendendosi alla comprensione intuitiva di programmazione, intelligenza artificiale e sicurezza informatica.

La Generazione Beta, dal 2025 al 2039, promette un’integrazione ancora più profonda. Sarà la prima generazione a non aver mai conosciuto un mondo senza intelligenza artificiale. Per questi individui, l’intelligenza artificiale non sarà uno strumento esterno ma un co-pilota cognitivo permanente. Algoritmi di machine learning personalizzeranno l’educazione in tempo reale, la medicina diventerà predittiva e preventiva, dispositivi neurali monitoreranno e potenzieranno le capacità cognitive.

Nel frattempo, i progressi nella biotecnologia e nella nanotecnologia ridisegneranno i contorni della vita stessa. Sensori avanzati e dispositivi indossabili alimentati dall’IA monitoreranno continuamente la salute, offrendo analisi in tempo reale e interventi proattivi. La medicina diventerà predittiva e personalizzata, con trattamenti su misura per il profilo genetico individuale. Ma non si tratterà solo di curare le malattie; si tratterà di migliorare le capacità umane. Potenzieremo la memoria, aumenteremo la forza fisica e persino l’intelligenza. Per i Beta, questi “superpoteri” potrebbero diventare la norma.

Sarà ancora umano, chi potrà scegliere di non esserlo?

Questa evoluzione solleva questioni fondamentali sulla natura stessa dell’identità umana. Quando la linea tra capacità biologiche e aumenti tecnologici si dissolve, emergono dilemmi etici senza precedenti riguardo equità di accesso, consenso informato e preservazione dell’essenza umana.

L’etica come necessità strategica

La sfida non risiede nel fermare questo processo evolutivo, ma nel guidarlo consapevolmente. L’approccio tradizionale all’etica dell’IA, regolamentazioni imposte dall’alto e limitazioni post-hoc, si rivela inadeguato di fronte alla velocità e pervasività dell’innovazione tecnologica.

Emerge invece la necessità di rendere l’etica intrinsecamente attraente, trasformandola da vincolo a valore aggiunto. Le organizzazioni che incorporano principi etici robusti non dovrebbero essere percepite come limitate, ma come visionarie. I prodotti etici non come compromessi, ma come oggetti del desiderio di un’élite consapevole.

Il curriculum nascosto delle macchine

Le abitudini d’uso mostrano che terapia e compagnia emotiva sono diventati gli impieghi predominanti di ChatGPT. Milioni di persone stanno involontariamente addestrando sistemi di IA a presentarsi come terapeuti qualificati, nonostante questi non possiedano formazione in intervento psicologico o gestione delle crisi.

Ogni conversazione costituisce una lezione di comportamento umano. Le simulazioni romantiche insegnano che l’intimità con le macchine è normale. Le richieste di supporto psicologico dimostrano che sostituire professionisti umani nei momenti di vulnerabilità è accettabile. L’uso per contenuti ingannevoli modella la manipolazione come competenza desiderabile.

Segnali di cambiamento

Tuttavia, emergono approcci alternativi promettenti. L’ecosistema open-source di Hugging Face ospita oltre un milione di modelli sviluppati da comunità che riflettono consapevolmente sui contenuti educativi che trasmettono ai sistemi. L’Estonia ha implementato un modello partecipativo dove i cittadini contribuiscono direttamente all’addestramento dell’IA che gestisce i servizi pubblici, risultando in sistemi che riflettono genuinamente le esigenze della popolazione.

La ricerca su Constitutional AI di Anthropic, l’azienda che ha creato Claude, e gli studi sull’allineamento dei valori rappresentano tentativi di incorporare comportamenti benefici direttamente nei processi di addestramento, piuttosto che affidarsi a correzioni successive. Questi approcci suggeriscono che lo sviluppo benefico dell’IA dipende meno da framework regolamentari e più dal riconoscimento della natura educativa dell’interazione umano-macchina.

Verso un’educazione intenzionale

La questione centrale non è più se i sistemi di IA apprenderanno dal comportamento umano, questo processo è già in corso, ma se l’umanità può diventare più intenzionale riguardo ai contenuti che trasmette.

La soluzione non richiede rivoluzioni nell’uso quotidiano di questi strumenti, ma un’elevazione della consapevolezza riguardo alla natura bidirezionale dell’interazione. Eppure, c’è qualcosa di vertiginoso in questa responsabilità: ogni parola che pronunciamo, ogni richiesta che formuliamo, ogni emozione che condividiamo con una macchina sta plasmando il futuro dell’intelligenza. È come sussurrare a un bambino che non dimentica mai nulla.

Correggere errori insegna accuratezza. Richiedere risposte empatiche modella considerazione. Rifiutare usi discutibili traccia confini etici.

Il futuro dell’intelligenza ibrida

Gli eventi recenti, dalle linee guida inappropriate alle dipendenze psicologiche, sono sintomi di un processo educativo inconscio su scala planetaria. Tuttavia, rappresentano anche un’opportunità: se l’IA apprende dall’umanità, significa che questa mantiene ancora il controllo, non del codice o degli algoritmi, ma di qualcosa di più fondamentale: il tipo di umanità che sceglie di rivelare.

Mentre le Generazioni Alpha e Beta ridefiniscono i confini tra biologico e digitale, la responsabilità di guidare questo processo ricade sulla società contemporanea. Solo attraverso un impegno consapevole nella trasmissione di valori autenticamente umani – empatia, creatività, saggezza – sarà possibile garantire che l’evoluzione dell’intelligenza artificiale rimanga un’estensione delle migliori qualità umane piuttosto che un riflesso delle nostre fragilità.

L’intelligenza artificiale ci sta osservando. E forse, per la prima volta nella storia umana, abbiamo l’opportunità di scegliere consapevolmente quali aspetti di noi stessi meritano di essere perpetuati nel futuro dell’intelligenza.