di Paolo Storelli
La tecnologia ha cambiato il nostro modo di informarci, di comunicare, di partecipare alla vita pubblica. Ha cambiato il nostro modo di stare al mondo, il nostro modo di percepirlo e influenzarlo. La portata della trasformazione in atto sulla nostra società è profonda e procede ad un ritmo tale da rendere molto difficile interpretarla. I vantaggi pratici sono immensi.
Il web ha aperto spazi inediti di accesso alle informazioni, di creatività diffusa e di libertà individuale. L’Intelligenza Artificiale (IA) apre prospettive di applicazione che potrebbero migliorare moltissimo la vita delle persone, in modi che adesso nemmeno immaginiamo.
Tuttavia è bene capire che questi vantaggi non stanno arrivando gratis: hanno prodotto anche grossi problemi. Nella comunicazione, l’esplosione dei collegamenti diretti ha causato una forte disintermediazione, che a sua volta ha indebolito il ruolo di mediatori tradizionali come giornalisti, partiti, istituzioni, lasciando spazio a un’arena dominata da algoritmi che premiano polarizzazione ed estremismo. I mediatori erano utili a veicolare concetti complessi, a renderli digeribili e comprensibili al pubblico; quindi, la loro assenza implica una continua semplificazione, uno svilimento e una banalizzazione dei temi trattati. I meccanismi che garantivano una certa coerenza e responsabilità del dibattito pubblico si stanno indebolendo, quando non sono saltati del tutto. Manipolatori senza scrupoli hanno gioco facile nell’utilizzare gli strumenti forniti dalla tecnologia per indirizzare ondate di consenso popolare nella direzione più conveniente ai loro interessi particolari.
Senza più mediazione, il confronto democratico si è trasformato in un’arena dominata dalla velocità, dalle emozioni e dalla viralità. Gli algoritmi dei social, progettati per massimizzare l’attenzione e quindi i profitti, premiano contenuti estremi, divisivi, manipolatori. Da decenni almeno all’interno delle società occidentali non eravamo così divisi, così intolleranti, così arrabbiati. L’odio sembra germogliare dappertutto. La partecipazione politica è ovunque in calo o in trasformazione da una modalità attiva e propositiva ad una passiva e distruttiva. Sembra che stiamo diventando capaci solo di criticare, non più di proporre.
Con l’avvento dell’intelligenza artificiale si apre una fase ancora più delicata. Non parliamo più soltanto di strumenti che amplificano messaggi o li estremizzano, ma di tecnologie capaci di generare in autonomia testi, immagini, video e strategie di comunicazione politica.
È il passaggio da un sistema che alimenta il caos a uno che può instaurare un controllo pervasivo e invisibile. Nelle epoche passate, persino un sovrano assoluto era limitato a livello pratico da vincoli fisici: distanze, tempi, risorse e mediazioni umane limitavano l’effettivo potere coercitivo e di controllo che era possibile esercitare. Non esistevano gli strumenti per esercitare il potere su larga scala. Un imperatore romano poteva anche avere un potere assoluto sul piano teorico, ma assicurarsi che la sua volontà venisse applicata alla lettera in una provincia lontana migliaia di chilometri era un altro paio di maniche. Nemmeno in una taverna della suburra era facilissimo controllare tutto. Discorsi simili, coi dovuti adeguamenti, valgono per tutta la storia umana, fino ai dittatori del secolo scorso.
Oggi, con l’IA, diventa tecnicamente possibile un controllo continuo, personalizzato e capillare su milioni di persone. È questa la vera discontinuità: l’IA non amplia semplicemente gli effetti dei social, ma spalanca la possibilità di scenari distopici, in cui la libertà individuale rischia di essere compressa da poteri tecnologici senza precedenti, e senza limiti. Il sogno proibito di ogni autocrate: sorveglianza continua, profilazione invisibile, contenuti su misura capaci di influenzare pensieri e comportamenti, possibilità di interventi mirati e tempestivi contro ogni forma di dissenso. Una gestione del potere che non deve nemmeno essere per forza violenta nel senso classico del termine, almeno non solo, ma potrebbe anche concedersi il lusso di mantenersi morbida, sfruttando i vantaggi derivanti dal manovrare le leve del potere tecnologico in un contesto talmente saturo di informazioni che solo quelle che i decisori scelgono di privilegiare riescono a emergere sopra le altre.
Per questo occorrono scelte politiche chiare e coraggiose: la giungla tecnologica creata da social network e IA deve essere regolata in modo da contenere gli effetti più dannosi, allo stesso modo di come si è normata la vita pubblica e la sfera sociale fisica fin dai tempi delle prime società umane. Senza regole il nostro futuro è a rischio.
L’esperienza dei social network dovrebbe averci insegnato qualcosa: quando queste piattaforme sono entrate nella vita quotidiana di miliardi di persone, le istituzioni non sono intervenute, lasciando campo libero a un modello basato sull’economia dell’attenzione. Non ci siamo posti proprio il problema, probabilmente in pochissimi ci hanno riflettuto. La conseguenza è stata un ecosistema digitale in cui la qualità dell’informazione è stata sacrificata sull’altare della velocità e della viralità, in ragione di interessi economici dai contorni ormai quasi sacri e quindi intoccabili, con effetti devastanti sulla salute delle democrazie.
Le dinamiche sono note: fake news e bufale che si diffondono molto più rapidamente delle notizie verificate, perché sovente più eccitanti e pruriginose; spiegazioni sommarie o fondate sul nulla che si spandono a macchia d’olio; polarizzazione crescente alimentata da algoritmi che selezionano contenuti estremi perché più coinvolgenti; manipolazione politica attraverso profilazioni di utenti e campagne di disinformazione mirate. Tutto questo architettato, più o meno consapevolmente, da attori al di fuori di qualsivoglia controllo pubblico. Il famoso caso dello scandalo di Cambridge Analytica rappresenta un esempio perfetto.
Senza lo spregiudicato utilizzo delle nuove tecnologie fatto nelle campagne elettorali per la Brexit e per la presidenza di Trump nel 2016 forse il Regno Unito farebbe ancora parte dell’Unione Europea e Trump non sarebbe stato eletto per il suo primo mandato. Senza il primo mandato forse non sarebbe stato eletto per il presente secondo mandato e non sarebbe in questo momento la persona più potente del pianeta (lasciamo alla personale opinione di ognuno giudicare se questo sarebbe un bene o un male).
Con l’IA questi rischi non solo si ripresentano, ma si amplificano. L’IA generativa rende possibile creare contenuti falsi ma credibili su scala industriale e a costi minimi. La disinformazione diventa più sofisticata, più veloce e più difficile da smascherare. La stessa capacità di distinguere tra vero e falso, tra autentico e manipolato, rischia di essere compromesso. La verità non solo è più lenta delle bugie, come diceva giustamente Mark Twain, è anche unica in mezzo a mille falsità e più difficile da dimostrare e spiegare. Ma il pericolo più insidioso riguarda il tema della profilazione e dei contenuti mirati, quando applicati a tematiche politiche. Nei social questi strumenti sono stati utilizzati per trattenere gli utenti davanti allo schermo e incrementare i profitti delle piattaforme: messaggi personalizzati ritagliati sui gusti, sulle opinioni e sulle caratteristiche di ciascun individuo, capaci di orientare opinioni politiche, scelte di consumo, comportamenti quotidiani.
Sorgono spontanee alcune domande. Se tutto questo può essere accettabile quando si tratta di influire su di una scelta di consumo, su quali scarpe acquistare o su che abbonamento tv attivare (in definitiva non è troppo diverso dalla pubblicità classica), siamo sicuri che sia accettabile un potere così grande usato per manovrare opinioni su temi etici, morali, politici? Quando abbiamo deciso che va bene che aziende vocate al profitto si adoperino in tutti i modi per tenerci incollati allo schermo di uno smartphone? Se per massimizzare il tempo di ingaggio l’ottimo è riempire la testa delle persone di informazioni false, o incitazioni all’odio verso persone con opinioni diverse, o conferme continue di convinzioni pericolose, non è che forse il “business model” sottostante queste pratiche nuoce alla società?
La dinamica che serve per massimizzare l’ingaggio di un utente su una piattaforma è quella che tende a presentargli di continuo cose gradite e conferme di quello che già pensa, quindi è l’esatto contrario di quello che servirebbe per favorire confronto e ragionamento critico. Per questo stiamo assistendo ad un crescendo di odio, polarizzazione e radicalizzazione. Il compromesso vende meno dello scontro. Il potere derivante dalle tecnologie dell’informazione combinate con l’IA è senza precedenti, quindi non può essere lasciato alla sola logica del profitto o peggio al servizio di possibili interessi autoritari.
Di fronte all’espansione dell’intelligenza artificiale, la risposta più frequente è quella di auspicare un comportamento etico da parte delle aziende tecnologiche. Commissioni di esperti, codici volontari, linee guida sulla “responsabilità algoritmica” si moltiplicano in tutto il mondo. Ma i buoni propositi e le speranze non bastano. La verità è che l’etica, senza potere politico e senza regole vincolanti, resta una cornice retorica utile soprattutto alle grandi aziende per mostrarsi virtuose e guadagnare tempo. Il punto centrale è un altro: l’IA non è neutrale. Non lo è mai stata e non lo sarà mai, così come tutti gli strumenti inventati dall’uomo rispecchia gli intenti di chi la crea e di chi ne fa uso, con la differenza che questa volta lo strumento potrebbe prendere direzioni inaspettate e anche molto lontane da quello che il creatore immaginava.
Ogni algoritmo riflette gli interessi di chi lo progetta, di chi raccoglie e controlla i dati, di chi stabilisce gli obiettivi che gli algoritmi devono inseguire. Se oggi a dominare sono le grandi piattaforme private, allora la direzione della tecnologia sarà inevitabilmente quella della massimizzazione del profitto, non quella della tutela della democrazia. Non c’è niente di male nell’inseguire un profitto, in definitiva è anche questo inseguimento che grazie alla “mano invisibile” ha permesso di diffondere un grande livello di benessere nelle nostre società, ma il profitto deve essere reso compatibile con la salvaguardia delle nostre democrazie, e la cosa non è scontata.
È qui che deve entrare in gioco la politica. Non basta appellarsi alla responsabilità individuale delle imprese o alla buona volontà dei programmatori. Occorre definire regole chiare, vincolanti e democratiche. Regole che stabiliscono cosa è lecito e cosa no, quali usi dell’IA sono compatibili con una società aperta e pluralista e quali invece rappresentano una minaccia. Ad esempio una proposta possibile potrebbe essere quella di limitare la profilazione degli utenti e il conseguente martellamento con contenuti mirati, almeno in certi ambiti sensibili come su temi politici, medici, sociali. Queste prassi, già devastanti nel contesto dei social, potrebbero diventare fatali per la democrazia con la diffusione dell’IA.
Se una persona ha idee politiche estremiste, non è sano che sia sottoposta di continuo a contenuti che le confermano. Ad un novax incallito potrebbe fare male leggere di continuo fake news riguardanti danni provocati dai vaccini, così come ad un sostenitore dei vaccini potrebbe essere utile a volte incontrare un’opinione più esotica del solito. Le logiche con cui vengono scelti i contenuti da sottoporre agli utenti non servono ad arricchire il dibattito pubblico né a migliorare la qualità della comunicazione: servono solo a sfruttare le vulnerabilità cognitive degli individui, polarizzare le società e tenere le persone incollate agli schermi. Sono il motore nascosto della disinformazione e della radicalizzazione.
Essere sottoposti a contenuti più casuali migliorerebbe lo spirito critico delle persone, perché le farebbe confrontare con idee diverse dalle proprie, e non solo a scopo di scontro. Proibire la profilazione e il micro-targeting su certe tematiche significherebbe spezzare il legame tossico tra tecnologia, manipolazione e profitto. Non sarebbe la fine della pubblicità né della comunicazione politica, ma la fine di un modello che trasforma gli individui in cavie inconsapevoli di un gigantesco esperimento sociale che non sappiamo bene quali
conseguenze può avere. Si tratta di decidere se vogliamo un futuro governato da algoritmi opachi al servizio di pochi, o da regole condivise che proteggano i diritti di tutti.
Un’altro rischio da gestire è quello della creazione di nuovi squilibri. Senza una governance democratica, l’IA tenderà a concentrare potere e ricchezza in poche mani: quelle delle grandi aziende tecnologiche o degli Stati che controllano i dati e le infrastrutture. Questa concentrazione di potere è potenzialmente pericolosa per via della sua inerente opacità, derivante dal fatto che chi detiene il potere non è stato scelto da nessuno in modo palese e di conseguenza non è sottoposto alle responsabilità e ai controlli che ne deriverebbero. Il risultato è una crescente asimmetria tra chi dispone dei mezzi per dominare l’ecosistema digitale e chi può solo subirlo.
A questa concentrazione di potere si aggiunge il rischio della forma di controllo algoritmico diffuso cui si già è accennato: controllo totale e onnipresente, unito a decisioni automatizzate che incidono sulla vita delle persone (accesso al credito, selezione del personale, valutazione delle performance) senza trasparenza né possibilità di contestazione. In assenza di regole chiare, la promessa di efficienza rischia di trasformarsi in una nuova burocrazia opaca e disumanizzante. Anche nell’ambito del controllo sono necessarie normative che ne delimitino con chiarezza i confini, in modo da tutelare la libertà e la sfera privata dei cittadini. Occorre impedire che l’IA diventi il motore di nuove diseguaglianze e di nuove forme di sorveglianza, e al contrario adoperarsi per orientarla a beneficio della collettività.
La storia recente dovrebbe insegnarci una lezione chiara: quando la politica si limita a rincorrere la tecnologia, è la democrazia a pagarne il prezzo. È accaduto con i social network, che hanno imposto logiche di polarizzazione e manipolazione senza incontrare alcun argine regolatorio, con le conseguenze che sono sotto gli occhi di tutti. Non possiamo permettere che lo stesso destino si ripeta con l’intelligenza artificiale. Serve il coraggio di governare il cambiamento. L’IA non è uno strumento neutrale. È una tecnologia che amplifica gli interessi e i valori di chi la controlla. Per questo non basta invocare codici etici o soluzioni volontarie: servono scelte politiche che mettano al centro i diritti dei cittadini e i principi della democrazia.
Il cuore di questo progetto deve essere un una sorta di contratto sociale digitale. Un insieme di regole chiare che stabiliscano i limiti del potere tecnologico, impediscano pratiche che danneggiano le nostre società e garantiscano trasparenza e responsabilità degli algoritmi. La sfida riguarda la qualità della nostra convivenza democratica, e il tempo per raccoglierla è adesso.












