di Luciano Pilotti
Open AI “battuta” nei primi test della chatbot della cinese DeepSeek (una start up leggera ma densa di ingegneri e di idee aperte sulla frontiera tecnologica dell’AI e spin-off del fondo High Flyer). Nasdaq e borse occidentali tremano e intanto gli investitori si alleggeriscono e vendono i titoli tecnologici. Nvidia, in primo luogo, che perde in un solo giorno (27/2) il 16,45% e così Oracle con un – 12,41% e giù fino a Microsoft e Siemens con – 4 % e – 3%. Una traiettoria che ha poi trascinato nelle vendite l’intera filiera dei semiconduttori. Mentre rimanevano in “galleggiamento” le corporation non ancora esposte sull’AI (come Apple o Meta). Intanto va detto che trovandoci in una “fase fluida” di sviluppo dell’AI la corsa ai mega investimenti degli ultimi 24 mesi non ha pagato come atteso anche perché fortemente concentrato in pochi silos globali USA. L’80% dell’investimento occidentale è stato concentrato nelle prime 7 corporation dell”high tech USA che ne hanno “gonfiato” i valori borsistici all’eccesso, penalizzando i “ritardatari”, per es. Microsoft con Open AI e Oracle su Alphabet-Google e Meta.
Una marea fluviale di capitali esondanti che ha solo provocato sprechi e rendite con un lassismo improduttivo per densità e profondità di R&D che deve far riflettere sull’efficienza del modello neo-oligarchico “chiuso e proprietario” e ormai politicamente esposto a livello globale da Elon Musk con tech-right. Poi quotazioni fatte risalire dall’annuncio trumpiano del mega progetto StarGate da 500 mil.di di dollari (con la giapponese SoftBank e Open AI, Oracle, Microsoft, Arm Holdings e Nvidia stessa) nonostante un “appiattimento” delle performance percepite che inietta dubbi sul “modello di apprendimento dei chatbot” perseguito e sui suoi costi elefantiaci che potrebbero mascherare anche intenti speculativi.
Un dato che, in primo luogo, ci segnala che siamo ancora davanti ad una macchina USA tutta chiusa entro “mura proprietarie” con pochissimi vincoli istituzionali e molta deregulation che hanno favorito un “modello centripeto” (come nella “bolla Web” del 2001) e focalizzato su poche opzioni tecnologiche ritenute (sbagliando) dominanti e incanalate da un tecno-conformismo sorprendentemente orientato in poche direzioni e schiacciato in pochi silos convergenti e/o paralleli. Dimostrando, in secondo luogo, che in questa fase non è forse tanto la potenza del chip da 100 trilioni di parametri come per chat GPT-4, ma le sue qualità e cioè per rispondere alla domanda: per farci cosa, come, con chi e verso dove?
Mentre l’investimento cinese (nonostante le sanzioni Occidentali) è rimasto aperto e distribuito in centinaia se non migliaia di start up innovative interconnesse con le migliori università e con una struttura più adattativa ai cambiamenti emergenti imposti dalla “fase fluida” in un modello che potremmo definire del “formicaio” (centrifugo e multi-locale) che seppure con un livello di investimento “razionato” (20 volte inferiore a quello “a stelle e strisce”) si è rivelato dunque anche meno rischioso per traiettoria e diffusione. Tanto che DeepSeek V3 (LLM modello linguistico di grandi dimensioni) liberato a dicembre è “solo” da 67 mil.di di parametri ma realizzato appunto con soli 6 milioni di dollari raddoppiando la capacità di Open AI-03. Un risparmio di costi enorme con una formidabile performance applicativa di costo-opportunità e certo perché i due mondi tech Atlantico-Pacifico “si parlano, dialogano, trasferiscono informazioni e conoscenze” nonostante la politica ma si innestano su due diversi modelli organizzativi e su diverse scelte tecnologiche: una di potenza, concentrata e chiusa (modello Silos) e l’altra adattativa e flessibile, aperta e distribuita (modello Formicaio).
Dovuta – potremmo dire – in terzo luogo, al modello open source su cui DeepSeek è incardinato, appunto come una sorta di “formicaio intelligente” adattativo e interconnesso. Riuscendo a gemmare nella “rete di formicai distribuiti” qualità tecnologiche alternative a ChatGPT di Open AI (in tempi più rapidi e con molte meno risorse). Ossia attorno ad un modello di reasoning più intelligente e – possiamo dire – più adattativo ai contesti locali, scalando vertiginosamente le gerarchie dei download globali. Ricordando che i modelli proprietari (closed source) consentono su licenza al beneficiario il suo utilizzo ma ne impediscono lo studio, la modifica, la condivisione, la redistribuzione o l’ingegneria inversa, mentre sono ammesse dai modelli open source.
Allora, offrendo un modello di reasoning capace di trasferire qualità tecnologiche dai dati dell’originario apprendimento/addestramento a modelli più piccoli per “distillazione“, appunto più adattativa-adesiva ai contesti applicativi manifatturieri e di servizio, che paradossalmente riporta al conflitto di mezzo secolo fa tra IBM e i “garage” dell’informatica distribuita nascente di Bill Gates (Microsoft) e Steve Jobs (Apple) e che ora li vede sull’altra sponda a difendere le “Rendite della Torre” a suon di decine di miliardi di dollari nell’AI: Davide si è trasformato in Golia. Mentre ora il Davide lo vediamo in DeepSeek che sviluppa la fionda di piccoli motori R1 più leggeri e snelli per essere addestrati in modo distribuito e su macchine meno potenti (da 1,5 miliardi di parametri a 70 mil.di di parametri).
Insomma, si è capito che lavorando su motori di addestramento più “modulari” e capaci di adattarsi a contesti applicativi differenziati e con macchine meno potenti lo sforzo si stava rivelando più produttivo e performante. Realizzando così chatbot leggeri per analizzare data-science e database o spingere automazioni dei processi organizzativi e aziendali in locale e non dovendo ricorrere a costosi servizi in cloud, con procedure più veloci, customizzate e meno costose proprio perché open source. Unendo il locale a specializzazioni algoritmiche in un a-priori di contesti diffusi e differenziati. Infatti i “modelli leggeri” alternativi di Microsoft o di Google da Phi-3 a 01-Mini di Open AI come pacchetti close source funzionano ma si rivelano più rigidi e certo più costosi anche perché caricati nel global cloud. Dunque, potremmo dire che è il “modello di popolazione in locale” che ha funzionato meglio in chiave open source rispetto a modelli proprietari concentrati e rigidamente closed source caricati in cloud.
Ora Alibaba annuncia un suo modello Qwen 2.5Max che dice “superiore” a DeepSeek-V3 e Llama-3.1-405B con taglio prezzi del 97% e la corsa prosegue con estrema velocità adattativa e che va sottolineata. Per segnalare che in questa fase fluida di una frontiera tecnologica estremamente mobile è allora il primo modello “formicaio” di sviluppo che sembra prevalere sul secondo del silos come era prevedibile avendo avuto una storia precedente che già con il web e con i social ci aveva dato chiare indicazioni su tipologia e modello di sostegno. Anche in Europa dovremmo allora riflettere a fondo sulle policy di AI sia in relazione all’architettura degli incentivi e sia sulle modalità distributive per evitare gli errori del passato e le trappole “proprietarie” del paradigma americano di crescita e diffusione di queste tecnologie.
Soprattutto facendo attenzione agli eccessi di concentrazione e alla eccessiva riduzione dei portafogli nelle traiettorie di crescita e di sviluppo qualitativo, come nell’apporto delle interazioni asimmetriche tra technology push e demand pull.
Magari studiando più in dettaglio il modello organizzativo di DeepSeek (e ora anche Qwen2.5Max) con le specificità della filosofia open source (e prezzi sotto il dollaro) trasferendo gli insegnamenti in un AI Act più appropriato e adesivo alle realtà manifatturiere e di servizio europee traguardando alle “popolazioni locali” di questi sviluppatori e agli user dall’altra (e loro dinamiche) accoppiando modelli proprietari e non proprietari. Perché qui sta il segreto profondo dell’accelerazione cinese?