Una guida per orientarsi nel nuovo ecosistema dell’intelligenza artificiale generativa, tra modelli in evoluzione e strumenti da provare
Il 30 novembre 2022 è una data che molti indicano come l’inizio di una nuova epoca tecnologica. Quel giorno, la startup OpenAI ha reso pubblico ChatGpt, un sistema capace di generare e comprendere linguaggio naturale in modo sorprendente.
Da allora, nel giro di pochi mesi, l’intelligenza artificiale generativa è passata da oggetto per esperti a strumento quotidiano, accessibile anche a chi non ha alcuna conoscenza di informatica o programmazione. Per molti, è stata la prima volta che si sono trovati davanti a un software che sembrava davvero rispondere, in modo coerente, utile, a volte persino brillante.
Dall’arrivo di ChatGpt all’intelligenza artificiale di massa
L’impatto di ChatGpt è stato immediato. Il termine stesso è entrato nel linguaggio comune, usato da giornalisti, professori, studenti, professionisti. In pochi mesi si è trasformato in un punto di riferimento per una nuova categoria di strumenti: quelli basati sui Large Language Models, modelli linguistici allenati su enormi quantità di dati testuali per generare risposte simili a quelle umane. Il sistema di OpenAI non è stato il primo nel suo genere, ma è stato il primo a essere reso disponibile al grande pubblico, gratuitamente, con un’interfaccia semplice e diretta.

Dopo ChatGpt sono arrivati Bard (oggi rinominato Gemini) da parte di Google, Copilot da Microsoft, e vari generatori di immagini come Dall·E e Midjourney. Nel giro di pochi mesi, milioni di persone hanno iniziato a scrivere, creare, lavorare e studiare con l’intelligenza artificiale. Anche solo per curiosità, molti hanno iniziato a testare i limiti di questi strumenti, a cercare risposte, a generare testi, traduzioni, codici, immagini. Alcuni hanno cambiato il proprio modo di lavorare, altri hanno cominciato a chiedersi quanto tempo rimane prima che queste tecnologie cambino radicalmente interi settori produttivi.
Nel frattempo, una generazione di utenti ha iniziato a usare termini tecnici fino a ieri riservati a laboratori universitari o reparti aziendali: prompt, token, fine-tuning, hallucination, fino alle differenze tra modelli autoregressivi e modelli multimodali. Senza dimenticare che dietro a questi strumenti c’è sempre un modello linguistico addestrato da milioni (o miliardi) di parametri, che analizza, predice e restituisce in pochi istanti il risultato della nostra richiesta.
Tra colossi e strumenti piccoli
Eppure, nonostante l’attenzione pubblica si sia concentrata spesso su pochi nomi, non esiste oggi un singolo modello destinato a dominare il mercato. È un panorama in continua evoluzione, dove i migliori strumenti cambiano in funzione delle esigenze, degli aggiornamenti e delle applicazioni d’uso. Esistono valutazioni comparative, come quella proposta dalla Large Model Systems Organization, che utilizza il contributo umano per valutare la qualità delle risposte dei modelli messi a confronto. Ma si tratta pur sempre di confronti relativi, validi in un determinato momento e su scenari specifici.
Nel frattempo, oltre ai colossi del settore, continuano a nascere strumenti più piccoli, indipendenti, spesso open source, sviluppati da startup o università, e in grado di offrire funzionalità inedite o più specifiche. Alcuni puntano su privacy e decentralizzazione, altri sulla specializzazione per settori come l’editoria, l’ingegneria, la medicina. Non è un mercato lineare, ma una costellazione di esperimenti e tentativi, che negli ultimi due anni ha modificato il modo in cui si accede alla conoscenza, si costruisce un contenuto, si lavora con la scrittura.
Una guida per esplorare modelli, differenze e nuove applicazioni
Questa fase di trasformazione richiede strumenti per orientarsi, e molte redazioni, come Login, hanno deciso di seguire giorno per giorno l’evoluzione del settore. L’obiettivo è fornire ai lettori una mappa utile per distinguere i modelli, capirne il funzionamento, imparare a usarli consapevolmente. Non si tratta solo di giocare con l’AI, ma di iniziare a costruire una cultura nuova, capace di affrontare con lucidità le implicazioni di questa tecnologia che, in un modo o nell’altro, diventerà parte della nostra quotidianità.
All’interno delle risorse proposte è possibile scoprire quali modelli sono accessibili, quali usano i dati localmente, quali si collegano al web, quali sono open source e quali proprietari. Si può imparare a riconoscere le differenze tra le risposte, a testare le capacità linguistiche, creative, analitiche dei vari sistemi, anche facendoli sfidare direttamente tra loro. Un esempio interessante è quello dell’organizzazione nata all’Università di Berkeley, che ha creato una piattaforma chiamata Chatbot Arena, dove gli utenti possono mettere a confronto due modelli alla volta, su domande scelte da loro, e decidere quale sia più convincente.
Questa modalità partecipativa serve non solo a mappare le performance comparative dei modelli, ma anche a restituire un ruolo attivo a chi usa l’intelligenza artificiale. Perché il modo in cui questi strumenti verranno utilizzati dipenderà anche dal grado di alfabetizzazione tecnologica diffusa tra la popolazione. Chi sa porre le domande giuste, interpretare le risposte, valutare le fonti, avrà un vantaggio significativo nel prossimo decennio.
La fantascienza che raccontava scenari dominati da macchine senzienti ha lasciato spazio a una tecnologia meno narrativa, ma più concreta. È un’intelligenza che non sente, non pensa, non decide, ma che può diventare – se ben compresa – una protesi cognitiva, un’estensione operativa della nostra intelligenza. E già oggi è evidente che non riguarda più solo gli sviluppatori o i laboratori, ma tutti noi.