Intelligenza artificiale, come funziona il sistema di Fastweb

La AI generativa – dice Giovanni Germani, manager of Architecture e AI Coe dell’azienda – ha creato una grande attenzione nella pubblica amministrazione e nei privati, che stanno facendo una corsa alla creazione di strategie AI per incorporarle nelle loro attività. Abbiamo visto aziende con idee molto interessanti per l’uso della parte generativa. Ma non sono a loro agio nel mettere i loro dati in un modello di cui non hanno il controllo. Un dato messo ad esempio dentro OpenAI va in una blackbox e se ne perde il controllo. E poi i modelli di base a disposizione sono molto polarizzati tra Usa e Cina“.

Sulla massa enorme di dati usata per far nascere i modelli Llm attuali solo l’1% è in lingua italiana. “La percentuale – spiega Germani – sale al 4-5% per i modelli arabi. Quelli francesi e tedeschi hanno una base più limitata“. La conclusione, per Germani, è molto semplice: “Quei modelli hanno un imprinting anglosassone. Si vede dalle ricerche e dai concetti tradotti letteralmente dall’inglese o realizzati basandosi su quella cultura. Ci sono varie pubblicazioni che spiegano quanto gli Llm siano dipendenti dalla cultura anglosassone“.

La genesi dell’AI di Fastweb

Da qui è nata l’idea del progetto di Fastweb: “Un modello installabile, anche localmente, per rispondere alle diverse esigenze dei clienti, e nativamente addestrato in italiano, cioè capace di cogliere le sfumature e le particolarità della nostra lingua“.

Il nuovo Llm sarà pronto entro la fine dell’anno. Mentre Fastweb lavora sulla finalizzazione degli algoritmi, Nvidia, che è il fornitore dei computer per l’addestramento, sta preparando la consegna e l’installazione nel nuovo datacenter dedicato che sarà in Lombardia. “Si tratta – dice Germani – di una configurazione con 32 DGX SuperPod del tipo H100, costruito da 32 nodi di calcolo di cui uno è dedicato al controllo del sistema. L’acquisto di macchine singole avrebbe avuto il collo di bottiglia dello scambio dati, che invece con il SuperPod basato sullo standard InfiniBand, ottimizzato per il calcolo parallelo, è superato completamente“.

La vera sfida però è la scelta del materiale per l’addestramento. Perché a seconda della qualità dei dati, la performance del Llm può essere molto diversa. “Per l’addestramento di un Llm nazionale – dice Germani – è fondamentale la qualità delle fonti che il loro bilanciamento: non solo testi legislativi ad esempio, ma occorre creare un mix con altri testi di cultura generale. Non lo scraping del web ma fonti certificate, grazie ad accordi ad esempio con il mondo dell’editoria italiana. E poi il rispetto delle normative italiane ed europee, incluso il nuovo AI Act per il copyright per l’addestramento del modello“.

Gli usi futuri dell’AI italiana

Lo scopo di Fastweb è di offrire una soluzione competitiva sul mercato molto affollato delle AI: “La nostra ambizione – dice Germani – è avere un modello italiano che possa essere messo a disposizione dei clienti, verticalizzandolo per le esigenze di ciascun mercato: ambito sanitario, giuridico, e così via“. Le idee sono molte. I modelli di base si continuano ad addestrare, arricchendoli e perfezionandoli, ma si possono anche aprire verticalizzazioni molto ampie ad esempio con accordi con enti pubblici, per consentire di creare chatbot capaci di far dialogare i funzionari e i cittadini con i propri dati e le procedure, in maniera semplice ed efficace.

Un comitato scientifico è al lavoro per scegliere il materiale (l’equivalente di diecimila libri) necessari all’addestramento del modello di base mentre anche dal punto di vista di scienza informatica Fastweb sta lavorando con alcune università italiane. L’obiettivo è che l’intelligenza artificiale non solo parli, ma abbia anche una cultura e una mentalità italiana.

Fonte : Wired