A che punto è l’intelligenza artificiale generativa di Apple?

Nella corsa allo sviluppo dell’intelligenza artificiale generativa, le grandi aziende tecnologiche stanno tutte giocando più o meno a carte scoperte. Microsoft ha investito miliardi di dollari per accaparrarsi le innovazioni di OpenAI. Amazon sta facendo lo stesso con Anthropic, la startup che sviluppa il Large Language Model (LLM) Claude. Facebook ha una ben finanziata divisione interna comandata da uno dei luminari del settore, Yann LeCun, mentre Google sta puntando tutto su Gemini con risultati via via più promettenti a fronte di alcuni – gravi – incidenti di percorso. Apple al momento rimane la grande assente: quali sono i suoi piani? In che direzione si sta muovendo l’azienda di Cupertino e quando, finalmente, ne sapremo di più? 

La promessa di Tim Cook

All’ultima domanda è facile rispondere. La WWDC di giugno, la conferenza per gli sviluppatori, sarà il palcoscenico perfetto per le prime importanti rivelazioni sull’IA generativa made in Cupertino. Tim Cook del resto lo ha promesso esplicitamente durante l’incontro con gli azionisti Apple di fine febbraio, spiegando che “più avanti quest’anno” l’azienda inizierà a svelare i propri piani. “Vediamo un potenziale rivoluzionario incredibile nell’intelligenza artificiale generativa ed è il motivo per cui stiamo investendo in maniera significativa in quest’area”, ha detto l’amministratore delegato di Apple. “Riteniamo che possa abilitare opportunità trasformative per gli utenti nel campo della produttività, del problem solving e di molto altro ancora”. 

L’IA che non si vede

Il fatto che finora non si sia saputo nulla di un’IA generativa sviluppata internamente da Apple non significa infatti che l’azienda sia rimasta con le mani in mano, ed è da attribuirsi con ogni probabilità alla consueta segretezza che avvolge tutte le operazioni del gigante californiano. 

Gli ingenti investimenti di Cupertino nel settore dell’IA “tradizionale” risalgono del resto a tempi non sospetti. Nel corso degli ultimi dieci anni sono moltissime le innovazioni legate al machine learning e deep learning che Apple ha introdotto sui suoi prodotti software e sull’hardware. I chip della serie “Ax” di iPhone e iPad sono stati fra i primi a prevedere porzioni dedicate a potenziare funzioni basate sull’intelligenza artificiale. Le funzionalità software abilitate da questa innovazioni sono troppe per essere enumerate sinteticamente. Basti pensare all’evoluzione della fotografia computazionale su iPhone, o alle funzionalità integrate negli ultimi sistemi operativi della Mela, dalla capacità di cercare testo nelle foto, scontornare soggetti in un istante, o cercare le immagini sul telefono sulla base del loro contenuto. Apple ha sempre introdotto tutte queste innovazioni come funzionalità organiche dei sistemi operativi, e non banalmente come “funzioni basate sull’intelligenza artificiale”. Una narrativa che probabilmente ne ha aiutato l’adozione da parte di milioni di utenti, ma allo stesso tempo ha contribuito alla diffusa impressione che Apple faccia un uso contenuto o limitato dell’intelligenza artificiale.

Il passo successivo: l’IA generativa

L’avvento dell’intelligenza artificiale generativa, però, cambia le carte in tavola. E probabilmente costringerà Apple anche a rivedere la propria narrativa di marketing sul tema, a favore di riferimenti più diretti ed espliciti all’IA. Un primo accenno a questo nuovo corso già lo abbiamo avuto con il recente lancio del MacBook Air M3, che Apple ha definito senza mezzi termini “il miglior laptop consumer per l’intelligenza artificiale”).
Cosa stia bollendo in pentola a Cupertino è difficile da dire con certezza ma si possono fare delle ipotesi sulla base delle più recenti (e attendibili) indiscrezioni.
Innanzitutto non ci sono dubbi che gli ingegneri di Apple siano alacremente al lavoro su modelli di intelligenza artificiale generativa. 

A metà marzo l’azienda ha infatti pubblicato un articolo scientifico in cui descrive il design e il pre-training di un modello multimodale chiamato MM1 (MultiModal 1). Dalla descrizione che emerge dall’articolo il modello appare simile, per struttura e approccio, ai modelli LLaMA di Meta o Gemini di Google e potrebbe essere utilizzato per abilitare funzioni di dialogo con gli utenti o per generare, modificare o interpretare immagini e video.
Una funzione particolarmente promettente del modello, descritta in alcuni esempi del paper pubblicato da Apple, consiste nell’interpretazione del contenuto delle immagini e nella contestualizzazione di queste informazioni per rispondere a domande specifiche. Una simile funzione, ricordiamo, è già presente su iPhone e abilita la ricerca delle immagini della libreria sulla base del loro contenuto. Il passaggio in più, in questo caso, consiste nell’abilità di utilizzare queste informazioni non solo a fini di ricerca in un dominio specifico, ma per eseguire azioni e operazioni legate alla richiesta in linguaggio naturale dell’utente. Nel paper c’è un esempio: MM1 è in grado di “osservare” l’immagine di tre birre su un tavolo e l’immagine di un menu con un listino prezzi e di rispondere correttamente alla domanda: “Quanto devo pagare per tutte le birre presenti sul tavolo in base al prezzo del menu?”

“È solo l’inizio”

Secondo gli esperti del settore, il fatto che Apple abbia potuto dettagliare così nello specifico le fasi di training di un modello come MM1, specificando in alcuni casi anche i “trucchi” adoperati per migliorarne l’efficacia, rivela un livello molto avanzato di ricerca e sviluppo nel settore dell’IA generativa. A confronto con altri modelli della concorrenza, però, MM1 appare relativamente “piccolo”, se si considerano i miliardi di parametri utilizzati per il training. La ragione potrebbe essere non tanto una limitazione nelle risorse di sviluppo (pare che Apple stia già spendendo milioni di dollari al giorno nel training dei modelli), ma la necessità di sperimentare con modelli più agili e flessibili nella fase di ricerca per poi scalare a modelli più grandi.
In un messaggio su X, l’autore principale del paper pubblicato da Apple, Brandon McKinzie, ha espresso ottimismo sullo stato della ricerca di Apple nel campo dell’IA generativa, suggerendo che MM1 è in realtà “solo l’inizio”, e che i team interni di Cupertino stanno già lavorando sui prossimi modelli. 

With a little help from their friends

Ci sono buone probabilità di vedere già alcune applicazioni di MM1 o modelli simili su iOS 18, che sarà presentato alla WWDC e lanciato a fine estate/inizio autunno. E però da più fonti giunge voce che Apple si stia muovendo per stringere accordi con fornitori esterni.
In particolare, secondo le indiscrezioni di Bloomberg, Tim Cook starebbe pensando a un accordo con Google, o addirittura con OpenAi, per integrare Gemini o ChatGPT all’interno dei suoi sistemi operativi. Cupertino potrebbe sviluppare funzioni interne di iOS e macOS basate sui propri modelli, demandando invece a Gemini o GPT-4 altre funzionalità di interazione con gli utenti.
Nonostante le indiscrezioni rimangano credibili, viene da chiedersi perché Apple dovrebbe seguire questa strada. Forse a Cupertino non sono ancora convinti dell’affidabilità delle soluzioni di Gen AI sviluppate internamente, o ci sono delle ragioni di natura economica?
Una partnership con Google per posizionare in prima fila Gemini su iPhone, iPad e Mac, infatti, potrebbe garantire ad Apple introiti per svariati miliardi di dollari all’anno, come già avviene per Google Search, in particolare se Gemini fosse integrato come sistema di ricerca alternativo proprio al motore “standard” di Google. Inoltre demandare funzionalità ad alto rischio di errore, allucinazioni e imprecisioni come l’interazione dialogica con gli utenti a un modello esterno potrebbe mettere al riparo Apple dalle tempeste mediatiche che hanno già colpito a più riprese Google o OpenAI. 

Perché Gemini o GPT-4?

Nonostante l’attendibilità della fonte, riteniamo che un’integrazione sistemica di Gemini o GPT-4 continui ad apparire poco probabile. Non dubitiamo che discussioni e trattative possano essere in corso, ma aprire a concorrenti come Google e OpenAI (quindi Microsoft) lo scrigno delle informazioni personali degli utenti iPhone ci appare come una scelta poco in linea con la strategia Apple, in particolare se si considera come questi servizi abbiano policy e approcci alla privatezza dei dati meno stringenti di quelli su cui Apple ha costruito una solida reputazione di paladina della privacy.

Lo sviluppo e il lancio di un modello di IA generativa veramente privato e personale, basato sulle informazioni custodite al sicuro dall’ecosistema Apple, è un vantaggio competitivo enorme a cui Apple – a nostro parere – non rinuncerà così facilmente. 

L’unica eccezione però potrebbe essere la Cina: fra gli interlocutori di Apple pare ci sia infatti anche Baidu. In quel caso un eventuale accordo con un fornitore locale è assai più comprensibile, perché solleverebbe Apple dall’arduo compito di dover adattare, limitare e censurare un modello proprietario per ottemperare alle imposizioni del governo di Pechino. 

Siri, dove sei finita? 

La grande assente in tutte le indiscrezioni trapelate finora sugli sforzi di Apple nello sviluppo di modelli generativi è Siri. Quasi nessun report, infatti, sembra suggerire che i modelli di AI Generativa possano essere applicati alla funzione di iOS più ovvia e che più di ogni altra avrebbe bisogno di una rinfrescata. 

Sebbene la qualità delle risposte e delle interazioni di Siri con gli utenti sia migliorata nel corso degli ultimi anni, l’assistente virtuale rimane ampiamente sotto la sufficienza in un gran numero di applicazioni pratiche. Manca, ad esempio, di qualsiasi capacità di interpretazione multilinguistica (chiedere a Siri, in italiano, di riprodurre canzoni di autori anglosassoni o stranieri non famosissimi rimane impossibile) e soprattutto la capacità di contestualizzare richieste differenti nell’ambito della stessa conversazione. Dato che proprio questi aspetti, come dimostrano GPT-4 e gli altri modelli concorrenti di pari livello, è il vero punto forte dell’interazione con gli LLM, sarebbe strano – e assai deludente – che Apple non prendesse finalmente la palla al balzo per far fare un salto di qualità all’assistente virtuale più famoso del mondo.

Anche perché, nonostante una reputazione di affidabilità non proprio stellare, Siri rimane un marchio forte dal grande potenziale umanizzante. Integrare e portare su iPhone funzioni di intelligenza artificiale generativa sotto l’ombrello di Siri (come già fatto ad esempio per l’app comandi, che in inglese si chiama Siri Shortcuts) potrebbe aiutare a vincere le reticenze dell’utenza verso le nuove tecnologie basate sull’IA.

Fonte : Repubblica