Investimenti: le implicazioni dell’intelligenza artificiale generativa

“La domanda di intelligenza artificiale (IA) creerà opportunità di crescita nella catena del valore dei semiconduttori, favorendo un aumento della potenza di calcolo, nonché per i fornitori di cloud hyperscale e per le società di software attraverso servizi potenziati e lo sviluppo di nuovi prodotti”. Ad affermarlo sono Hilary Frisch, Senior Analyst for Technology Software, Naveen Jayasundaram, Senior Analyst for Internet and Media e Anuj Parikh, Research Analyst for Technology Hardware, di ClearBridge Investments, di Franklin Templeton, che di seguito illustrano nel dettaglio la view.

Il crescente utilizzo dell’IA generativa sta accelerando la domanda di unità di elaborazione grafica (GPU), gli elementi costitutivi dell’elaborazione parallela ad alti volumi, nonché quella di chip per data center, fonderie e produttori di apparecchiature avanzate.

Le mega cap tecnologiche che hanno beneficiato della maggior parte della crescita del cloud pubblico sono altrettanto ben posizionate nell’IA generativa, in quanto possiedono sia i modelli di linguaggio fondamentali che la potenza di calcolo necessaria per applicare l’IA generativa su vasta scala.

La possibilità di integrare l’IA in un’ampia gamma di applicazioni esistenti e a tutti i livelli del parco software dovrebbe accrescere il mercato di riferimento totale del settore, poiché il software permette di automatizzare un numero maggiore di attività manuali.

I modelli linguistici di grandi dimensioni segnano un punto di svolta nello sviluppo dell’IA

Il World Wide Web è stato reso pubblico quattro anni dopo la sua creazione e più di 20 anni dopo lo sviluppo iniziale delle comunicazioni di rete. L’intelligenza artificiale (IA) è giunta a un punto di svolta analogo con l’introduzione dell’IA generativa. Sebbene l’IA sia utilizzata a livello commerciale da oltre un decennio, i continui progressi nell’elaborazione del linguaggio naturale e nella potenza di calcolo negli ultimi quattro o cinque anni hanno favorito lo sviluppo di capacità sempre più sofisticate. Che si tratti di dispositivi di riconoscimento vocale come Siri e Alexa o di guida autonoma, l’IA ha innescato un nuovo ciclo di rapida innovazione.

Andando oltre l’entusiasmo e gli inviti alla cautela suscitati da ChatGPT e da altri modelli linguistici di grandi dimensioni (LLM), riteniamo che l’IA stia entrando in una fase di adozione e applicazione generalizzata che migliorerà l’efficienza aziendale e amplierà i mercati finali esistenti. Come per ogni innovazione emergente, il processo di sviluppo dell’IA va avanti incessante, con il continuo palesarsi di nuove opportunità e rischi competitivi.

Dal punto di vista degli investimenti, riteniamo che la domanda di IA creerà opportunità di crescita a breve e medio termine nella catena del valore dei semiconduttori, favorendo un aumento della potenza di calcolo, nonché per i fornitori di cloud hyperscale e per le società di software attraverso servizi potenziati e lo sviluppo di nuovi prodotti. L’IA generativa potrebbe creare nuovi rischi competitivi in alcune aree di utilizzo di Internet e costringere gli operatori storici a incrementare la spesa per recuperare il ritardo rispetto ai concorrenti. I vantaggi del pioniere potrebbero fare la differenza in alcune aree, mentre altre potrebbero subire un processo di standardizzazione provocato dalla concorrenza. Le modalità di evoluzione degli LLM, ad esempio, e la possibile minaccia competitiva posta dall’open source potrebbero avere significative implicazioni di business a lungo termine per i primi hyperscaler ad arrivare sul mercato.

L’IA generativa sta alimentando una domanda esplosiva di GPU

Per IA si intende lo sviluppo della potenza di calcolo e di tecnologie correlate, come i robot, allo scopo di emulare e persino superare le capacità umane. I computer acquisiscono queste capacità tramite l’addestramento su enormi quantità di dati, il che richiede una notevole potenza di elaborazione. L’IA generativa si riferisce alla capacità dei modelli di elaborazione del linguaggio naturale di generare risposte testuali e grafiche alle domande.

Il modo migliore per analizzare i dati attraverso un server è quello di utilizzare un numero consistente di “core” (o unità di elaborazione) integrati in una GPU, un chip specializzato in grado di eseguire in modo efficiente e in parallelo un elevato volume di calcoli a bassa precisione. Gli enormi requisiti di elaborazione parallela per l’addestramento degli LLM stanno determinando uno spostamento massiccio dai processori seriali, noti anche come unità di elaborazione centrale (CPU), alle GPU (Figura 1). Le GPU sono la tecnologia abilitante dell’IA, e il crescente interesse e utilizzo dell’IA generativa sta provocando un’accelerazione della domanda di questi elementi costitutivi. ChatGPT ha comportato una svolta nell’adozione dell’IA, in cui diversi settori sfruttano gli algoritmi di IA e l’apprendimento automatico per migliorare la produttività e dare impulso alla generazione di profitti.

All’interno dei data center, che ospitano una varietà di tipi di server per le diverse esigenze di elaborazione, la crescente penetrazione dell’IA sta determinando un’accelerazione delle spedizioni di server appositi. Si prevede che l’adozione dell’IA all’interno dei data center aumenterà in modo sostanziale, tanto che la percentuale dei server dei data center contenenti semiconduttori legati all’IA passerà dalle cifre singole di oggi a circa un terzo nel medio termine.

Il fornitore dominante di GPU, con una quota stimata tra il 95% e il 100% del mercato dei semiconduttori per l’addestramento dell’IA, dovrebbe mantenere la propria leadership di mercato con l’espansione della domanda di IA generativa grazie alla sua piattaforma full stack, alle elevate prestazioni delle sue GPU e ai minori costi di calcolo dei suoi chip rispetto a quelli dei concorrenti, nonché grazie al suo vantaggio iniziale in termini di software, come le librerie settoriali specifiche e i modelli pre-addestrati per facilitare l’adozione da parte delle imprese. Segue a notevole distanza, nel mercato dei server per i data center, un altro progettista di semiconduttori, e pure i fornitori di cloud, dal canto loro, stanno sviluppando chip in-house. Anche diverse società non quotate che offrono tecnologie di calcolo avanzate potrebbero contendersi la domanda dei clienti aziendali, ma al momento non dispongono di un ecosistema completo, essenziale per l’implementazione di un’infrastruttura di IA efficace e per affrontare casi d’uso di nicchia.

L’aumento della domanda gioca a favore anche dei produttori di semiconduttori che servono gli hyperscaler del cloud con altri prodotti legati all’implementazione dell’infrastruttura di IA. Questi comprendono i chip personalizzati e le soluzioni di rete, le fonderie di semiconduttori e i produttori delle apparecchiature per semiconduttori che sono fondamentali per produrre i chip di ultima generazione necessari per l’IA.

L’adozione del cloud è destinata ad accelerare con l’utilizzo dell’IA

Ben prima del recente lancio di ChatGPT e degli LLM avanzati era in atto un rapido processo di migrazione verso il cloud dei carichi di lavoro di calcolo; questo faceva dei grandi hyperscaler i più importanti fornitori di infrastrutture tecnologiche sofisticate per clienti aziendali. La scala nel cloud pubblico è importante, e questo spiega perché un piccolo gruppo di grandi imprese abbia beneficiato della maggior parte della crescita in questo spazio. Queste società sono altrettanto ben posizionate nell’epoca dell’IA generativa, in quanto possiedono sia i modelli di linguaggio fondamentali che la potenza di calcolo necessaria per applicare l’IA generativa su vasta scala. Prevediamo quindi che il settore delle infrastrutture alla base dello sviluppo dell’IA generativa si trasformerà nel tempo in un oligopoli.

Con la normalizzazione del ritmo di adozione del cloud dopo l’impennata registrata durante la pandemia, ci aspettiamo che l’IA generativa dia impulso alla prossima fase di espansione di questa tecnologia. Il cloud pubblico offre sia la velocità che la flessibilità necessarie per applicare l’IA ai problemi aziendali. I primi adottanti possono creare applicazioni basate sull’IA in poche settimane utilizzando gli API e i servizi di infrastruttura (Infrastructure as a service, IaaS) offerti dagli hyperscaler, anziché impiegare mesi o anni come farebbero se partissero da zero utilizzando infrastrutture on-premise. La personalizzazione degli LLM richiede enormi quantità di dati che sono spesso ospitati nel cloud, il che crea opportunità ancora maggiori per i fornitori di cloud hyperscale e per l’ecosistema che li sostiene, comprese le startup e le società di servizi.

Gli hyperscaler, tuttavia, potrebbero essere messi in difficoltà dalla crescente concorrenza degli LLM open source. Alcuni operatori nel settore del cloud ritengono che l’open source possa in definitiva provocare la standardizzazione degli LLM, con molte aziende in grado di fornire LLM indifferenziati e a basso costo. Tuttavia, gli utenti di modelli open source devono considerare “chi controlla i dati” che alimentano i modelli. Sebbene lo sviluppo degli LLM sia ancora agli inizi, crediamo che i timori relativi alla sicurezza e all’utilizzo di dati proprietari comportino un rischio significativo per i fornitori e le tecnologie open source, il che dovrebbe giocare a favore dei cloud pubblici con salvaguardie esistenti. Non è escluso che alcuni clienti decidano di sperimentare con gli LLM open source, ma è improbabile che molte grandi aziende vogliano correre i rischi associati a questo modello.

Oltre ai servizi cloud, l’IA ha le carte in regola per rivoluzionare settori da migliaia di miliardi di dollari come quello della pubblicità online. Dal punto di vista della ricerca sul web, i chatbot come ChatGPT possono ridurre drasticamente il tempo necessario per rispondere a domande complesse rispetto a un motore di ricerca tradizionale (ad esempio, “Qual è il miglior canyon del Colorado per fare escursioni accompagnati da un cane?”). Ciò potrebbe incidere negativamente sulla monetizzazione delle ricerche da parte degli operatori storici, almeno nel breve periodo, proprio come accaduto con la transizione da desktop a mobile nei primi anni 2010. L’investimento incrementale necessario per implementare l’IA generativa su vasta scala potrebbe tradursi anche in un aumento della spesa in conto capitale per le principali piattaforme di pubblicità online, con ricadute negative sui cash flow per via delle pressioni sui margini.

Una volta superate le difficoltà iniziali, gli strumenti di IA dovrebbero rivelarsi vantaggiosi sia per le piattaforme che per gli inserzionisti, favorendo la pubblicazione di annunci più mirati. L’IA generativa può essere utilizzata per produrre dinamicamente contenuti pubblicitari personalizzati in base al profilo dei singoli utenti dei motori di ricerca e di YouTube. Le piattaforme pubblicitarie online costrette a riconsiderare la possibilità di personalizzare gli annunci a causa delle norme sulla privacy relative all’Identifier for Advertisers (IDFA) dovrebbero riuscire nuovamente a creare contenuti mirati grazie alle capacità dell’IA generativa. Ad esempio, Instagram potrebbe utilizzare questi strumenti per generare annunci video a partire dalle immagini statiche di un marchio, aumentando i tassi di conversione. I chatbot integrati in WhatsApp possono aiutare le piccole imprese a connettersi con un maggior numero di clienti in tempo reale. Stiamo osservando attentamente i cambiamenti nell’uso di Internet da parte dei consumatori per capire come questi fattori di spinta e di ostacolo possono ripercuotersi sulle Internet company di tutte le dimensioni intente a incorporare l’IA generativa.

Un’altra area fondamentale da monitorare per quanto concerne gli LLM è il livello applicativo, che comporterà lo sviluppo di software verticale e specifico per ciascuna azienda. Mentre i modelli più grandi sono in grado di fornire conoscenze generalizzate ricavate da enormi set di dati, quelli addestrati su dati relativi un dominio specifico avranno un vantaggio rispetto ai modelli più grandi e meno mirati per la maggior parte delle applicazioni aziendali. Ciò richiederà l’accesso a dati proprietari di prima mano nonché l’utilizzo effettivo da parte di milioni di utenti finali per perfezionare la qualità di un LLM attraverso il feedback umano. Un buon esempio è quello di un motore di ricerca conversazionale alimentato dall’IA generativa, in cui gli utenti contribuiscono implicitamente a migliorare il modello nel tempo attraverso i clic, i livelli di coinvolgimento e le domande di follow-up. Con la progressiva standardizzazione degli LLM nel tempo, le aziende in grado di scavalcare i concorrenti nello sfruttamento dell’IA generativa vanteranno a nostro avviso anche competenze superiori in materia di progettazione e user experience. Questa è una delle aree fondamentali da considerare quando si valuta l’impatto dell’IA sui fornitori di software e servizi.

L’IA generativa guiderà la prossima ondata di innovazione dei software

Alcuni dei maggiori produttori di software stanno già commercializzando versioni dei loro prodotti potenziate dall’IA, offrendo un’anteprima dei requisiti per un’efficace integrazione dell’IA nel software: disporre di buoni dati, di competenze specializzate e della capacità di applicare gli LLM per risolvere i problemi specifici dei clienti. Il possibilità di integrare l’IA in un’ampia gamma di applicazioni esistenti e a tutti i livelli del parco software dovrebbe accrescere il mercato di riferimento totale del settore, poiché il software permette di automatizzare un numero maggiore di attività manuali. Lo sviluppo di codice, come pure la gestione dei dati e l’analisi in particolare, sembrano possedere tutti i requisiti per essere notevolmente migliorati attraverso l’integrazione dell’IA generativa. I fornitori di software operanti in aree con elevate barriere all’entrata dovrebbero inoltre godere di pricing power nel favorire una maggiore produttività dei clienti.

I fornitori di software-as-a-service (SaaS) hanno rapidamente sposato l’IA allo scopo di rimanere competitivi, innescando un rapido ciclo di innovazione nelle applicazioni di IA generativa. Benché in alcuni casi sussista il rischio di una diminuzione del numero di utenti per cliente aziendale, riteniamo che questa possibilità sia più che compensata dall’aumento dei prezzi delle offerte basate sull’IA nel tempo. Inoltre, i fornitori di SaaS che dispongono di grandi quantità di dati sui clienti e beneficiano di significative barriere normative all’entrata, come nel caso delle applicazioni finanziarie e di quelle per la gestione delle risorse umane, sono idealmente posizionati per mantenere il loro vantaggio competitivo a fronte della crescente automazione di molte funzioni attraverso l’IA. D’altro canto, crediamo che il rischio di disintermediazione informatica sarà maggiore nelle categorie in cui prevalgono i processi manuali, incentrate sui consumatori e sui contenuti, e caratterizzate da basse barriere all’entrata e bassi tassi di fidelizzazione dei clienti.

Le società di servizi giocheranno un ruolo importante nell’orientare i clienti nelle fasi iniziali di integrazione dell’IA, un processo che potrebbe durare da tre a cinque anni. Non si sa ancora, a questo punto, in che misura l’automazione dell’IA prenderà il sopravvento in futuro, riducendo potenzialmente la necessità di servizi continui e consulenze informatiche di supporto.

Cosa ci riserva il futuro?

Anche tenendo conto della pronta adozione dell’IA generativa nei mercati consumer e in quelli dell’informatica aziendale, l’integrazione dell’IA nell’economia mondiale è ancora agli albori. Dal punto di vista dei modelli di business e degli investimenti, riteniamo che alcune aree chiave da monitorare, a fronte della progressiva diffusione dell’IA generativa, riguardino la curva dei costi di implementazione, il comportamento dei consumatori su Internet con le ricerche abilitate dall’IA e le azioni intraprese dalle autorità di regolamentazione e dagli editori per controllare e probabilmente limitare i dati proprietari disponibili per addestrare gli LLM. In aggiunta agli impatti specifici su aziende e settori, l’IA generativa avrà ricadute più ampie con l’espansione dei casi d’uso a un maggior numero di segmenti dell’economia. Abbiamo intenzione di esaminare più attentamente gli effetti macroeconomici dell’IA generativa e il modo in cui potrebbe influire sulla produttività a lungo termine e sulle aspettative d’inflazione in un articolo successivo.

Vuoi ricevere le notizie di Bluerating direttamente nella tua Inbox? Iscriviti alla nostra newsletter!