Vendite su Nvidia dopo rumor su trattativa Meta-Google per i chip IA

La società di Mark Zuckerberg starebbe trattando con Alphabet per utilizzare nei suoi data center nel 2027 i chip di Google, noti come TPU, suggerendo che Google stia facendo progressi negli sforzi per competere con l'acceleratore di IA più venduto del settore.
Indice dei contenuti
Azioni Nvidia in calo
Vendite su Nvidia a Wall Street nel pre market USA dopo la notizia di una trattativa miliardaria in corso tra Meta Platforms e Alphabet per i chip di intelligenza artificiale della proprietaria di Google, suggerendo che il leader della ricerca su Internet stia facendo progressi negli sforzi per competere con l'acceleratore di intelligenza artificiale più venduto del settore.
Le azioni Nvidia cedono il 3% dopo circa due ore di contrattazioni precedenti l’apertura ufficiale della Borsa di New York dopo che ieri avevano chiuso a 182 dollari (+2%). Acquisti, invece, sul titolo Alphabet (+3%), proseguendo così il rally di ieri (+6%), con la seduta terminata a 315,58 dollari. Ferma Meta (613 dollari).
La trattativa Meta-Alphabet
L’indiscrezione riportata da The Information suggerisce che Meta starebbe trattando per utilizzare nei suoi data center nel 2027 i chip di Google, noti come unità di elaborazione tensoriale (Tensor Processing Unit, o TPU). Meta potrebbe anche noleggiare chip dalla divisione cloud di Google il prossimo anno, sempre secondo indiscrezioni pubblicate dal sito specializzato in tecnologia.
Un accordo contribuirebbe a far sì che le TPU si affermino come alternativa ai chip di Nvidia, il punto di riferimento per le grandi aziende tecnologiche e le startup, da Meta a OpenAI, che necessitano di potenza di calcolo per sviluppare e gestire piattaforme di intelligenza artificiale.
Alphabet aveva precedentemente siglato un accordo per fornire fino a 1 milione dei suoi chip ad Anthropic PBC, richiamando l'attenzione sulle potenziali sfide a lungo termine alla posizione dominante di Nvidia sul mercato.
L’impatto
“Il possibile utilizzo da parte di Meta delle TPU di Google, già utilizzate da Anthropic, mostra che i fornitori terzi di modelli linguistici di grandi dimensioni probabilmente sfrutteranno Google come fornitore secondario di chip acceleratori per l'inferenza nel breve termine”, scrivono Mandeep Singh e Robert Biggar, analisti di Bloomberg Intelligence.
“Calcoliamo che Meta, con una spesa in conto capitale di almeno 100 miliardi di dollari per il 2026, spenderà almeno 40-50 miliardi in capacità di chip per l'inferenza il prossimo anno”, proseguono dal media, prevedendo che “la crescita dei consumi e del backlog per Google Cloud potrebbe accelerare rispetto ad altri hyperscaler e neo-cloud peer, grazie alla domanda da parte dei clienti aziendali che desiderano utilizzare TPU e Gemini LLM su Google Cloud”.
La Finestra sui Mercati
Tutte le mattine la newsletter con le idee di investimento!



