Microcredito

per le aziende

 

AMD e Humane insieme per l’economia cognitiva


Il futuro dell’intelligenza artificiale non si giocherà solo sugli algoritmi, ma sulle infrastrutture che li rendono possibili. La corsa globale verso l’adozione su larga scala dell’AI generativa e cognitiva sta spostando l’attenzione dalle applicazioni alla capacità di calcolo, ai chip specializzati, ai modelli computazionali, ai data center. In altre parole, al substrato fisico e logico su cui poggia l’intero ecosistema dell’intelligenza artificiale.

Finanziamenti e agevolazioni

Agricoltura

 

L’annuncio della partnership strategica da 10 miliardi di dollari tra Amd e Humane è solo l’ultimo esempio – ma uno dei più rilevanti – di un trend ormai consolidato: per essere competitivi nel mercato AI occorre possedere o controllare direttamente le infrastrutture, dall’hardware al software, dai sistemi embedded alle piattaforme cloud.

L’accordo tra Amd, tra i principali produttori mondiali di semiconduttori, e Humane, startup californiana fondata da ex dirigenti Apple e nota per il suo wearable “AI Pin”, prevede la creazione congiunta di un’infrastruttura AI su scala globale, in grado di supportare nuovi modelli di calcolo edge, ibridi e distribuiti. Un investimento strategico che rafforza il posizionamento di Amd come alternativa concreta a Nvidia, in un momento in cui l’accesso a risorse di calcolo avanzate è diventato il vero fattore abilitante dell’economia cognitiva.


Infrastrutture AI: chip, edge e data center nel mirino

Negli ultimi 18 mesi, la domanda globale di potenza computazionale per AI è esplosa. Secondo McKinsey, il mercato dei chip AI supererà i 130 miliardi di dollari entro il 2027, con una crescita trainata soprattutto dai modelli generativi e dalle applicazioni edge. A questa crescita vertiginosa si accompagna una trasformazione profonda dell’industria: non basta più sviluppare software o modelli linguistici, serve integrare verticalmente ogni componente dell’architettura per controllare costi, efficienza energetica e prestazioni.

L’AI Pin di Humane, basato sull’utilizzo pervasivo dell’intelligenza artificiale in forma “ambientale”, ha bisogno di un’infrastruttura distribuita e a bassissima latenza per elaborare comandi vocali, visivi e contestuali in tempo reale. Per questo Amd metterà a disposizione la propria tecnologia di chip AI dedicati (soprattutto della linea Instinct e Ryzen AI), mentre Humane svilupperà piattaforme software ottimizzate per il calcolo locale ed edge-to-cloud. Un paradigma in cui l’infrastruttura non è più nascosta, ma parte integrante del prodotto.

Lisa Su, ceo di AMD, ha sottolineato come questa partnership rappresenti “un passo fondamentale nella strategia di Amd per portare l’intelligenza artificiale ovunque, dal cloud ai dispositivi personali, offrendo potenza e flessibilità su misura per ogni esigenza”. Il ceo di Humane, Imran Chaudhri, ha invece parlato di “un futuro in cui l’AI è ambientale, utile e discreta, e per esserlo ha bisogno di un’infrastruttura su misura, costruita con chi conosce il silicio”.

Prestito personale

Delibera veloce

 


La nuova geografia delle alleanze industriali per l’AI

L’accordo Amd–Humane si inserisce in una fase di riorganizzazione dell’industria AI attorno a grandi alleanze strategiche. In un settore sempre più concentrato, dominato da pochi player in grado di fornire tecnologie end-to-end, la competizione si gioca su tre assi: chip proprietari, infrastrutture scalabili e modelli generativi personalizzabili. In questo senso, il caso AMD–Humane rientra nello stesso filone della AI Platform Alliance, che nei giorni scorsi ha visto l’ingresso di Cisco come partner strategico (fonte: CorCom, 14 maggio 2025).

Anche in quel caso, l’obiettivo dichiarato era creare una piattaforma aperta e interoperabile per AI, basata su infrastrutture affidabili e scalabili, in grado di supportare applicazioni complesse nel settore pubblico, nella sanità e nella manifattura. Il messaggio è chiaro: chi controlla l’infrastruttura controlla il mercato.

Non è un caso se anche i colossi del cloudAmazon AWS, Microsoft Azure, Google Cloud – stanno investendo direttamente in chip proprietari (Trainium, Azure Maia, Tpu) per affrancarsi dalla dipendenza da Nvidia e rafforzare il controllo sulle prestazioni e sui costi. La nuova economia dell’intelligenza artificiale si basa sempre più su catene di valore verticali, dove infrastruttura, software e dati vengono progettati congiuntamente.


Infrastrutture AI-native: non più neutrali

Un aspetto centrale della nuova fase dell’AI è la nascita di dispositivi e sistemi nativamente intelligenti. L’AI non è più un componente “on top”, ma un motore interno al funzionamento dei device. Questo significa che anche l’infrastruttura deve essere disegnata AI-first, pensata cioè per soddisfare esigenze specifiche in termini di velocità di elaborazione, consumo energetico, sicurezza e capacità di apprendere in tempo reale.

Nel caso di Humane, l’obiettivo è costruire una piattaforma hardware-software in grado di supportare assistenti personali conversazionali sempre attivi, dispositivi wearable che comprendano il contesto e interagiscano in modo naturale con l’ambiente. Tutto questo richiede una nuova generazione di microarchitetture: chip che integrano Npu (neural processing unit), acceleratori AI e moduli edge computing.

L’accordo con Amd mira proprio a questo: una co-progettazione del silicio e della piattaforma software. Un’alleanza tra chi realizza la materia prima della potenza di calcolo e chi la trasforma in esperienze utente. È la logica AI-native applicata all’intera catena tecnologica.


Il nuovo ruolo delle telco: infrastrutture di rete per un’AI distribuita

Un’altra conseguenza diretta della centralità infrastrutturale nell’AI è il crescente coinvolgimento degli operatori telco, chiamati a fornire le dorsali di rete su cui si muove l’intelligenza distribuita. La bassa latenza, la capacità di trasporto e la diffusione capillare delle reti saranno sempre più elementi differenzianti per il successo delle piattaforme AI.

In questo contesto, telco e cloud provider stanno convergendo: l’edge computing, le microzone di calcolo distribuito, i data center regionali diventano infrastrutture chiave. Anche in Europa, le policy per la sovranità digitale stanno spingendo in questa direzione, promuovendo la costruzione di un’infrastruttura AI europea, resiliente e indipendente.

Sconto crediti fiscali

Finanziamenti e contributi

 


Il futuro dell’intelligenza artificiale si gioca nel sottosuolo digitale

La trasformazione in corso segna un cambio di paradigma: l’intelligenza artificiale non è più solo una questione di software o algoritmi, ma una sfida infrastrutturale profonda. I nuovi protagonisti non saranno solo i data scientist, ma gli ingegneri hardware, gli architetti di sistemi, i produttori di chip e chi progetta le architetture di rete.

L’accordo tra Amd e Humane è il simbolo di questa nuova fase: un’AI costruita su misura, dove le infrastrutture diventano parte integrante dell’esperienza, non solo supporto invisibile. Per l’intera industry delle telecomunicazioni e del digitale, si apre una fase in cui la capacità di progettare e gestire infrastrutture AI sarà decisiva per il posizionamento competitivo.



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link

Sconto crediti fiscali

Finanziamenti e contributi