Voor bezoekers van Electronica 2024

Boek nu je tijd!

Het enige dat nodig is, is een paar klikken om uw plaats te reserveren en het stand -ticket te krijgen

Hall C5 Booth 220

Voorafgaande registratie

Voor bezoekers van Electronica 2024
Jullie melden zich allemaal aan! Bedankt voor het maken van een afspraak!
We sturen u de stand -tickets per e -mail zodra we uw reservering hebben geverifieerd.
Huis > Nieuws > Amazon verhoogt de inspanningen om AI -chips op maat te maken, waardoor de afhankelijkheid van NVIDIA wordt verminderd
RFQs/bestelling (0)
Nederland
Nederland

Amazon verhoogt de inspanningen om AI -chips op maat te maken, waardoor de afhankelijkheid van NVIDIA wordt verminderd


Amazon bereidt zich voor op het lanceren van zijn nieuwste Artificial Intelligence (AI) -chip, aangezien het grote technische conglomeraat een rendement wil plukken van zijn miljarden dollars in halfgeleiderinvesteringen en zijn afhankelijkheid van marktleider Nvidia te verminderen.

De leidinggevenden van Amazon's Cloud Computing Division investeren zwaar in aangepaste chips, in de hoop de efficiëntie van zijn tientallen datacenters te verbeteren en uiteindelijk de kosten voor zichzelf en Amazon AWS -klanten te verlagen.

Dit werk wordt geleid door Annapurna Labs, een chip -startup gevestigd in Austin, die Amazon begin 2015 voor $ 350 miljoen heeft gekocht. De nieuwste prestaties van Annapurna zullen naar verwachting in december worden tentoongesteld, wanneer Amazon de wijdverbreide beschikbaarheid van "Trainium 2" zal aankondigen,maakt deel uit van een AI -chip -serie die is ontworpen om de grootste modellen te trainen.

Trainium 2 wordt al getest door Anthropic (de concurrent van Openai, die $ 4 miljard heeft ontvangen van Amazon), evenals VNet, Deutsche Telekom, Ricoh Japan en Stockmark.

Amazon AWS en Annapurna willen concurreren met Nvidia, die een van 's werelds meest waardevolle bedrijven is geworden vanwege zijn dominante positie in de AI -chipmarkt.

We hopen de beste plek te zijn om Nvidia -chips te runnen, "zei Dave Brown, vice -president van comput- en netwerkdiensten bij Amazon AWS. Maar tegelijkAndere professionele AI -chip "inferentie" heeft de bedrijfskosten met 40% verlaagd en kunnen worden gebruikt voor responsieve generatieve AI -modellen.

Amazon verwacht nu de kapitaaluitgaven van ongeveer $ 75 miljard in 2024, waarbij de meerderheid naar technologie -infrastructuur gaat.Tijdens de nieuwste winstconferentie van het bedrijf verklaarde CEO Andy Jassy dat hij verwacht dat het bedrijf in 2025 meer kosten heeft.

Dit is een stijging ten opzichte van de uitgaven voor het volledige jaar van 48,4 miljard US dollar in 2023. De grootste cloudproviders, waaronder Microsoft en Google, investeren zwaar in kunstmatige intelligentie, en deze trend vertoont weinig teken van verzwakking.

Amazon, Microsoft en Meta zijn allemaal grote klanten van NVIDIA, maar ze ontwerpen ook hun eigen datacenter -chips om de basis te leggen voor de AI -groeibola die ze verwachten.

Daniel Newman van Futurum Group zei: "Elke grote cloudprovider verschuift vurig naar meer verticaliteit, en indien mogelijk, op weg naar een homogene en geïntegreerde 'chiptechnologie' stapel

Newman wees erop dat "van Openai tot Apple, iedereen probeert zijn eigen chips te bouwen" omdat ze op zoek zijn naar "lagere productiekosten, hogere winstmarges, hogere beschikbaarheid en meer controle".

Na het bouwen van de "Nitro" -beveiligingschip voor AWS, heeft Annapurna verschillende generaties Graviton ontwikkeld, een ARM-gebaseerde Central Processing Unit (CPU) die een low-power alternatief biedt voor traditionele server mainframes geleverd door Intel of AMD.

Techinsights -analist G Dan Hutcheson zei: 'Een groot voordeel van AWS is dat hun chips minder stroom kunnen gebruiken en dat hun datacenters efficiënter kunnen zijn,' waardoor de kosten worden verlaagd.Hij zei dat als NVIDIA's grafische verwerkingseenheid (GPU) een krachtig hulpmiddel voor algemene doeleinden is (voor auto's zoals stationwagons), Amazon zijn chips kan optimaliseren voor specifieke taken en services (zoals compacte of hatchback-auto's).

Tot nu toe hebben AWS en Annapurna de dominante positie van Nvidia in AI -infrastructuur echter nauwelijks verzwakt.

NVIDIA's AI Data Center ChIP -omzet bereikte $ 26,3 miljard in het tweede kwartaal van het fiscale jaar 2024. Dit cijfer is hetzelfde als de inkomsten van de gehele AWS -divisie die Amazon in het tweede kwartaal heeft aangekondigd.Het is gemeld dat slechts een klein deel ervan kan worden toegeschreven aan klanten die AI -workloads uitvoeren op Annapurna -infrastructuur.

Wat betreft de ruwe prestaties van AWS -chips en NVIDIA -chips, vermijdt Amazon directe vergelijkingen en dient ze hun chips niet in bij onafhankelijke prestatiebenchmarks.

Moor Insights & Strategy Chip Consultant Patrick Moorhead is van mening dat Amazon's claim van een 4-voudige prestatieverbetering tussen Trainium 1 en Trainium 2 nauwkeurig is, omdat hij het bedrijf al jaren beoordeelt.Maar prestatiegegevens zijn misschien niet zo belangrijk als het eenvoudigweg bieden van meer keuzes.

Mensen waarderen alle innovaties die door NVIDIA worden gebracht, maar niemand wil dat Nvidia 90% van het marktaandeel bezet, "voegde hij eraan toe."Deze situatie zal niet te lang duren

Selecteer Taal

Klik op de ruimte om te verlaten