Amazon.com und das Startup Databricks haben einen Fünf-Jahres-Vertrag abgeschlossen, der Unternehmen helfen könnte, ihre eigenen KI-Fähigkeiten kostengünstiger zu entwickeln. Databricks wird die Trainium-KI-Chips von Amazon nutzen, um einen Service anzubieten, der es Unternehmen ermöglicht, ein KI-Modell anzupassen oder selbst zu erstellen. Amazon betont, dass die Nutzung seiner eigenen Chips im Vergleich zu Konkurrenzprodukten, wie den Grafikprozessoren (GPUs) von Nvidia, kostengünstiger ist.
Wichtige Erkenntnisse
- Amazon und Databricks haben einen langfristigen Vertrag zur Nutzung von KI-Chips abgeschlossen.
- Die Trainium-KI-Chips sollen die Kosten für Unternehmen senken, die KI-Lösungen entwickeln möchten.
- Databricks plant, seine Dienstleistungen durch die Partnerschaft mit Amazon zu erweitern.
- Amazon positioniert sich als neutraler Anbieter von KI-Technologie.
Die finanziellen Details des Vertrags wurden von beiden Unternehmen nicht bekannt gegeben. Der Deal kommt zu einer Zeit, in der Databricks, Amazon und andere Unternehmen wie Microsoft und Salesforce um die Investitionen in KI konkurrieren. Unternehmensleiter fordern zunehmend, dass KI-Investitionen auch messbare Renditen bringen.
Databricks hat im vergangenen Jahr das KI-Startup MosaicML für rund 1,3 Milliarden Dollar übernommen und erweitert dessen Dienstleistungen, um im Bereich der Unternehmens-KI Fuß zu fassen. Laut Naveen Rao, dem Vizepräsidenten für generative KI bei Databricks, macht die Partnerschaft mit Amazon KI schneller und günstiger für Unternehmen, da die Einsparungen durch die Nutzung von Amazons KI-Chips weitergegeben werden können.
Frühe Erfolge im Bereich KI basieren oft darauf, dass Unternehmen ihre eigenen Daten nutzen, um KI anzupassen. Beispielsweise kann der Aufbau eines maßgeschneiderten Kundenservice-Chatbots helfen, die Personalkosten zu senken.
Für Amazon bedeutet dies, sich weiterhin als neutraler Anbieter von KI-Technologie zu positionieren, der Unternehmen die Möglichkeit bietet, eine Vielzahl von KI-Modellen von verschiedenen Anbietern auf seiner Plattform zu nutzen und anzupassen.
Databricks verdient Geld, indem es Analytik-, KI- und andere cloudbasierte Software vermietet, die auf KI-fähigen Daten basiert, damit Unternehmen ihre eigenen Technologien entwickeln können. Das in San Francisco ansässige Unternehmen wurde im September letzten Jahres mit 43 Milliarden Dollar bewertet.
Die beiden Unternehmen haben bereits eine Partnerschaft, bei der Kunden die Databricks-Datenservices auf der Cloud-Computing-Plattform von Amazon, Amazon Web Services (AWS), nutzen können. Databricks mietet auch Nvidia-GPUs über AWS und wird im Rahmen des neuen Deals mehr davon nutzen. Kunden, die AWS verwenden, haben über 1 Milliarde Dollar Umsatz für Databricks generiert, und AWS ist der am schnellsten wachsende Cloud-Partner des Unternehmens, so Rao.
Jonny LeRoy, Chief Technology Officer von W.W. Grainger, erklärte, dass das Industrieunternehmen KI einsetzt, um Kunden bei der Navigation durch sein Produktangebot zu unterstützen. Grainger verwendet eine Kombination aus KI-Modellen und einem Retrieval-augmented Generation-System von Databricks, um ein Kundenservicetool zu entwickeln, und plant, die Chips von Amazon im Hintergrund zu verwenden.
Obwohl Amazon nicht als führend in der KI-Innovation gilt, ist es wichtig, dass das Unternehmen zeigt, dass es mit Microsoft und Google konkurrieren kann. Ein Teil von Amazons KI-Strategie umfasst die Entwicklung eigener KI-Chips, die speziell für den Aufbau und die Nutzung von KI-Modellen konzipiert sind. Im Vergleich zu den allgemeineren GPUs von Nvidia können diese maßgeschneiderten Chips effizienter sein, da sie für einen bestimmten Zweck entwickelt wurden.
Amazons Argument für seine eigenen KI-Chips: geringere Kosten. Kunden können mit Einsparungen von etwa 40 % im Vergleich zu anderen Hardwarelösungen rechnen, so Dave Brown, Vizepräsident für Compute- und Netzwerkdienste bei AWS.
"Kein Kunde wird wechseln, wenn er keine Einsparungen erzielt, und wenn seine bestehende Lösung gut funktioniert", sagte Brown. "Es ist wichtig, diese Kosteneinsparungen zu liefern."
Brown wollte nicht sagen, wie viele Amazon-Kunden seine eigenen Chips anstelle von Nvidias GPUs verwenden.
Die Auto-Website Edmunds.com nutzt Databricks, um ein KI-Tool zu entwickeln, das Kunden hilft, herauszufinden, welche Anreize sie beim Kauf von Elektrofahrzeugen in Anspruch nehmen können. Greg Rokita, Vizepräsident für Technologie, erklärte, dass jede Senkung der Kosten für den Aufbau von KI-Systemen von Vorteil ist, insbesondere da maßgeschneiderte KI-Lösungen gegenüber der Miete von Modellen eines Anbieters bevorzugt werden.
Das Startup NinjaTech AI, das KI-Agenten entwickelt, hat erklärt, dass es durch die Nutzung von Trainium-Chips etwa 250.000 Dollar pro Monat für Rechenleistung ausgibt, anstatt 750.000 bis 1,2 Millionen Dollar für Nvidias GPUs. Zu den weiteren Kunden, die Amazons eigene KI-Chips nutzen, gehören Anthropic, Airbnb, Pinterest und Snap.
Amazon ist jedoch nicht die einzige Alternative zu Nvidia. Der langjährige Nvidia-Rivale AMD hat eine eigene Reihe von GPUs, Google stellt eigene Chips namens Tensor Processing Units her, und Startups wie Groq und Cerebras haben eigene spezialisierte KI-Chips entwickelt.
"Für Unternehmen geht es weniger um die zugrunde liegende Technologie und mehr um den Wert, den die Technologie liefert", sagte Chirag Dekate, Analyst bei Gartner. "Ob es sich um Trainium, CPUs oder GPUs handelt, spielt für die Endbenutzer keine Rolle."