Alexas neue KI von Anthropic

Anthropic’s Claude übernimmt die Führung

Laut diesen Quellen, die aufgrund der Vertraulichkeit der Informationen um Anonymität baten, ist Anthropic’s Large Language Model Claude für die Verarbeitung der überwiegenden Mehrheit der Anfragen von Benutzern der neuen Alexa verantwortlich.

Ein Premium-Alexa-Erlebnis

Diese Woche kündigte Amazon offiziell ein bedeutendes Update für seine zehn Jahre alten Alexa-Geräte an. Eine bemerkenswerte Änderung ist die Einführung einer kostenpflichtigen Stufe für den Zugriff auf eine erweiterte Version von Alexa, genannt ‘Alexa+’. Dieser Abonnementdienst wird für 19,99 US-Dollar pro Monat oder ohne zusätzliche Kosten für Amazon Prime-Mitglieder verfügbar sein, wobei der frühe Zugriff im nächsten Monat beginnt.

Demonstrationen von Alexa+ zeigten seine Fähigkeit, Aufgaben wie Tischreservierungen in Restaurants, Lebensmittelbestellungen und die Buchung von Uber-Fahrten auszuführen – Fähigkeiten, die in früheren Versionen weitgehend fehlten. Alexa, einst an der Spitze der Verarbeitung natürlicher Sprache und des maschinellen Lernens, hat mit dem Aufkommen generativer KI-Chatbots wie OpenAI’s ChatGPT zunehmenden Wettbewerb erlebt. Diese neueren Technologien haben sich schnell über textbasierte Interaktionen hinaus entwickelt und umfassen KI-generierte Audios, Bilder und Videos.

Amazons Antwort und Klarstellung

Während Anthropic es ablehnte, eine Erklärung abzugeben, bestritt Amazon die Behauptung und erklärte, dass die im ursprünglichen Bericht präsentierten Informationen ‘falsch’ seien.

Ein Amazon-Sprecher stellte per E-Mail klar: ‘Tatsächlich hat Nova in den letzten vier Wochen über 70 % der Gespräche abgewickelt – einschließlich komplexer Anfragen. Aus Kundensicht spielt dies jedoch keine Rolle – beide sind ausgezeichnete Modelle und dienen dazu, den Kunden das beste Erlebnis zu bieten.’

Der Sprecher erklärte weiter, dass die Architektur von Alexa+ so konzipiert ist, dass sie dynamisch das am besten geeignete Modell für jede spezifische Aufgabe auswählt.

Die Kernfunktionalität von Alexa neu denken

Amazon CEO Andy Jassy, der auf der Veranstaltung sprach, charakterisierte das Update als eine ‘Umgestaltung’ der Kernfunktionalität von Alexa.

Amazons KI-Investitionen und -Strategie

Zusätzlich zu seiner erheblichen Investition in Anthropic, die sich auf insgesamt etwa 8 Milliarden US-Dollar beläuft, hat Amazon aktiv seine eigenen KI-Modelle entwickelt, darunter die Ende letzten Jahres eingeführte Nova-Serie. Über Amazon Web Services (AWS) Bedrock bietet das Unternehmen Kunden Zugriff auf eine Reihe von KI-Modellen, darunter Anthropic’s Claude, Amazon’s Nova und Titan sowie Mistral und andere.

Amazon gab an, dass es Bedrock verwendet, um Alexa zu betreiben. Die Quellen behaupteten jedoch, dass Claude das primäre Modell sei, das die komplexeren Aufgaben bewältigt, die auf der jüngsten Geräteveranstaltung in New York demonstriert wurden. Eine Quelle betonte, dass Claude für Anfragen verantwortlich sei, die eine größere kognitive Verarbeitung und ‘intellektuelle Schlagkraft’ erfordern.

Während Amazons proprietäre KI-Modelle noch in Gebrauch sind, werden sie laut diesen Personen hauptsächlich Aufgaben zugewiesen, die weniger komplizierte Überlegungen erfordern.

Sich entwickelnde Partnerschaftsdynamiken

Als Teil der ursprünglichen Investitionsvereinbarung von Amazon mit Anthropic wurde Amazon für einen Zeitraum von 18 Monaten kostenloser Zugang zu einem bestimmten Teil der Rechenkapazität von Anthropic gewährt, so eine Quelle. Diese ursprüngliche Vereinbarung ist nun abgeschlossen, und die beiden Unternehmen verhandeln derzeit die Bedingungen ihrer Zusammenarbeit neu, so die Quelle.

Der Einfluss des Modells von Anthropic geht innerhalb von Amazon über Alexa hinaus und trägt zu Bereichen wie Produktsuche und Werbung bei, fügte die Person hinzu.

Anerkennung des Beitrags von Anthropic

Panos Panay, Amazon’s Senior Vice President of Devices and Services und Leiter der Neugestaltung von Alexa, lobte Anthropic auf der Veranstaltung dieser Woche als einen ‘großartigen’ Partner. Panay, der 2023 nach zwei Jahrzehnten bei Microsoft zu Amazon kam, beschrieb das Basismodell von Anthropic als ‘unglaublich’.

In einem Interview mit CNBC am Mittwoch sagte Panay: ‘Wir wählen das Modell aus, das für die Aufgabe geeignet ist. Wir verwenden Amazon Bedrock – Alexa wählt das richtige Modell aus, um die Aufgabe zu erledigen.’

Ein tieferer Einblick: Die technischen Grundlagen

Die Behauptung, dass Anthropic’s Claude die ‘überwiegende Mehrheit’ der komplexen Anfragen für das neue Alexa+ abwickelt, verdient eine genauere Betrachtung. Große Sprachmodelle (LLMs) wie Claude werden auf riesigen Datenmengen aus Text und Code trainiert, wodurch sie in der Lage sind, menschenähnlichen Text als Reaktion auf eine Vielzahl von Eingabeaufforderungen und Fragen zu verstehen und zu generieren. Die ‘Komplexität’ einer Anfrage kann sich in diesem Zusammenhang auf mehrere Faktoren beziehen:

  • Dialog mit mehreren Schritten: Einfache Anfragen wie ‘Wie ist das Wetter?’ sind relativ unkompliziert. Eine Konversation wie ‘Reserviere mir einen Tisch für zwei Personen in einem italienischen Restaurant in meiner Nähe für heute Abend um 19 Uhr und stelle sicher, dass es vegetarische Optionen gibt’ erfordert jedoch, dass die KI den Kontext über mehrere Schritte hinweg beibehält und die Beziehungen zwischen verschiedenen Informationen versteht.

  • Auflösung von Mehrdeutigkeiten: Die menschliche Sprache ist oft mehrdeutig. Eine Anfrage wie ‘Finde einen guten Film zum Anschauen’ erfordert, dass die KI die Benutzerpräferenzen basierend auf früheren Interaktionen ableitet oder fundierte Vermutungen anstellt.

  • Logisches Denken und Schlussfolgern: Einige Aufgaben erfordern logisches Denken. Zum Beispiel: ‘Wenn mein Flug um 8 Uhr morgens abfliegt, wann sollte ich unter Berücksichtigung des Verkehrs zum Flughafen fahren?’ erfordert, dass die KI die Reisezeit basierend auf den aktuellen Bedingungen schätzt.

  • Integration von externem Wissen: Die Beantwortung von Fragen wie ‘Was sind die neuesten Nachrichten über den Aktienmarkt?’ erfordert, dass die KI auf Informationen aus externen Quellen zugreift und diese verarbeitet.

Es wird vermutet, dass Claude in diesen Bereichen herausragend ist und die ‘intellektuelle Schlagkraft’ bietet, die von einer der Quellen erwähnt wurde. Während Amazons Nova-Modell möglicherweise einfachere, routinemäßigere Aufgaben übernimmt, wird Claude wegen seiner überlegenen Fähigkeit eingesetzt, nuancierte, vielschichtige Interaktionen zu bewältigen.

Die finanziellen Auswirkungen der Partnerschaft zwischen Amazon und Anthropic

Die ursprüngliche 18-Monats-Vereinbarung, bei der Amazon freien Zugang zu Anthropic’s Kapazität hatte, unterstreicht den strategischen Charakter der Investition. Sie ermöglichte es Amazon, die Technologie von Anthropic umfassend zu integrieren und zu testen, ohne unmittelbare Kostenfolgen. Jetzt, da dieser Zeitraum vorbei ist, ist die Neuverhandlung der Bedingungen von entscheidender Bedeutung. Sie wird wahrscheinlich eine formellere Preisstruktur beinhalten, möglicherweise basierend auf Nutzung, API-Aufrufen oder einem Abonnementmodell.

Das Ergebnis dieser Verhandlungen wird die Betriebskosten von Amazon für Alexa+ erheblich beeinflussen. Wenn die Kosten für die Nutzung von Claude hoch sind, könnte dies die Rentabilität des Alexa+-Abonnementdienstes beeinträchtigen. Dies könnte Amazon dazu veranlassen, sein eigenes Nova-Modell weiter zu optimieren, um in Zukunft einen größeren Teil komplexer Aufgaben zu bewältigen und die Abhängigkeit von Anthropic zu verringern.

Strategische Überlegungen: Wettbewerb und Kontrolle

Amazons Entscheidung, sich bei der Kernfunktionalität von Alexa+ stark auf Anthropic zu verlassen, wirft einige interessante strategische Fragen auf. Sie bietet zwar Zugang zu modernsten KI-Fähigkeiten, schafft aber auch eine gewisse Abhängigkeit von einem externen Unternehmen.

In der sich schnell entwickelnden KI-Landschaft wird die Kontrolle über Kerntechnologien oft als Wettbewerbsvorteil angesehen. Durch die Abhängigkeit von Anthropic lagert Amazon in gewissem Maße eine kritische Komponente seines Flaggschiff-Sprachassistenten aus. Dies steht im Gegensatz zu Unternehmen wie Google, die stark in die Entwicklung ihrer eigenen internen KI-Modelle investieren.

Die langfristigen Auswirkungen dieser strategischen Entscheidung bleiben abzuwarten. Es könnte ein sehr effektiver Weg für Amazon sein, an der Spitze der KI-Innovation zu bleiben und die Expertise von Anthropic zu nutzen. Alternativ könnte es Schwachstellen schaffen, wenn die Technologie von Anthropic weniger wettbewerbsfähig wird oder sich die Beziehung zwischen den beiden Unternehmen ändert.

Die Zukunft von Alexa: Ein hybrider Ansatz?

Das wahrscheinlichste Szenario ist ein hybrider Ansatz, bei dem Amazon weiterhin sowohl seine eigenen KI-Modelle als auch die von Partnern wie Anthropic nutzt. Dies ermöglicht Flexibilität und den Zugriff auf eine breitere Palette von Fähigkeiten. Amazon Bedrock mit seiner Auswahl verschiedener Modelle ist eindeutig darauf ausgelegt, diese Strategie zu erleichtern.

Das spezifische Gleichgewicht zwischen internen und externen Modellen wird sich wahrscheinlich im Laufe der Zeit verschieben, angetrieben von Faktoren wie Kosten, Leistung und strategischen Prioritäten. Die laufende Entwicklung des Nova-Modells von Amazon deutet auf ein Engagement für den Aufbau interner KI-Expertise hin. Die Partnerschaft mit Anthropic deutet jedoch auf die Bereitschaft hin, externe Innovationen zu nutzen, wenn sie einen klaren Vorteil bieten. Die fortlaufende Entwicklung von Alexa wird eine faszinierende Fallstudie darüber sein, wie große Technologieunternehmen die Komplexität der KI-Revolution bewältigen.