Sicherheitsstandards: Schlüssel zur KI-Agenten-Revolution

Die KI-Agenten-Industrie erlebt derzeit eine vertraute Entwicklung. KI-Agenten nutzen die allgemeinen Fähigkeiten großer Modelle, um die Lösung komplexer Benutzeraufgaben mithilfe bestehender Technologien und Tools zu automatisieren. Dies positioniert sie als den vielversprechendsten Weg für den Einsatz von Modelltechnologie heute.

In den letzten Monaten gab es eine Explosion von KI-Agenten-Produkten. Hochkarätige Angebote wie Manus haben die Aufmerksamkeit der breiten Öffentlichkeit auf sich gezogen, und neue Modelle von OpenAI und Google werden zunehmend ‘KI-Agenten-isiert’. Entscheidend ist, dass Standardprotokolle rasch an Bedeutung gewinnen.

Anthropic veröffentlichte Ende letzten Jahres MCP (Model Communication Protocol) als Open-Source. MCP zielt darauf ab, eine offene, standardisierte Spezifikation zu etablieren, die es großen Sprachmodellen ermöglicht, nahtlos mit verschiedenen externen Datenquellen und Tools zu interagieren, wie z. B. Geschäftssoftware, Datenbanken und Code-Repositories. Innerhalb weniger Monate nach seiner Veröffentlichung haben OpenAI, Google, Alibaba und Tencent alle ihre Unterstützung zum Ausdruck gebracht und es integriert. Im Anschluss daran startete Google A2A (Agent-to-Agent) mit dem Ziel, die Zusammenarbeit und die Arbeitsabläufe zwischen KI-Agenten zu automatisieren. Dies hat die aufkeimende KI-Agenten-Landschaft weiter angeheizt.

Im Wesentlichen adressieren diese Protokolle zwei zentrale Herausforderungen: MCP erleichtert die Verbindungen zwischen Agenten und Tool-/Dienstleistungsanbietern, während A2A kollaborative Verbindungen zwischen Agenten ermöglicht, um hochkomplexe Aufgaben zu bewältigen.

Daher kann MCP mit frühen einheitlichen Schnittstellen verglichen werden, während A2A dem HTTP-Protokoll ähnelt.

In der Geschichte des Internets folgte auf das Aufkommen von HTTP jedoch ein kritisches Element, das für den eigentlichen Erfolg des Internets notwendig war: Sicherheitsstandards, die auf das Protokoll aufgesetzt wurden.

Heute stehen MCP und A2A vor einer ähnlichen Zwangslage.

‘Als HTTP aufkam, stieß es später auf erhebliche Sicherheitsprobleme. Das Internet hat diese Entwicklung erlebt’, erklärt Zixi, technischer Leiter der IIFAA (Internet Industry Financial Authentication Alliance) Trusted Authentication Alliance und Experte für KI-Agentensicherheit.

Diese Herausforderungen können sich in verschiedenen Formen manifestieren. Derzeit können bösartige Akteure gefälschte ‘Wetteranfrage’-Tools erstellen und diese bei MCP-Servern registrieren, um im Hintergrund heimlich Benutzerflugdaten zu stehlen. Wenn ein Benutzer Medikamente über einen Agenten kauft, könnte Agent A für den Kauf von Cefpodoxim verantwortlich sein, während Agent B Alkohol kauft. Aufgrund fehlender plattformübergreifender Risikoerkennungsfunktionen kann das System keine ‘gefährliche Kombination’-Warnung ausgeben, wie es bestehende E-Commerce-Plattformen tun. Kritischer ist, dass dieAgent-zu-Agent-Authentifizierung und die Datenverantwortung unklar bleiben. Genehmigt der Benutzer eine lokale Anwendung auf seinem Gerät oder synchronisiert er private Daten in die Cloud?

‘A2A erklärt in seiner offiziellen Dokumentation, dass es nur die Sicherheit der Übertragung auf höchster Ebene garantiert. Es überlässt die Verantwortung für die Gewährleistung der Herkunft von Identität und Anmeldeinformationen, des Datenschutzes und der Absichtserkennung den einzelnen Unternehmen.’

Das wahre Aufblühen intelligenter Agenten erfordert, dass diese Probleme angegangen werden. Die IIFAA, wo Zixi arbeitet, ist die erste Organisation, die beginnt, dieses Problem anzugehen.

‘In diesem Zusammenhang widmet sich die IIFAA der Lösung einer Reihe von Problemen, mit denen intelligente Agenten in Zukunft konfrontiert sein werden’, sagt Zixi. ‘Im Zeitalter von A2A haben wir auch ein ähnliches Produkt namens ASL (Agent Security Layer) definiert, das auf dem MCP-Protokoll aufbauen kann, um die Sicherheit von Agenten in Bezug auf Berechtigungen, Daten, Datenschutz und andere Aspekte zu gewährleisten. Dieses Middleware-Produkt adressiert auch die Herausforderungen des Übergangs von A2A zu zukünftigen Sicherheitsstandards.’

Die IIFAA Intelligent Agent Trusted Interconnection Working Group ist die erste inländische Organisation für die Zusammenarbeit im KI-Agentensicherheitsökosystem. Sie wurde gemeinsam von der China Academy of Information and Communications Technology (CAICT), der Ant Group und mehr als zwanzig anderen Technologieunternehmen und -institutionen initiiert.

Von ASL zur Skalierbarkeit

‘Die Entwicklung von KI-Agenten verläuft schneller als wir erwartet haben, sowohl technologisch als auch in Bezug auf die Akzeptanz von Standards durch das Ökosystem’, sagt Zixi.

Das Konzept der IIFAA für ein Sicherheitsprotokoll für die Agent-zu-Agent-Kommunikation entstand bereits im November letzten Jahres, noch vor der Veröffentlichung von MCP. Die IIFAA Intelligent Agent Trusted Interconnection Working Group wurde im Dezember offiziell gegründet, zeitgleich mit der offiziellen Veröffentlichung von MCP.

‘Bösartige Akteure beherrschen neue Technologien manchmal schneller als Verteidiger. Wir können nicht warten, bis Probleme auftreten, bevor wir über Ordnung diskutieren. Das ist die Notwendigkeit für die Existenz dieser Arbeitsgruppe’, erklärte ein IIFAA-Mitglied in einer früheren Präsentation. Der gemeinsame Aufbau von Branchennormen für Sicherheit und gegenseitiges Vertrauen ist entscheidend für eine langfristige gesunde Entwicklung.

Laut Zixi konzentriert sich ihr derzeitiger Fokus auf die Bewältigung der folgenden Schlüsselprobleme in der ersten Phase:

  • Agent Trusted Identity: ‘Wir wollen ein Agent-Zertifizierungssystem aufbauen, das auf maßgeblichen Institutionen und Mechanismen der gegenseitigen Anerkennung basiert. So wie man einen Reisepass und ein Visum für internationale Reisen benötigt, können zertifizierte Agenten schnell einem Kollaborationsnetzwerk beitreten und verhindern, dass nicht zertifizierte Agenten die kollaborative Ordnung stören.’

  • Intent Trusted Sharing: ‘Die Zusammenarbeit zwischen intelligenten Agenten hängt von der Authentizität und Genauigkeit der Absicht ab. Daher ist die vertrauenswürdige gemeinsame Nutzung von Absichten entscheidend für die Gewährleistung einer effizienten und zuverlässigen Multi-Agenten-Zusammenarbeit.’

  • Context Protection Mechanism: ‘Wenn sich ein KI-Agent mit mehreren MCP-Servern (Multi-Channel-Protokoll) verbindet, werden alle Tool-Beschreibungsinformationen in denselben Sitzungskontext geladen. Ein bösartiger MCP-Server könnte dies ausnutzen, um bösartige Anweisungen einzuschleusen. Der Kontextschutz kann bösartige Interferenzen verhindern, die Systemsicherheit aufrechterhalten, die Integrität der Benutzerabsicht gewährleisten und Vergiftungsangriffe verhindern.’

  • Data Privacy Protection: ‘Bei der Multi-Agenten-Zusammenarbeit kann die gemeinsame Nutzung von Daten zu Datenschutzverletzungen führen. Der Datenschutz ist entscheidend, um den Missbrauch sensibler Informationen zu verhindern.’

  • Agent Memory Trusted Sharing: ‘Die gemeinsame Nutzung des Speichers verbessert die Effizienz der Multi-Agenten-Zusammenarbeit. Die vertrauenswürdige gemeinsame Nutzung des Speichers gewährleistet Datenkonsistenz, Authentizität und Sicherheit, verhindert Manipulationen und Datenlecks und verbessert die Effektivität der Zusammenarbeit und das Benutzervertrauen.’

  • Identity Trusted Circulation: ‘Benutzer erwarten eine nahtlose und reibungslose Serviceerfahrung in KI-nativen Anwendungen. Daher ist die Erzielung einer plattformübergreifenden, nicht-intrusiven Identitätserkennung der Schlüssel zur Verbesserung der Benutzererfahrung.’

‘Das sind unsere kurzfristigen Ziele. Als Nächstes werden wir ASL für die gesamte Branche freigeben. Dies ist eine Softwareimplementierung, keine Protokollspezifikation. Sie kann auf MCP und A2A angewendet werden, um die Sicherheit dieser beiden Protokolle auf Unternehmensebene zu erhöhen. Das ist das kurzfristige Ziel’, erklärt Zixi.

‘Am Anfang werden wir die Dinge nicht auf der Sicherheitsebene spezifizieren. Wir werden A2AS nicht spezifizieren. Stattdessen hoffen wir, dass unser ASL, wenn jemand in Zukunft A2AS spezifiziert, zu einer Softwareimplementierungskomponente werden kann, so wie SSL eine Softwareimplementierungskomponente von HTTPS ist.’

Die HTTPS-Analogie: Die Zukunft der KI-Agenten sichern

In Anlehnung an die Geschichte von HTTPS ermöglicht die Zusicherung der Sicherheit die breite Akzeptanz von Funktionen wie der Bezahlung und ebnet so den Weg für größere kommerzielle Möglichkeiten. Ein ähnlicher Rhythmus spielt sich derzeit ab. Am 15. April arbeitete Alipay mit der ModelScope-Community zusammen, um den Dienst ‘Payment MCP Server’ vorzustellen. Dies ermöglicht es KI-Entwicklern, Alipay-Zahlungsdienste nahtlos mit natürlicher Sprache zu integrieren und die schnelle Bereitstellung von Zahlungsfunktionen innerhalb von KI-Agenten zu erleichtern.

Die Bewältigung dieser kurzfristigen Ziele wird letztendlich zur Bildung eines sicheren Agenten-Kollaborationsstandards und einer sicheren Agentenumgebung führen. Der Schlüssel zu diesem Prozess ist das Erreichen eines Skalierungseffekts. Inländische MCP-‘Stores’, die sich schnell bewegen, haben bereits begonnen zu handeln. Die ‘MCP Zone’ der intelligenten Agentenplattform Baibaoxiang der Ant Group wird die Sicherheitslösungen der IIFAA integrieren. Dieser ‘MCP Store’ unterstützt derzeit die Bereitstellung und den Aufruf verschiedener MCP-Dienste, darunter Alipay, Amap und Wuying, und ermöglicht so die schnellste Erstellung eines intelligenten Agenten, der in nur 3 Minuten mit MCP-Diensten verbunden ist.

Zixi ist davon überzeugt, dass die allgemeinen Fähigkeiten großer Modelle das Potenzial haben, Benutzererlebnisse und Interaktionsparadigmen wirklich zu revolutionieren. In Zukunft könnte der aktuelle Ansatz, Apps aufzurufen, um Aufgaben zu erledigen, durch ein Super-Gateway ersetzt werden, das auf einem Tool-Pool basiert, der hinter den Kulissen verborgen ist, ähnlich einem MCP Store. Dies wird einfacher und verständlicher für die Bedürfnisse der Benutzer. Die Kommerzialisierung wird möglich.

‘Die Entwicklung von AGI ist jetzt in die intelligente Agentenphase eingetreten. Im Vergleich zu Chat-Robotern und KI mit begrenzten Schlussfolgerungsfähigkeiten haben intelligente Agenten endlich die punktuelle geschlossene Phase durchbrochen und wirklich ein neues Kapitel in kommerziellen Anwendungen aufgeschlagen.’

Die IIFAA hat kürzlich ASL auf den Markt gebracht und seine Open-Source-Veröffentlichung angekündigt. Durch die offene gemeinsame Nutzung von Code, Standards und Erfahrungen soll die technologische Innovation und Iteration beschleunigt, Industrieunternehmen und Entwickler zur umfassenden Teilnahme aufgefordert und die Standardisierung der Technologie innerhalb der Branche gefördert werden. Der Open-Source-Plan wird die am weitesten verbreitete Apache 2.0-Lizenz übernehmen und die Sicherheitsmaßnahmen für das Codebibliothek-Designdokument extern verfügbar machen. Globale Entwickler können sich innerhalb der Github-Community an der gemeinsamen Entwicklung beteiligen.

Die Notwendigkeit von Sicherheit bei der Entwicklung von KI-Agenten

Der Aufstieg der KI-Agenten stellt einen Paradigmenwechsel in der Art und Weise dar, wie wir mit Technologie interagieren. Wir sind nicht länger auf einzelne Anwendungen beschränkt, sondern bewegen uns auf eine Welt zu, in der intelligente Agenten nahtlos eine Vielzahl von Tools und Diensten orchestrieren können, um unsere Ziele zu erreichen. Diese Vision hängt jedoch von der Bewältigung der inhärenten Sicherheitsrisiken ab, die mit einer so leistungsstarken Technologie einhergehen. So wie das Internet HTTPS benötigte, um einen sicheren E-Commerce und andere sensible Transaktionen zu ermöglichen, benötigen KI-Agenten robuste Sicherheitsstandards, um Vertrauen zu fördern und eine breite Akzeptanz zu ermöglichen.

Die aktuelle Landschaft der KI-Agentenentwicklung ist von rasanter Innovation und Experimentierfreudigkeit geprägt. Neue Modelle, Protokolle und Anwendungen entstehen in einem noch nie dagewesenen Tempo. Obwohl diese Dynamik zweifellos aufregend ist, stellt sie auch eine Herausforderung dar: Sicherheitsbedenken treten oft hinter Geschwindigkeit und Funktionalität zurück. Dies kann zu Schwachstellen führen, die bösartige Akteure ausnutzen können, wodurch möglicherweise Benutzerdaten gefährdet, Dienste gestört und das Vertrauen in das gesamte Ökosystem untergraben wird.

Die Analogie zu den Anfängen des Internets ist besonders treffend. Ohne umfassende Sicherheitsmaßnahmen war das Internet von Betrug, Täuschung und anderen böswilligen Aktivitäten geplagt. Dies behinderte sein Wachstum und verhinderte, dass es sein volles Potenzial entfalten konnte. Erst mit dem Aufkommen von HTTPS und anderen Sicherheitsprotokollen wurde das Internet zu einer sicheren und zuverlässigen Plattform für E-Commerce, Online-Banking und andere sensible Transaktionen.

In ähnlicher Weise benötigen KI-Agenten eine solide Sicherheitsgrundlage, um ihr transformatives Potenzial zu verwirklichen. Ohne eine solche Grundlage laufen sie Gefahr, zu einem Nährboden für neue Formen von Cyberkriminalität und Online-Ausbeutung zu werden. Dies könnte Innovationen ersticken, das Benutzervertrauen untergraben und letztendlich verhindern, dass KI-Agenten zu der allgegenwärtigen und nützlichen Technologie werden, die sich viele vorstellen.

Die Bewältigung der Sicherheitsherausforderungen

Die Sicherheitsherausforderungen, vor denen KI-Agenten stehen, sind vielfältig und erfordern einen umfassenden Ansatz. Einige der wichtigsten Herausforderungen sind:

  • Authentifizierung und Autorisierung: Sicherstellen, dass nur autorisierte Agenten auf sensible Daten und Ressourcen zugreifen können. Dies erfordert robuste Authentifizierungsmechanismen und differenzierte Zugriffskontrollen.
  • Data Privacy: Schutz von Benutzerdaten vor unbefugtem Zugriff, Verwendung oder Offenlegung. Dies erfordert die Implementierung von datenschutzwahrenden Techniken wie Anonymisierung, Verschlüsselung und differenzieller Datenschutz.
  • Intent Verification: Überprüfung, ob die Absicht eines Agenten mit den Zielen des Benutzers übereinstimmt und dass er nicht von bösartigen Akteuren manipuliert wird. Dies erfordert die Entwicklung ausgefeilter Algorithmen zur Absichtserkennung und -überprüfung.
  • Contextual Security: Schutz von Agenten vor böswilligen Angriffen, die Schwachstellen in der Umgebung ausnutzen. Dies erfordert die Implementierung robuster Sicherheitsmaßnahmen auf allen Ebenen des Systems, von der Hardware bis zur Software.
  • Agent-to-Agent Security: Sicherstellen, dass Agenten sicher miteinander kommunizieren und zusammenarbeiten können. Dies erfordert die Entwicklung sicherer Kommunikationsprotokolle und Vertrauensmechanismen.

Die ASL der IIFAA ist ein vielversprechender Schritt in die richtige Richtung. Durch die Bereitstellung einer Softwareimplementierung, die die Sicherheit von MCP und A2A erhöht, kann ASL dazu beitragen, einige dieser Herausforderungen zu bewältigen. Es muss jedoch noch mehr getan werden, um einen umfassenden Sicherheitsrahmen für KI-Agenten zu schaffen.

Der Weg nach vorn: Zusammenarbeit und Standardisierung

Die Entwicklung sicherer KI-Agenten erfordert eine gemeinsame Anstrengung von Forschern, Entwicklern, Branchenakteuren und politischen Entscheidungsträgern. Einige der wichtigsten Schritte, die unternommen werden müssen, sind:

  • Entwicklung offener Standards: Die Festlegung offener Standards für die Sicherheit von KI-Agenten ist entscheidend, um Interoperabilität zu gewährleisten und Innovationen zu fördern.
  • Austausch bewährter Verfahren: Der Austausch bewährter Verfahren für die sichere Entwicklung von KI-Agenten kann dazu beitragen, häufige Schwachstellen zu vermeiden und eine Sicherheitskultur zu fördern.
  • Investitionen in Forschung: Investitionen in die Forschung zur Sicherheit von KI-Agenten sind unerlässlich, um neue Techniken und Technologien zur Bewältigung neuer Bedrohungen zu entwickeln.
  • Förderung von Bildung und Bewusstsein: Die Förderung von Bildung und Bewusstsein für die Sicherheit von KI-Agenten kann dazu beitragen, die Messlatte für Sicherheit höher zu legen und eine verantwortungsvolle Entwicklung zu fördern.
  • Einrichtung regulatorischer Rahmenbedingungen: Die Einrichtung regulatorischer Rahmenbedingungen für die Sicherheit von KI-Agenten kann dazu beitragen, sicherzustellen, dass Sicherheit Priorität hat und dass Benutzer geschützt werden.

Durch Zusammenarbeit können wir eine Zukunft schaffen, in der KI-Agenten nicht nur leistungsstark und nützlich, sondern auch sicher und vertrauenswürdig sind. Dies erfordert eine konzertierte Anstrengung, um die vor uns liegenden Sicherheitsherausforderungen zu bewältigen und eine solide Sicherheitsgrundlage für das KI-Agenten-Ökosystem zu schaffen. Nur dann können wir das volle Potenzial von KI-Agenten entfalten und eine wirklich transformative Technologie schaffen. Die Bemühungen von Organisationen wie der IIFAA sind lobenswert, um diese Initiative voranzutreiben, aber eine breite Akzeptanz und die Einhaltung von Sicherheitsstandards sind für die sichere und erfolgreiche Entwicklung von KI-Agenten von entscheidender Bedeutung.