Von Jaipur bis DeepSeek: Ruf nach Open Source

Ein Literaturfestival, eine KI-Offenbarung

Vor einigen Wochen wurde das pulsierende Jaipur Literature Festival (JLF) in Indien zu einem unerwarteten Forum für eine entscheidende Diskussion über die Zukunft der künstlichen Intelligenz. Während einer Podiumsdiskussion, die sich vordergründig mit dem Erbe des Empire befasste, nahm das Gespräch eine scharfe Wendung. Das Publikum, gefesselt von Pankaj Mishras ‘From the Ruins of Empire: The Revolt Against the West and the Remaking of Asia’, stellte eine Reihe gezielter Fragen, nicht über Literatur, sondern über DeepSeek, ein neues generatives KI-Modell aus China.

Diese Fragen – Wie sind wir hierher gekommen? Wie gestalten wir den bestmöglichen Weg für die Zukunft der KI? Warum ist Open Source in der KI-Entwicklung so wichtig? – hallten weit über das Festivalgelände hinaus. Sie berührten eine tiefsitzende historische Rivalität, eine Sehnsucht nach Eigenständigkeit und eine wachsende globale Bewegung, die sich für einen offeneren und kollaborativeren Ansatz in der KI-Entwicklung einsetzt.

Die historischen Wurzeln der DeepSeek-Rezeption

Dass DeepSeek auf einem Literaturfestival so prominent diskutiert wurde, mag ungewöhnlich erscheinen. Seine Bedeutung ist jedoch eng mit historischen Ereignissen und einer langjährigen Rivalität, insbesondere zwischen Asien und dem Westen, verbunden. Während europäische KI-Labore für ihre Open-Source-Durchbrüche Anerkennung gefunden haben, hat die Rezeption von DeepSeek in Asien eine weitaus tiefere historische Resonanz.

Die Einführung von DeepSeek wurde von intensiver Medienberichterstattung begleitet. Seine Rezeption auf dem JLF offenbarte eine Stimmung, die über bloße Diskussionen über die KI-Leistung hinausging. Indische Schriftsteller und Journalisten, die China oft kritisch gegenüberstehen, fanden sich in einem gemeinsamen Kampf gegen die Dominanz amerikanischer KI-Konzerne (AICs) vereint. Diese Begeisterung für DeepSeek in ganz Asien wurzelt in der Kolonialgeschichte und, in jüngerer Zeit, in provokativen Äußerungen von Unternehmensvertretern.

KI: Ein moderner Kampf um Eigenständigkeit

Für Stephen Platt, Autor von ‘Imperial Twilight: The Opium War and The End of China’s Last Golden Age’, sind Chinas technologische Ambitionen untrennbar mit seinen historischen Narben verbunden. Die Opiumkriege (1839–1860) dienen als starkes Symbol dafür, wie Großbritanniens technologische und militärische Überlegenheit China gedemütigt hat. Dieses “Jahrhundert der Demütigung” treibt Chinas gegenwärtiges Streben nach Eigenständigkeit, seine aggressiven Investitionen in KI, Halbleiter und andere kritische Technologien an. Es ist eine Entschlossenheit, die Abhängigkeit von westlicher Technologie zu vermeiden, eine Lehre, die sich in das nationale Bewusstsein eingebrannt hat.

Die indischen Diskussionsteilnehmer auf dem JLF fanden in dieser Erzählung Gemeinsamkeiten. Wie China trägt Indien die dunklen Spuren des Einflusses der East India Company. Darüber hinaus hob die britische Journalistin Anita Anand ein kontroverses Video hervor, in dem OpenAI-CEO Sam Altman Indiens Potenzial, mit AICs bei der Ausbildung von Foundation Models zu konkurrieren, als “völlig hoffnungslos” abtat. Solche Äußerungen haben die Entschlossenheit zur Eigenständigkeit in der Region nur noch verstärkt.

Open-Source-KI: Ein Symbol des Widerstands

DeepSeek und die europäischen Labore, die ihm vorausgingen, haben einen Hoffnungsschimmer im KI-Wettlauf geboten. Ihre Entscheidung, Open Source zu nutzen, ist zu einem starken Symbol des Widerstands gegen die Dominanz proprietärer KI-Modelle geworden.

Die Veröffentlichung von DeepSeek R1 muss im Kontext einer tief verwurzelten Rivalität, insbesondere mit den Vereinigten Staaten, verstanden werden. Diese Rivalität ist so tiefgreifend, dass Europa in Diskussionen über den Wettbewerb mit US-Technologie oft übersehen wird.

Die Dominanz der AICs hat im Westen sogar Vergleiche mit dem Kolonialismus ausgelöst. In einem Meinungsartikel vom August 2024 mit dem Titel ‘The Rise of Techno-Colonialism’ schrieben Hermann Hauser, Mitglied des European Innovation Council, und Hazem Danny Nakib, Senior Researcher am University College London (UCL): ‘Im Gegensatz zum Kolonialismus alter Prägung geht es beim Techno-Kolonialismus nicht darum, Territorium zu erobern, sondern darum, die Technologien zu kontrollieren, die die Weltwirtschaft und unser tägliches Leben untermauern. Um dies zu erreichen, verlagern die USA und China zunehmend die innovativsten und komplexesten Segmente globaler Lieferketten ins Inland und schaffen so strategische Engpässe.’

Der bahnbrechende Open-Source-Ansatz europäischer KI-Labore wie Mistral, kyutai und Metas FAIR Paris-Team und jetzt DeepSeek hat eine überzeugende Alternative zur proprietären KI-Modellstrategie der AICs dargestellt. Diese Open-Source-Beiträge finden weltweit Anklang und haben die Akzeptanz von Open-Source-KI als Symbol des Widerstands gegen die amerikanische KI-Dominanz weiter gefestigt.

Das Plädoyer für Open Source: Die Geschichte reimt sich

Technologische Zusammenarbeit lebt von Energie und Geschwindigkeit, etwas, das der Evolution von Softwarecode innewohnt.

Der französische Wirtschaftsnobelpreisträger Jean Tirole, der zunächst über die Entstehung von Open Source verwundert war, fragte in seinem Papier von 2000 mit Josh Lerner, ‘The Simple Economics of Open Source’: ‘Warum sollten Tausende von erstklassigen Programmierern freiwillig zur Bereitstellung eines öffentlichen Gutes beitragen? Jede Erklärung, die auf Altruismus basiert, reicht nur bis zu einem gewissen Punkt.’

Obwohl dies zu dieser Zeit verständlich war, würde jeder, der den Fortschritt der KI in den letzten Jahren verfolgt, insbesondere nach der Veröffentlichung von DeepSeek R1, die Antwort als selbstverständlich empfinden. Die Auswirkungen von FAIR Paris bei Metas Open-Sourcing von Llama, der kometenhafte Aufstieg von Mistral und seinen Gründern durch das Open-Sourcing eines 7B-Sprachlernmodells (LLM) und DeepSeek R1 zeigen die zwingenden Gründe für das Engagement dieser Programmierer und Wissenschaftler für Open Source.

Es verdeutlicht auch, warum Sam Altman und seine Mitbegründer den Namen “OpenAI” wählten, um Talente anzuziehen. Hätten diese Frontier-Labore eine so durchschlagende Publicity erzielt und so starke persönliche Marken innerhalb der KI-Community aufgebaut, wenn sie sich für einen proprietären Ansatz entschieden hätten? Die Antwort ist ein klares Nein.

Zwei kraftvolle Zitate aus dem Jahr 1999, von dem Programmierer Richard Stallman bzw. dem Entwickler Eric Raymond, die am Anfang des Papiers stehen, beleuchten die Rezeption von DeepSeek auf dem JLF und unterstreichen die tieferen ideologischen Kräfte, die im Spiel sind:

  • ‘Die Idee, dass das proprietäre Software-Sozialsystem – das System, das besagt, dass Sie Software nicht teilen oder ändern dürfen – unsozial ist, dass es unethisch ist, dass es einfach falsch ist, mag für manche Leute überraschend sein. Aber was können wir sonst über ein System sagen, das darauf basiert, die Öffentlichkeit zu spalten und die Benutzer hilflos zu halten?’ - Richard Stallman

  • ‘Die Nutzenfunktion, die Linux-Hacker maximieren, ist nicht klassisch ökonomisch, sondern die immaterielle Befriedigung ihres eigenen Egos und ihr Ruf unter anderen Hackern. … Freiwillige Kulturen, die auf diese Weise funktionieren, sind eigentlich nicht ungewöhnlich; eine andere, an der ich lange teilgenommen habe, ist das Science-Fiction-Fandom, das im Gegensatz zum Hackerdom Egoboo (die Steigerung des eigenen Rufs unter anderen Fans) explizit anerkennt.’ - Eric Raymond

Die Entwicklung von Unix in den 1970er und 1980er Jahren bietet eine überzeugende Analogie zum aktuellen Stand der KI. Die anfängliche Förderung und kostenlose Verteilung von Unix durch AT&T innerhalb der akademischen Welt förderte Innovation und Akzeptanz. Als AT&T jedoch Ende der 1970er Jahre eine proprietäre Lizenz einführte, führte dies unweigerlich dazu, dass die Berkeley University BSD Unix, eine offene Alternative, startete und letztendlich Linus Torvalds Linux entwickelte. Torvalds’ Entwicklung von Linux in Europa verlagerte das Epizentrum der Open-Source-Software weg von den USA.

Die Parallelen sind frappierend, sogar geografisch, mit der Entwicklung der KI. Diesmal sind jedoch neue Geografien entstanden: Abu Dhabis TII mit seinen Falcon Models, Chinas DeepSeek, Alibabas Qwen und in jüngerer Zeit Indiens Krutrim AI Lab mit seinen Open-Source-Modellen für indische Sprachen.

Das Meta FAIR Paris-Team hat zusammen mit führenden europäischen KI-Laboren und neueren Frontier-Laboren (DeepSeek, Falcon, Qwen, Krutrim) die KI-Innovation erheblich beschleunigt. Durch das offene Teilen von Forschungsarbeiten und Code haben sie:

  • Eine neue Generation von KI-Ingenieuren und -Forschern in modernsten KI-Techniken ausgebildet.
  • Ein Ökosystem offener Zusammenarbeit geschaffen, das schnelle Fortschritte außerhalb proprietärer KI-Labore ermöglicht.
  • Alternative KI-Modelle bereitgestellt, um sicherzustellen, dass KI nicht von amerikanischen KI-Konzernen monopolisiert wird.

Diese vier Ökosysteme (Europa, Indien, Abu Dhabi und China) könnten eine mächtige Open-Source-KI-Allianz bilden, um die dominanten AICs herauszufordern, die immer noch mit einer proprietären KI-Mentalität arbeiten.

In einem Ask Me Anything (AMA)-Fragebogen am 31. Januar 2025, nach der Veröffentlichung von DeepSeek R1, räumte Altman ein, dass der proprietäre KI-Modellansatz auf der falschen Seite der Geschichte gestanden habe.

Mit der Zeit könnten sich KI-Labore weltweit dazu entschließen, dieser Allianz beizutreten, um das Feld gemeinsam voranzubringen. Dies wäre nicht das erste Mal, dass ein wissenschaftliches Feld durch eine gemeinnützige Initiative Grenzen und politische Ideologien überschreitet. Es bietet eine Art des Wettbewerbs, die vermeidet, die antikolonialen Ressentiments auszulösen, die oft vom Globalen Süden geäußert werden.

Historische Präzedenzfälle: Das Human Genome Project als Modell für KI

Als Biologe bin ich mir der Errungenschaften des Human Genome Project (HGP) besonders bewusst und wie es letztendlich die gewinnorientierte Initiative von Celera Genomics übertraf, was dem Feld und der Menschheit insgesamt zugute kam.

Das HGP war eine bahnbrechende internationale Forschungsinitiative, die das gesamte menschliche Genom kartierte und sequenzierte. Es wurde 2003 nach 13 Jahren Zusammenarbeit abgeschlossen und hat laut einem Bericht von 2011, der 2013 aktualisiert wurde, einen wirtschaftlichen Einfluss von fast 800 Milliarden US-Dollar aus einer Investition von 3 Milliarden US-Dollar generiert (eine Rendite für die US-Wirtschaft von 141 zu eins – jeder US-Dollar an föderaler HGP-Investition hat zur Generierung von 141 US-Dollar in der Wirtschaft beigetragen). Es hat die Medizin, Biotechnologie und Genetik revolutioniert und Fortschritte in der personalisierten Medizin, Krankheitsprävention und Genomforschung ermöglicht. Die Sequenzierungsarbeiten und die Forschung wurden von 20 Laboren in sechs Ländern durchgeführt: den USA, Großbritannien, Frankreich, Deutschland, Japan und China.

Während Celera Genomics versuchte, Genomsequenzen gewinnorientiert zu sequenzieren, priorisierte das HGP den offenen Datenaustausch, der in seinen Bermuda Principles verankert ist. Diese Prinzipien, die während des International Strategy Meeting on Human Genome Sequencing in Bermuda im Februar 1996 festgelegt wurden, waren entscheidend für die Gestaltung der Richtlinien für den Datenaustausch für das HGP und haben einen nachhaltigen Einfluss auf die Praktiken der Genomforschung weltweit. Seine wichtigsten Grundsätze waren:

  1. Sofortige Datenfreigabe: Alle vom HGP generierten menschlichen Genomsequenzdaten sollten, vorzugsweise innerhalb von 24 Stunden nach der Generierung, in öffentlichen Datenbanken veröffentlicht werden. Diese schnelle Verbreitung zielte darauf ab, die wissenschaftliche Entdeckung zu beschleunigen und den gesellschaftlichen Nutzen zu maximieren.
  2. Freier und uneingeschränkter Zugang: Die Daten sollten der globalen wissenschaftlichen Gemeinschaft und der Öffentlichkeit frei zugänglich gemacht werden, ohne Einschränkungen ihrer Verwendung für Forschungs- oder Entwicklungszwecke.
  3. Verhinderung von Ansprüchen auf geistiges Eigentum: Die Teilnehmer einigten sich darauf, dass keine Rechte an geistigem Eigentum an den primären Genomsequenzdaten geltend gemacht werden, wodurch ein Ethos der offenen Wissenschaft gefördert und potenzielle Behinderungen der Forschung aufgrund von Patentierungen verhindert werden.

In Bezug auf die Governance war das HGP eine kollaborative und koordinierte wissenschaftliche Initiative, keine eigenständige Organisation oder Körperschaft. Es war eine dezentrale Anstrengung, die durch staatliche Zuschüsse und Verträge an verschiedene Forschungseinrichtungen finanziert wurde. Ein Teil seines Budgets (3–5 %) war der Untersuchung und Behandlung ethischer, rechtlicher und sozialer Belange im Zusammenhang mit der Sequenzierung des menschlichen Genoms gewidmet.

KI-Sicherheit und Open-Source-KI verbinden

Ein weiterer entscheidender Vorteil von Open-Source-KI ist ihre Rolle in der KI-Sicherheitsforschung.

Der AI Seoul Summit im Jahr 2024 konzentrierte sich ausschließlich auf existenzielle Risiken zu einer Zeit, als AICs einen erheblichen Vorsprung vor dem Rest der Welt hatten. Noch im Mai 2024 behauptete der ehemalige Google-CEO Eric Schmidt, die USA seien China in der KI 2–3 Jahre voraus, während Europa zu sehr mit Regulierung beschäftigt sei, um relevant zu sein. Wäre der Gipfel erfolgreich gewesen, hätte er die Kontrolle über KI-Sicherheitsentscheidungen effektiv an diese Unternehmen abgetreten. Glücklicherweise war dies nicht der Fall.

Nachdem Open-Source-KI die technologische Lücke schließt, werden Sicherheitsdiskussionen nicht mehr ausschließlich von einer Handvoll dominanter Akteure diktiert. Stattdessen hat eine breitere und vielfältigere Gruppe von Interessengruppen – darunter Forscher, politische Entscheidungsträger und KI-Labore aus Europa, Indien, China und Abu Dhabi – die Möglichkeit, die Diskussion zusammen mit den AICs zu gestalten.

Darüber hinaus verbessert Open-Source-KI die globalen Abschreckungsfähigkeiten und stellt sicher, dass kein einzelner Akteur fortschrittliche KI-Systeme ohne Rechenschaftspflicht monopolisieren oder missbrauchen kann. Dieser dezentrale Ansatz für KI-Sicherheit wird dazu beitragen, potenzielle existenzielle Bedrohungen zu mindern, indem sowohl Fähigkeiten als auch Aufsicht gerechter über das globale KI-Ökosystem verteilt werden.

Ein Human AI Project mit den Pariser Prinzipien

Welche Rolle kann der AI Action Summit nächste Woche in Paris bei der Gestaltung der Zukunft der KI spielen?

Dies bietet eine entscheidende Gelegenheit, ein Human AI Project nach dem Vorbild des Human Genome Project zu etablieren, um die Open-Source-KI-Entwicklung auf globaler Ebene voranzutreiben und zu unterstützen. Die aktuellen Open-Source-Beiträge, von bahnbrechenden europäischen KI-Laboren bis hin zu DeepSeek, beschleunigen das Feld bereits und helfen, die Lücke zu den AICs zu schließen.

Die Fähigkeiten der KI werden durch die Reife des allgemeinen Open-Source-Ökosystems erheblich verbessert, mit Tausenden von ausgereiften Projekten, dedizierten Governance-Modellen und tiefer Integration in Unternehmen, Hochschulen und Regierungen.

Das KI-Open-Source-Ökosystem profitiert auch von Plattformen wie Github und Gitlab. In jüngerer Zeit haben spezielle Plattformen für Open-Source-KI, wie Hugging Face – ein US-Unternehmen, das von drei französischen Unternehmern mitbegründet wurde – begonnen, eine wichtige Rolle als Vertriebsplattformen für die Community zu spielen.

Angesichts der relativen Reife des Open-Source-KI-Ökosystems im Vergleich zur Sequenzierung des menschlichen Genoms in den frühen 1990er Jahren, wie könnte Open-Source-KI von einem Human AI Project profitieren?

Zum einen wird die Europäische Union oft von AICs und ihren eigenen Frontier-KI-Laboren für ihre Regulierung von Open Source kritisiert. Ein Human AI Project könnte eine gemeinsame Anstrengung unternehmen, um die regulatorische Abstimmung und Standards in den teilnehmenden Ländern und Regionen zu entwickeln. Ein koordinierter Ansatz, mit anfänglichen Beiträgen aus Europa, Indien, Abu Dhabi und China, könnte die Verbreitung von Open-Source-Modellen in dieser gemeinsamen Regulierungsregion erleichtern (eine Art Freihandelszone für Open Source).

Obwohl nicht endgültig bewiesen, gibt es Parallelen zu den rivalitätsgetriebenen Dynamiken, die die Reaktion auf DeepSeek auf dem JLF prägten. In ähnlicher Weise könnte die KI-Regulierung mit einem Fokus auf die Förderung von Innovationen und die Maximierung des öffentlichen Nutzens – sowohl für Unternehmen als auch für Verbraucher – gestaltet werden, anstatt als potenzieller Mechanismus zu dienen, um den Fortschritt von AICs zu behindern oder einheimische KI-Champions zu behindern, die versuchen, die Lücke zu schließen.

Das Projekt könnte auch den Talent-Austausch erleichtern und eine gemeinsame Recheninfrastruktur (verbunden mit der Energieinfrastruktur) für Open-Source-KI finanzieren. Aus der nachstehenden Grafik geht hervor, dass talentierte MINT-Absolventen in einigen Teilen der Welt derzeit möglicherweise Schwierigkeiten haben, Zugang zu der erstklassigen KI-Infrastruktur zu erhalten, die ihrem Land fehlt.

Ein weiterer Bereich der Zusammenarbeit wäre die Festlegung bewährter Verfahren für offene Zugangsstandards für Modelle und Datensätze, die Gewichte, Code und Dokumentation umfassen.

Das Projekt könnte auch die globale Zusammenarbeit in der KI-Sicherheitsforschung fördern. Anstatt im Geheimen zu rennen, um Ausrichtungsprobleme zu beheben, könnten Forscher von Paris über Peking bis Bangalore zusammenarbeiten, um Modelle zu bewerten und Risiken zu mindern. Alle Sicherheitsergebnisse (z. B. Methoden zur Reduzierung schädlicher Ergebnisse oder Werkzeuge zur Interpretierbarkeit) könnten umgehend im offenen Bereich geteilt werden.

Dieses Prinzip würde anerkennen, dass KI-Sicherheit ein globales öffentliches Gut ist – ein Durchbruch in einem Labor (sagen wir, ein neuer Algorithmus, um KI-Argumentation transparent zu machen) sollte allen zugute kommen und nicht proprietär gehalten werden. Gemeinsame Sicherheitsbenchmarks und Challenge-Events könnten organisiert werden, um eine Kultur der kollektiven Verantwortung zu fördern. Durch die Bündelung der Sicherheitsforschung würde das Projekt darauf abzielen, potenziellem KI-Missbrauch oder Unfällen vorzubeugen und der Öffentlichkeit zu versichern, dass leistungsstarke KI-Systeme mit Sorgfalt verwaltet werden.

Die Konzentration auf existenzielle Risiken auf dem UK AI Safety Summit 2023 in Bletchley Park hat durch die Überbetonung der Analogie zur nuklearen Proliferation eine Gelegenheit verpasst, andere Bereiche zu untersuchen, in denen Sicherheit als öffentliches Gut betrachtet wird: Cybersicherheit, Antibiotika und Immunologie (mit mehreren interessanten Initiativen nach Covid-19) und Flugsicherheit.

Das Projekt könnte auch mit der privaten ARC Prize Foundation zusammenarbeiten und die Arbeit, die derzeit von ihr durchgeführt wird, weiterführen, um die Entwicklung sicherer und fortschrittlicher KI-Systeme zu fördern. Der ARC Prize, der von François Chollet, dem Schöpfer der Open-Source-Bibliothek Keras, und Mike Knoop, dem Mitbegründer des Softwareunternehmens Zapier, mitbegründet wurde, ist eine gemeinnützige Organisation, die öffentliche Wettbewerbe veranstaltet, um die Forschung zur künstlichen allgemeinen Intelligenz (AGI) voranzutreiben. Ihre Flaggschiff-Veranstaltung, der ARC Prize-Wettbewerb, bietet Teilnehmern über 1 Million US-Dollar, die Lösungen für den ARC-AGI-Benchmark entwickeln und als Open Source bereitstellen können – ein Test, der entwickelt wurde, um die Fähigkeit eines KI-Systems zu bewerten, sich zu verallgemeinern und neue Fähigkeiten effizient zu erwerben.

Die Betonung von Open-Source-Lösungen und öffentlichen Wettbewerben durch die ARC Prize Foundation steht in nahtlosem Einklang mit den Zielen des Human AI Project, die internationale Zusammenarbeit und Transparenz in der KI-Entwicklung zu fördern, wie auf der Website der ARC Prize Foundation unter ‘AGI’ angegeben:

‘LLMs werden mit unvorstellbar großen Datenmengen trainiert, bleiben aber unfähig, sich an einfache Probleme anzupassen, für die sie nicht trainiert wurden, oder neuartige Erfindungen zu machen, egal wie grundlegend sie sind. Starke Marktanreize haben die KI-Spitzenforschung dazu gebracht, Closed Source zu werden. Forschungsaufmerksamkeit und -ressourcen werden in eine Sackgasse gelenkt. Der ARC Prize soll Forscher dazu inspirieren, neue technische Ansätze zu entdecken, die den Fortschritt der offenen AGI vorantreiben.’

Wie das HGP würde das Human AI Project einen Teil seiner Mittel für ethische Governance und Aufsicht bereitstellen. Dazu würden auch Diskussionen über das Urheberrecht gehören. Das Projekt könnte der Gesellschaft helfen, die Ethik des kostenlosen Zugriffs auf die beste Informationsquelle im Training zu berücksichtigen, während proprietäre Modelle darauf aufbauend entwickelt werden. Im Bereich der Biologie ist bekannt, dass die Protein Data Bank, die für das AlphaFold-Modell von Google DeepMind zur Vorhersage der Proteinstruktur entscheidend war, wahrscheinlich über einen Zeitraum von 50 Jahren die Finanzierung von 10 Milliarden Dollar benötigte. Das Projekt könnte dabei helfen, darüber nachzudenken, wie wir die KI-Entwicklung weiterhin finanzieren oder wie die proprietären AICs Einnahmen mit den Urhebern der Originalwerke teilen sollten.

Zusammen würden diese Pariser Prinzipien und das Human AI Project dazu beitragen, die KI weltweit auf offenere, kollaborativere und ethischere Weise voranzubringen. Sie würden auf den Errungenschaften führender Open-Source-Beitragender von Europa bis zum Nahen Osten, Indien und jetzt China aufbauen, innerhalb der bestehenden Open-Source-Software und KI-spezifischen Frameworks und Plattformen.

Die Geschichte reimt sich mit KI

Die Chance, die sich uns bietet, ist immens. Mistral AI, kyutai, BFL, Stability und in jüngerer Zeit DeepSeek haben der Öffentlichkeit die Hoffnung gegeben, dass eine Zukunft möglich ist, in der die Zusammenarbeit mit den proprietären AICs konkurriert oder sie sogar übertrifft.

Wir befinden uns noch in den Anfängen dieses technologischen Durchbruchs. Wir sollten dankbar sein für die Beiträge, die AICs auf diesem Gebiet geleistet haben. Der AI Action Summit sollte eine Gelegenheit sein, kooperative Innovationen in einem noch nie dagewesenen Ausmaß zu fördern und so viele Akteure wie möglich auf die richtige Seite der Geschichte zu bringen.

Es ist wieder 1789. Wir erleben einen Kampf um technologische Souveränität, eine Dezentralisierung der Macht und einen Ruf nach KI als öffentliches Gut. Und genau wie 1789 wird diese Revolution nicht aufzuhalten sein.