Die LlamaCon Hackathon, ein globales Treffen von KI-Entwicklern in San Francisco, ist erfolgreich zu Ende gegangen. Die Veranstaltung zog über 600 Registranten an, wobei letztendlich 238 talentierte Entwickler und Innovatoren zusammenkamen, um einen Tag lang Projekte zu entwickeln. Die Herausforderung bestand darin, innerhalb von nur 24 Stunden ein vorführbares Projekt mit der Llama API, Llama 4 Scout oder Llama 4 Maverick (oder einer beliebigen Kombination dieser hochmodernen Tools) zu erstellen.
Der Wettbewerb bot beträchtliche Preise im Wert von 35.000 US-Dollar in Form von Bargeld, darunter erste, zweite und dritte Preise sowie einen Sonderpreis für die beste Verwendung der Llama API. Eine Jury aus Vertretern von Meta und den Sponsoring-Partnern bewertete die 44 eingereichten Projekte sorgfältig.
Ein besonderer Dank gilt den Partnern Groq, Crew AI, Tavus, Lambda, Nebius und SambaNova, die während des gesamten Hackathons wertvolle Unterstützung leisteten. Jeder Sponsor stellte Guthaben, Expertenvorträge, Mentoring, Live-Q&A-Stände, Juroren und Remote-Support über Discord zur Verfügung.
Die Gewinner
Nach zwei Bewertungsrunden wurden aus den 44 eingereichten Projekten die besten sechs ausgewählt, aus denen letztendlich der erste, zweite, dritte Platz und der Preis für die beste Nutzung der Llama API hervorgingen.
OrgLens – Erster Platz
OrgLens erstellte ein KI-gestütztes Experten-Matching-System, das Sie mit den richtigen Fachleuten innerhalb Ihrer Organisation verbindet. Durch die Analyse von Daten aus verschiedenen Quellen, darunter Jira-Aufgaben, GitHub-Code und -Probleme, interne Dokumentation und Lebensläufe, erstellt OrgLens für jeden Mitarbeiter umfassende Wissensgraphen und detaillierte Profile. Dies ermöglicht es Ihnen, mit erweiterten KI-gestützten Suchfunktionen nach Experten zu suchen oder sogar mit digitalen Zwillingen von Einzelpersonen zu interagieren, um vor der Kontaktaufnahme Fragen zu stellen. Um seine Fähigkeiten zu demonstrieren, wurde eine Demo-Webanwendung mit React, Tailwind und Django erstellt, die die GitHub API und die Llama API verwendet, um Daten zu verarbeiten und zu speichern. OrgLens vereinfacht das Experten-Matching und erleichtert so die Suche nach den richtigen Personen für die jeweiligen Aufgaben.
OrgLens ist mehr als nur ein Experten-Matching-System; es ist ein Beschleuniger für Wissensaustausch und Zusammenarbeit innerhalb eines Unternehmens. Es nutzt die Leistungsfähigkeit der künstlichen Intelligenz, um Informationssilos abzubauen und das in den verschiedenen Ecken der Organisation verborgene Fachwissen zu verbinden. Stellen Sie sich vor, Sie stehen vor einem komplexen Projekt und müssen nicht mehr ziellos in internen E-Mails und Dokumenten suchen, sondern können über OrgLens schnell die Kollegen mit der relevanten Erfahrung und den entsprechenden Fähigkeiten finden und sich direkt mit ihren "digitalen Zwillingen" austauschen, um vorab Fragen zu klären. Dies wird die Arbeitseffizienz und die Problemlösungsgeschwindigkeit erheblich verbessern.
Die Kernstärke von OrgLens liegt in seiner Fähigkeit, Daten tiefgehend zu analysieren und zu verwerten. Es durchforstet nicht nur Daten von Jira, GitHub und anderen Plattformen, sondern analysiert auch interne Dokumente und Lebensläufe, um einen umfassenden Wissensgraphen zu erstellen. Dieser Wissensgraph enthält nicht nur die Fähigkeiten und Erfahrungen der Mitarbeiter, sondern auch Informationen über ihre Beiträge und Interaktionen in verschiedenen Projekten. Basierend auf diesem Wissensgraphen kann OrgLens präzise die Experten identifizieren, die am besten für eine bestimmte Aufgabe geeignet sind, und sie an die Personen vermitteln, die Hilfe benötigen.
Darüber hinaus legt OrgLens Wert auf die Benutzerfreundlichkeit. Es bietet eine intuitive Web-Oberfläche, über die Benutzer mithilfe von Schlüsselwörtern suchen oder erweiterte Filter verwenden können, um den richtigen Experten zu finden. Die "Digital Twin"-Funktion ermöglicht es Benutzern, vorab Fragen zu stellen und schnell Antworten zu erhalten, wodurch sowohl die Zeit des Experten als auch die des Suchenden gespart wird. Durch die Integration von künstlicher Intelligenz in den Experten-Matching-Prozess hat OrgLens das Potenzial, die Art und Weise, wie Unternehmen ihre internen Talente verwalten und nutzen, grundlegend zu verändern und zu verbesserter Zusammenarbeit, Innovation und Gesamtleistung zu führen.
Der Erfolg von OrgLens beruht darauf, dass es ein weit verbreitetes Problem des Wissensmanagements in Unternehmen löst. Viele Unternehmen kämpfen mit dem Problem, dass die Fähigkeiten ihrer Mitarbeiter verstreut sind und Informationen schwer zugänglich sind, was zu Ressourcenverschwendung und Ineffizienz führt. Durch die Automatisierung des Experten-Matching-Prozesses löst OrgLens dieses Problem effektiv und bietet Unternehmen folgende Vorteile:
- Erhöhte Produktivität: Mitarbeiter können schneller die benötigte Unterstützung finden, was den Projektfortschritt beschleunigt.
- Förderung von Innovation: Durch die Verbindung von Experten aus verschiedenen Bereichen können neue Ideen und Lösungen angeregt werden.
- Optimierung der Ressourcennutzung: Doppelte Arbeit und Ressourcenverschwendung werden vermieden, was die Gesamteffizienz steigert.
- Verbesserung der Mitarbeiterbeteiligung: Mitarbeiter können leichter Wissen und Erfahrungen austauschen, was ihre Beteiligung und ihr Zugehörigkeitsgefühl stärkt.
Compliance Wizards – Zweiter Platz
Compliance Wizards hat einen KI-gestützten Transaktionsanalysator entwickelt, der Betrug erkennt und Benutzer basierend auf benutzerdefinierten Risikobewertungsalgorithmen alarmiert. E-Mail-Benachrichtigungen werden an Benutzer gesendet, um sie aufzufordern, Transaktionen zu melden oder zu bestätigen. Benutzer können dann mit einem KI-Sprachassistenten interagieren, um Berichte zu erstellen oder Bestätigungen vorzunehmen. Mit der Multimodalität der Llama API können Fraud-Assessoren Kundeninformationen hochladen und nach relevanten Nachrichten über ihre Kunden suchen, um festzustellen, ob diese in nennenswerte kriminelle Aktivitäten verwickelt sind.
Die Compliance Wizards haben ein Tool entwickelt, das darauf abzielt, verdächtige Aktivitäten zu identifizieren und Benutzer durch ausgeklügelte Risikobewertungsalgorithmen zu alarmieren. Das System funktioniert, indem es E-Mail-Benachrichtigungen an Benutzer sendet, die sie auffordern, bestimmte Transaktionen zu überprüfen und zu bestätigen. Benutzer können dann mit einem KI-gestützten Sprachassistenten interagieren, um Transaktionen zu melden oder ihre Rechtmäßigkeit zu bestätigen. Durch die Nutzung der multimodalen Fähigkeiten der Llama API können Betrugsbewerter Kundeninformationen hochladen und nach relevanten Nachrichten suchen, um festzustellen, ob Kunden in nennenswerte kriminelle Aktivitäten verwickelt sind.
Das Herzstück von Compliance Wizards ist die leistungsstarke KI-Engine, die Transaktionsdaten eingehend analysieren und potenzielle Betrugsmuster erkennen kann. Die Engine erkennt nicht nur traditionelle Betrugsfälle, sondern führt auch maßgeschneiderte Risikobewertungen basierend auf den spezifischen Risikoprofilen der Kunden durch, was die Genauigkeit der Betrugserkennung erhöht. Darüber hinaus ist Compliance Wizards in eine Nachrichtensuchfunktion integriert, die es Betrugsbewertern ermöglicht, schnell relevante Informationen wie Medienberichte und Gerichtsakten über ihre Kunden zu sammeln. Diese kontextbezogenen Informationen können entscheidend sein, um das Gesamtrisikoprofil des Kunden zu bewerten und potenzielle Warnsignale zu identifizieren.
Der KI-gestützte Sprachassistent ist eine weitere Schlüsselkomponente von Compliance Wizards. Er bietet Benutzern eine bequeme und effiziente Möglichkeit, Transaktionen zu melden und zu bestätigen, insbesondere wenn sie unterwegs sind. Der Sprachassistent kann auch Fragen zu den Transaktionen beantworten und Anleitungen zur Einhaltung relevanter Vorschriften geben.
Die Hauptvorteile von Compliance Wizards liegen in dem vielschichtigen Sicherheitsansatz:
- Erweiterte Risikobewertung: Durch maßgeschneiderte Risikobewertungsalgorithmen können potenzielle Betrugsfälle genauer erkannt werden.
- Echtzeit-Transaktionsanalyse: Alle Transaktionen werden in Echtzeit überwacht, um verdächtige Aktivitäten umgehend zu erkennen.
- Kontextuelle Wahrnehmung: Nachrichteninformationen können abgerufen werden, um das Risikoprofil der Kunden umfassend zu bewerten.
- Bequeme Berichtserstattung: Ein Sprachassistent vereinfacht die Berichts- und Bestätigungsprozesse.
Compliance Wizards ist mehr als nur ein Werkzeug; es ist eine umfassende Compliance-Lösung, die Unternehmen hilft, Betrugsrisiken zu minimieren und relevante Vorschriften einzuhalten.
Llama CCTV Operator – Dritter Platz
Ein Team unter der Leitung von Agajan Torayev entwickelte einen Llama CCTV AI-Kontrollraumoperator, der benutzerdefinierte Überwachungsvideoereignisse automatisch erkennt, ohne dass eine Modellfeinabstimmung erforderlich ist. Der Bediener kann Videoereignisse in einfacher Sprache definieren. Mithilfe des multimodalen Bildverständnisses von Llama 4 erfasst und erkennt das System alle fünf Frames Bewegungen, um diese vordefinierten Ereignisse zu bewerten und an den Bediener zu melden.
Die Idee hinter Llama CCTV Operator ist, Überwachungssystemen Intelligenz zu verleihen, damit sie proaktiv anormale Ereignisse erkennen können, anstatt nur passiv Videos aufzuzeichnen. Das System nutzt die leistungsstarken Bildverständnisfähigkeiten von Llama 4, um Videostreams in Echtzeit zu analysieren und eine Vielzahl vordefinierter Ereignisse wie verdächtige Aktivitäten, unbefugten Zugriff oder Sicherheitsrisiken zu erkennen. Der Bediener kann diese Ereignisse in einfacher Sprache definieren, ohne dass spezielle Kenntnisse in den Bereichen maschinelles Lernen oder Computer Vision erforderlich sind.
Das System funktioniert, indem es alle fünf Frames Bewegungen erfasst und analysiert und dann mithilfe der multimodalen Fähigkeiten von Llama 4 beurteilt, ob die erfasste Bewegung mit einem der vordefinierten Ereignisse übereinstimmt. Wenn eine Übereinstimmung gefunden wird, meldet das System das Ereignis sofort zusammen mit relevanten Kontextinformationen an den Bediener.
Die Hauptvorteile von Llama CCTV Operator sind:
- Keine Feinabstimmung erforderlich: Der Verzicht auf eine Modellfeinabstimmung vereinfacht den Bereitstellungs- und Wartungsprozess erheblich.
- Benutzerdefinierte Ereigniserkennung: Bediener können benutzerdefinierte Überwachungsereignisse mit einfacher Sprache definieren, um spezifische Sicherheitsanforderungen zu erfüllen.
- Echtzeitanalyse: Das System kann Videostreams in Echtzeit analysieren, um verdächtige Aktivitäten so schnell wie möglich zu erkennen.
- Automatische Berichterstattung: Das System meldet erkannte Ereignisse automatisch an den Bediener, wodurch der Bedarf an manueller Überwachung reduziert wird.
Geo-ML – Beste Nutzung der Llama API
Der Geologe William Davis nutzte Llama 4 Maverick und GemPy, um mögliche Abbaustandorte, topografische Karten und 3D-geologische Modelle von Mineralvorkommen zu erstellen. Geo-ML analysiert 400-seitige geologische Berichte, integriert die Informationen in eine strukturierte, auf geologische Bereiche zugeschnittene Sprache und verwendet diese dann, um eine 3D-Darstellung der unterirdischen Geologie zu erstellen.
"Dies ist das erste Mal, dass ich die LLM API wirklich verwendet habe, um ultralange Texte und Bilder aus langen geologischen Forschungsarbeiten zu extrahieren. Ich habe also das ultralange Kontextfenster von Llama Maverick sowie die multimodalen Text- und Bildfunktionen verwendet, um Text zu extrahieren und ihn in eine domänenspezifische Sprache zu konvertieren, wodurch eine komprimierte Version von allem erstellt wurde, was in einem Dokument gespeichert ist", sagte Davis. "Ich verbringe die meiste Zeit damit, geologische Dokumente zu lesen. Es wäre großartig, ein LLM zu haben, das das im Hintergrund für mich erledigt."
Der Geologe William Davis hat mit dem geschickten Einsatz von Llama 4 Maverick und GemPy einen völlig neuen Ansatz zur geologischen Modellierung entwickelt. Ziel von Geo-ML ist es, die Leistungsfähigkeit der künstlichen Intelligenz zu nutzen, um verborgene Informationen aus großen Mengen an geologischen Berichten zu extrahieren und in nützliche und leicht verständliche 3D-Modelle umzuwandeln.
Das System analysiert lange geologische Forschungsarbeiten, oft 400 Seiten oder mehr, und integriert die Informationen in eine strukturierte, auf geologische Bereiche zugeschnittene Sprache. Diese Sprache erfasst die wichtigsten geologischen Merkmale, Strukturen und Mineralvorkommen, die in den Berichten beschrieben werden. Anschließend verwendet das System diese Sprache, um eine 3D-Darstellung der unterirdischen Geologie zu erstellen, die es Geologen erleichtert, die unterirdische Umgebung zu visualisieren und zu analysieren.
Davis selbst betonte die Bedeutung des langen Kontextfensters und der multimodalen Fähigkeiten von Llama 4 Maverick, um Geo-ML zu ermöglichen. Das lange Kontextfenster ermöglicht es dem System, ganze Forschungsarbeiten auf einmal zu verarbeiten, während die multimodalen Fähigkeiten es ihm ermöglichen, sowohl Text als auch Bilder aus den Dokumenten zu extrahieren.
Die Hauptvorteile von Geo-ML liegen in der Fähigkeit,
- Geologische Modellierung zu automatisieren: Der Prozess der geologischen Modellierung wird automatisiert, wodurch der Zeit- und Arbeitsaufwand für die manuelle Analyse reduziert wird.
- Verborgene Informationen zu extrahieren: Verborgene Informationen werden aus großen Mengen an geologischen Berichten extrahiert, die Geologen helfen, potenzielle Abbaustandorte und Mineralvorkommen zu entdecken.
- 3D-Modelle zu erstellen: Es werden 3D-Darstellungen der unterirdischen Geologie erstellt, die es Geologen erleichtern, die unterirdische Umgebung zu visualisieren und zu analysieren.
- Geologische Forschung zu beschleunigen: Durch die Beschleunigung des geologischen Modellierungsprozesses wird der Fortschritt der geologischen Forschung beschleunigt.
Besondere Anerkennung: Team Concierge
Einer der Finalisten, Concierge, brachte seine eigenen GPUs mit zum Wettbewerb, was ihn von der Konkurrenz abhob.
"Wir glauben, dass der beste Aspekt von Llama 4 Maverick seine spärliche Mischung aus Expertennatur und Open-Source-Verfügbarkeit ist, die eine Feinabstimmung ermöglicht", sagte das Team. "Meta hat kürzlich ein großartiges Feinabstimmungstool veröffentlicht, nämlich Tools auf GitHub. Mit der Llama APIhaben wir Daten aus mehreren Quellen zusammengestellt, um QA-Datensätze zu erstellen und das Llama 4 Maverick-Modell feinabzustimmen. Wir planen, es an offene Benchmarks zu übermitteln, da uns derzeit der Llama 4-Encoder fehlt und es mit einem 1M-Kontextfenster voraussichtlich eine Ausnahme darstellen wird."
Der einzigartige Ansatz von Concierge besteht darin, sich auf die Feinabstimmung des Llama 4 Maverick-Modells zu konzentrieren, um seine Leistung bei bestimmten Aufgaben zu verbessern. Das Team glaubte, dass die spärliche Mischung aus Expertennatur von Llama 4 Maverick in Kombination mit seiner Open-Source-Verfügbarkeit ihn zu einem idealen Kandidaten für die Feinabstimmung machte.
Um das Modell feinabzustimmen, kompilierte das Team Daten aus mehreren Quellen, um QA-Datensätze zu erstellen. Anschließend verwendete es das Feinabstimmungstool von Meta, um das Modell zu trainieren. Das Team plant, das feinabgestimmte Modell an offene Benchmarks zu übermitteln, um seine Leistung zu bewerten.
Sehen Sie sich die Präsentationen der Finalisten an
Sie können die Präsentationen der Finalisten auf YouTube ansehen.
Nehmen Sie am nächsten Llama Hackathon teil
Entwickler können sich für den nächsten Llama Hackathon bewerben, der vom 31. Mai bis 1. Juni 2025 in New York stattfindet.