Vencedores do LlamaCon Hackathon Revelados

O LlamaCon Hackathon, um evento global para desenvolvedores de IA realizado em São Francisco, chegou ao fim com a revelação dos vencedores da sua edição inaugural. O evento atraiu mais de 600 inscritos, culminando com a participação de 238 desenvolvedores e inovadores talentosos que se reuniram presencialmente para um dia inteiro de desenvolvimento de projetos. O desafio era criar um projeto demonstrável em apenas 24 horas, utilizando o Llama API, Llama 4 Scout ou Llama 4 Maverick — ou qualquer combinação dessas ferramentas de ponta.

A competição ofereceu prêmios substanciais, totalizando US$ 35.000 em prêmios em dinheiro, incluindo primeiro, segundo, terceiro lugares e um prêmio de Melhor Uso do Llama API. Um painel de juízes da Meta e de parceiros patrocinadores avaliou cuidadosamente os 44 projetos enviados.

Um agradecimento especial aos parceiros Groq, Crew AI, Tavus, Lambda, Nebius e SambaNova, que forneceram um apoio inestimável ao longo da maratona de programação. Cada patrocinador ofereceu créditos de uso, workshops com palestrantes especializados, orientação, estandes de perguntas e respostas ao vivo, juízes e suporte remoto no Discord.

Lista de Vencedores

Após duas rodadas de avaliação, os seis melhores projetos foram selecionados entre 44 envios, culminando na determinação do primeiro, segundo, terceiro lugares e do prêmio de Melhor Uso do Llama API.

OrgLens – Primeiro Lugar

O OrgLens criou um sistema de matchmaking de especialistas com tecnologia de IA que conecta você com os profissionais certos dentro de sua organização. Ao analisar dados de várias fontes, incluindo tarefas do Jira, código e problemas do GitHub, documentação interna e currículos, o OrgLens cria gráficos de conhecimento abrangentes e perfis detalhados para cada colaborador. Isso permite que você pesquise especialistas usando funcionalidades avançadas de pesquisa impulsionadas por IA e até mesmo interaja com gêmeos digitais de indivíduos para fazer perguntas antes de entrar em contato. Para demonstrar suas capacidades, foi criado um aplicativo web de demonstração usando React, Tailwind e Django, aproveitando o GitHub API e o Llama API para processar e armazenar dados. O OrgLens simplifica o matchmaking de especialistas, tornando mais fácil encontrar a pessoa certa para o trabalho.

Aprofundando-se na inovação do OrgLens, percebe-se que ele é mais do que apenas um sistema de matchmaking de especialistas; é um acelerador do compartilhamento de conhecimento e da colaboração dentro de uma empresa. Ele utiliza habilmente o poder da inteligência artificial para quebrar silos de informação, conectando o conhecimento especializado oculto em todos os cantos da organização. Imagine que, quando você encontrar um problema complexo em um projeto, não precise mais procurar sem rumo em e-mails e documentos internos, mas sim usar o OrgLens para encontrar rapidamente um colega com experiência e habilidades relevantes, e até mesmo se comunicar inicialmente com seus "gêmeos digitais". Isso, sem dúvida, aumentará consideravelmente a eficiência do trabalho e a velocidade de resolução de problemas. A principal vantagem do OrgLens reside em sua capacidade de mineração e análise profunda de dados. Ele não apenas é capaz de extrair dados de plataformas como Jira e GitHub, mas também pode analisar documentos internos e currículos, construindo um gráfico de conhecimento abrangente onde também inclui todos as interações. Esse gráfico de conhecimento não apenas contém as habilidades e experiências dos funcionários, mas também registra suas contribuições e interações em diferentes projetos. Por meio desse gráfico de conhecimento, o OrgLens pode identificar com precisão o especialista mais adequado para uma tarefa específica e recomendá-lo a quem precisa de ajuda. Além disso, o OrgLens também se concentra na experiência do usuário. Ele fornece uma interface web intuitiva e fácil de usar, onde os usuários podem pesquisar por meio de palavras-chave ou usar filtros avançados para encontrar o especialista certo. Além disso, o recurso de "gêmeo digital" permite que os usuários façam perguntas preliminares e obtenham respostas rápidas, economizando tempo tanto para o especialista quanto para quem busca ajuda. Ao integrar a inteligência artificial ao processo de matchmaking de especialistas, o OrgLens tem o potencial de revolucionar a forma como as empresas gerenciam e utilizam seus recursos internos de talentos, levando a uma melhor colaboração, inovação e desempenho geral.

O sucesso do OrgLens reside na solução do problema universal de gestão de conhecimento dentro das empresas. Muitas empresas enfrentam o problema da dispersão das habilidades dos funcionários e da dificuldade de acesso à informação, levando ao desperdício de recursos e à baixa eficiência. Ao automatizar o processo de matchmaking de especialistas, o OrgLens resolve efetivamente esse problema, trazendo as seguintes vantagens significativas para as empresas:

  • Aumento da produtividade: Os funcionários podem encontrar a ajuda de que precisam mais rapidamente, acelerando o progresso do projeto.
  • Promoção da inovação: Ao conectar especialistas de diferentes áreas, novas ideias e soluções podem ser inspiradas.
  • Otimização da utilização de recursos: Evita o trabalho repetitivo e o desperdício de recursos, melhorando a eficiência geral.
  • Aumento do envolvimento dos funcionários: Facilita o compartilhamento de conhecimento e experiência entre os funcionários, aumentando seu senso de envolvimento e pertencimento.

Compliance Wizards – Segundo Lugar

O Compliance Wizards criou um analisador de transações com tecnologia de IA para detectar fraudes e alertar os utilizadores com base em algoritmos de avaliação de risco personalizados. Notificações por e-mail são enviadas aos utilizadores, solicitando que relatem ou confirmem as transações. Os utilizadores podem então se envolver com um assistente de voz de IA para relatar e confirmar. Utilizando a multimodalidade do Llama API, avaliadores de fraudes podem carregar informações do cliente e pesquisar notícias relacionadas com os seus clientes para ajudar a determinar se os clientes estão envolvidos em alguma atividade criminosa digna de nota.

Os reguladores de conformidade criaram um analisador de transações com suporte de inteligência artificial, projetado para identificar atividades suspeitas e alertar os usuários por meio de algoritmos sofisticados de avaliação de risco. Este sistema opera enviando notificações por e-mail aos usuários, solicitando que eles revisem e confirmem certas transações. Os usuários podem então interagir com um assistente de voz com tecnologia de IA para relatar transações ou confirmar sua legitimidade. Ao alavancar os recursos multimodais da Llama API, os avaliadores de fraude podem adicionar informações do cliente e pesquisar notícias relevantes, ajudando a determinar se os clientes estão envolvidos em alguma atividade criminosa digna de nota.

O núcleo do Compliance Wizards reside em seu poderoso motor de IA, que é capaz de analisar profundamente os dados de transações, identificando padrões de fraude potenciais. Este motor não apenas检测a fraudes tradicionais, mas também realiza avaliações de risco personalizadas de acordo com a situação de risco específica do cliente, melhorando assim a precisão da detecção de fraudes. Além disso, o Compliance Wizards também integra uma função de pesquisa de notícias, permitindo que os avaliadores de fraude coletem rapidamente informações relevantes sobre seus clientes, como menções na mídia e registros legais. Essa informação contextual pode ser crucial para avaliar o perfil de risco global do cliente e identificar potenciais sinais de alerta.

O assistente de voz com tecnologia de IA é outro componente chave do Compliance Wizards. Ele fornece aos usuários uma forma conveniente e eficiente de relatar e reconhecer transações, especialmente quando estão em movimento. O assistente de voz também pode responder a perguntas sobre as transações e fornecer orientação sobre como cumprir os regulamentos relevantes.

A principal vantagem do Compliance Wizards é a sua abordagem de segurança em várias camadas:

  • Avaliação de risco avançada: Através de algoritmos de avaliação de risco personalizados, é possível identificar com maior precisão potenciais fraudes.
  • Análise de transações em tempo real: Monitoramento de todas as transações em tempo real, detectando atividades suspeitas a tempo.
  • Consciência situacional: Capaz de coletar informações noticiosas, permitindo uma avaliação abrangente da situação de risco do cliente.
  • Relatório conveniente: Fornece um assistente de voz, simplificando o processo de relatório e confirmação.

O Compliance Wizards não é apenas uma ferramenta, mas uma solução de conformidade abrangente que ajuda as empresas a minimizar os riscos de fraude e a cumprir as regulamentações relevantes.

Llama CCTV Operator – Terceiro Lugar

Uma equipa liderada por Agajan Torayev construiu um operador de sala de controle de IA Llama CCTV que automatiza a identificação de eventos de vídeo de vigilância personalizados sem qualquer ajuste fino do modelo. O operador é capaz de definir eventos de vídeo em linguagem simples. Utilizando a compreensão de imagem multimodal do Llama 4, o sistema captura e detecta movimento a cada cinco quadros para avaliar esses eventos predefinidos e reportá-los ao operador.

A ideia por trás do Llama CCTV Operator é dar inteligência aos sistemas de vigilância, tornando-os capazes de identificar ativamente eventos anómalos, em vez de apenas registar passivamente vídeo. O sistema utiliza a poderosa compreensão de imagem do Llama 4, permitindo analisar fluxos de vídeo em tempo real e detetar uma vasta gama de eventos predeterminados, como atividade suspeita, acesso não autorizado ou riscos de segurança. O operador pode definir esses eventos utilizando linguagem simples, sem necessitar de qualquer conhecimento especializado de machine learning ou visão computacional.

O sistema funciona capturando e analisando o movimento a cada cinco quadros, e depois utilizando as capacidades multimodais do Llama 4 para avaliar se o movimento capturado corresponde a algum dos eventos predefinidos. Se for encontrada uma correspondência, o sistema reportará imediatamente o evento ao operador, juntamente com informações contextuais relevantes.

As principais vantagens do Llama CCTV Operator incluem:

  • Sem necessidade de ajuste fino: Não é necessário nenhum ajuste fino do modelo, simplificando consideravelmente o processo de implementação e manutenção.
  • Deteção de eventos personalizados: O operador pode definir eventos de vigilância personalizados utilizando linguagem simples, atendendo assim a requisitos de segurança específicos.
  • Análise em tempo real: O sistema é capaz de analisar fluxos de vídeo em tempo real, para detetar atividades suspeitas o mais rápido possível.
  • Relatórios automáticos: O sistema reporta automaticamente os eventos detetados ao operador, reduzindo assim a necessidade de monitorização manual.

Geo-ML – Melhor Uso do Llama API

O geólogo William Davis utilizou o Llama 4 Maverick e o GemPy para gerar potenciais locais de mineração, mapas de terreno e modelos geológicos 3D de depósitos minerais. O Geo-ML funciona processando 400 páginas de relatórios geológicos, consolidando informações numa linguagem estruturada específica do domínio geológico e, em seguida, utilizando-a para gerar representações 3D da geologia subterrânea.

"Esta é a primeira vez que utilizo realmente a LLM API para extrair texto e imagens ultra-longos de artigos de investigação geológica longos, por isso utilizei a janela de contexto ultra-longa do Llama Maverick, bem como as capacidades multimodais de texto e imagem, para extrair o texto e convertê-lo numa linguagem específica do domínio, dando-me uma versão comprimida de tudo o que está armazenado no documento", disse Davis. "Passo a maior parte do meu tempo a ler documentos geológicos. Seria incrível ter uma LLM que pudesse fazer este trabalho em segundo plano para mim."

O geólogo William Davis habilmente usou Llama 4 Maverick e GemPy, ele foi pioneiro em uma metodologia totalmente nova de modelagem geológica. O objetivo do Geo-ML é utilizar as capacidades da inteligência artificial para extrair informações ocultas de grandes relatórios geológicos e transformá-las em modelos 3D úteis e fáceis de entender.

O sistema funciona processando longos artigos de pesquisa geológica, muitas vezes com 400 páginas ou mais, e consolidando as informações em uma linguagem estruturada específica do domínio da geologia. Esta linguagem captura as principais características geológicas, estruturas e depósitos minerais descritos nos relatórios. Em seguida, o sistema utiliza esta linguagem para gerar representações 3D da geologia subterrânea, ajudando os geólogos a visualizar e analisar o ambiente subterrâneo mais facilmente.

Davis enfatizou a importância da longa janela de contexto do Llama 4 Maverick e seus recursos multimodais para tornar o Geo-ML possível. A longa janela de contexto permite que o sistema processe artigos de pesquisa inteiros de uma só vez, enquanto os recursos multimodais permitem que ele extraia texto e imagens dos documentos.

As principais vantagens do Geo-ML são sua capacidade de:

  • Automação da modelagem geológica: A automação do processo de modelagem geológica reduz o tempo e o esforço de análise manual.
  • Extração de informações ocultas: Extração de informações ocultas de vários relatórios geológicos para ajudar os geólogos a descobrir potenciais locais de mineração e depósitos minerais.
  • Geração de modelos 3D: A geração de representações 3D da geologia subterrânea ajuda os geólogos a visualizar e analisar o ambiente subterrâneo mais facilmente.
  • Aceleração da pesquisa geológica: O processo de aceleração da modelagem geológica acelera assim o processo de pesquisa geológica.

Menção Honrosa Especial: Equipe Concierge

Um dos finalistas, chamado Concierge, levou seu próprio GPU para a competição, o que o destacou na competição.

"Acreditamos que o melhor aspecto do Llama 4 Maverick é sua natureza esparsa de mistura de especialistas e disponibilidade de código aberto, permitindo o ajuste fino", disse a equipe. "A Meta lançou recentemente uma excelente ferramenta de ajuste fino, ou seja, a ferramenta no GitHub. Utilizando a Llama API, compilamos dados de várias fontes para criar conjuntos de dados de controle de qualidade e ajustamos o modelo Llama 4 Maverick. Planejamos enviá-lo para testes de referência abertos, pois atualmente não temos codificadores Llama 4 e, com a janela de contexto de 1M, espera-se que seja uma exceção."

A abordagem única do Concierge está em seu foco no ajuste fino do modelo Llama 4 Maverick para melhorar seu desempenho em tarefas específicas. A equipe acreditava que a natureza esparsa de mistura de especialistas do Llama 4 Maverick, combinada com sua disponibilidade de código aberto, o tornava um candidato ideal para ajuste fino.

Para ajustar o modelo, a equipe compilou dados de várias fontes para criar conjuntos de dados de controle de qualidade. Em seguida, eles usaram a ferramenta de ajuste fino da Meta para treinar o modelo. A equipe planeja enviar o modelo ajustado para testes de referência abertos para avaliar seu desempenho.

Assista às Apresentações dos Finalistas

Você pode assistir às apresentações dos finalistas no YouTube.

Junte-se ao Próximo Hackathon Llama

Os desenvolvedores podem se inscrever para participar do próximo Hackathon Llama, que será realizado na cidade de Nova York de 31 de maio a 1 de junho de 2025.