Tag: AIGC

Phi-4: Microsofts KI-Kraftpaket

Microsoft stellt Phi-4-multimodal vor, ein kompaktes KI-Modell für Geräte. Es verarbeitet Sprache, Bilder und Text mit geringem Rechenaufwand. Es ist ein Fortschritt für kleine Sprachmodelle (SLMs), die auf Geräten mit begrenzten Ressourcen laufen, und zeigt die Entwicklung von KI jenseits großer Rechenzentren.

Phi-4: Microsofts KI-Kraftpaket

Microsofts Phi-4: Kompakte KI-Modelle

Microsofts Phi-4-Familie definiert Effizienz in der KI neu. Diese Modelle verarbeiten Text, Bilder und Sprache und benötigen dabei weniger Rechenleistung. Sie beweisen, dass Leistungsfähigkeit auch in kleinen Paketen stecken kann, und ermöglichen KI-Anwendungen am Netzwerkrand ('Edge') und auf Standardgeräten, wodurch Kosten gesenkt und die Privatsphäre verbessert werden.

Microsofts Phi-4: Kompakte KI-Modelle

Open-Source-Triumph: RISC-V und KI

DeepSeek revolutioniert die KI-Chip-Industrie. Die Open-Source-Architektur RISC-V, mit Alibabas Xuantie-Prozessoren, wird zur nativen Rechenarchitektur der KI-Ära. Xuantie C930 kombiniert Hochleistungsrechnen und KI, und beschleunigt die Entwicklung von Edge-KI. RISC-V bietet Flexibilität, Skalierbarkeit und Offenheit, ideal für KI-Anforderungen.

Open-Source-Triumph: RISC-V und KI

Rokids AR-Brille: Chinas KI-Zukunft

Rokids KI-gestützte AR-Brille, angetrieben von Alibabas Qwen LLMs, sorgt in China für Aufsehen. Die Demonstration von Misa Zhu Mingming, bei der Notizen auf die Brillengläser projiziert wurden, löste einen Börsenboom aus. Erschwinglichkeit und praktische Anwendungen in verschiedenen Branchen unterstreichen Chinas Ambitionen im globalen KI-Wettlauf.

Rokids AR-Brille: Chinas KI-Zukunft

Sopra Steria & Mistral AI: KI-Allianz

Sopra Steria und Mistral AI bündeln ihre Kräfte, um maßgeschneiderte, souveräne generative KI-Lösungen für europäische Großunternehmen und öffentliche Verwaltungen anzubieten. Die Partnerschaft kombiniert Fachwissen und modernste Technologie für eine sichere und effiziente KI-Integration.

Sopra Steria & Mistral AI: KI-Allianz

Muon und Moonlight für LLM Training

Moonshot AI Forscher präsentieren Muon und Moonlight, die das Training großer Sprachmodelle durch effiziente Techniken optimieren. Sie überwinden Skalierungsprobleme, reduzieren Rechenkosten und verbessern die Leistung in verschiedenen Benchmarks, einschließlich Code-Generierung und mathematischem Denken. Muon ist doppelt so effizient wie Adam.

Muon und Moonlight für LLM Training

Kimi Open Source Moonlight 30B 160B

Moonshot AIs Kimi stellt Moonlight vor ein hybrides Expertenmodell mit 30 und 160 Milliarden Parametern das auf 57 Billionen Tokens trainiert wurde und neue Maßstäbe in der Pareto Effizienz setzt.

Kimi Open Source Moonlight 30B 160B

Baichuan-M1 Neue Medizinische LLMs

Baichuan-M1 ist eine neue Reihe großer Sprachmodelle, die auf 20 Billionen Token trainiert wurden und sich speziell auf die Verbesserung medizinischer Fähigkeiten konzentrieren. Sie überwinden Herausforderungen wie Datenknappheit und bieten eine verbesserte Leistung in medizinischen Anwendungen, von Diagnostik bis hin zu Behandlungsempfehlungen, und wahren gleichzeitig allgemeine Sprachfähigkeiten.

Baichuan-M1 Neue Medizinische LLMs

KI-Modelle kämpfen mit der Genauigkeit der Weltgeschichte – Studie zeigt

Eine aktuelle Studie des Complexity Science Hub (CSH) in Österreich zeigt, dass selbst fortschrittliche KI-Modelle wie GPT-4, Llama und Gemini erhebliche Schwächen im Verständnis der Weltgeschichte aufweisen. Sie beantworteten nur 46 % der historischen Fragen korrekt, was Bedenken hinsichtlich ihrer Zuverlässigkeit in Bereichen aufwirft, die ein fundiertes Geschichtswissen erfordern. Die Studie enthüllte auch regionale Verzerrungen und die Tendenz zur Extrapolation anstelle von echtem Verständnis, was die Notwendigkeit einer kritischen Bewertung von KI-generierten Informationen unterstreicht.

KI-Modelle kämpfen mit der Genauigkeit der Weltgeschichte – Studie zeigt

Diffusion Model Inferenz Skalierung Neues Paradigma

Die Studie untersucht die Inferenz-Skalierung für Diffusionsmodelle und zeigt, dass eine Erhöhung der Rechenleistung während der Inferenz zu einer deutlichen Verbesserung der Qualität der generierten Samples führt. Ein Suchrahmen mit Verifizierern und Algorithmen wird vorgestellt, um die optimale Rauschverteilung zu finden. Die Ergebnisse zeigen, dass die Skalierung mit kleineren Modellen effizient sein kann und dass eine geringere Rechenleistung bei der Generierung die Qualität erheblich verbessern kann.

Diffusion Model Inferenz Skalierung Neues Paradigma