Tag: AIGC

Reduzierte KV-Cache-Nutzung durch neuen Aufmerksamkeitsmechanismus

Ein neuer Aufmerksamkeitsmechanismus namens Multi-Matrix Factorization Attention (MFA) und seine Variante MFA-Key-Reuse (MFA-KR) reduzieren den KV-Cache-Verbrauch in großen Sprachmodellen (LLMs) erheblich und verbessern gleichzeitig die Leistung. MFA übertrifft MLA und erreicht die Leistung von MHA mit bis zu 93,7% weniger KV-Cache-Nutzung. MFA ist einfach, reproduzierbar und mit verschiedenen Pos-Embedding-Methoden kompatibel. Die Forschung analysierte die Kapazität von Aufmerksamkeitsmechanismen und entwickelte neue Analysemethoden. MFA maximiert die Modellkapazität durch mehr Aufmerksamkeitsköpfe und eine Low-Rank-Zerlegung, während der Speicherverbrauch durch einen einzelnen Key-Value-Head minimal gehalten wird. Experimente zeigen, dass MFA mit MHA skaliert und große Speichereinsparungen erzielt.

Reduzierte KV-Cache-Nutzung durch neuen Aufmerksamkeitsmechanismus

Evolutionaryscale ESM3: Revolutionäre Proteinforschung mit freier API

Evolutionaryscale's ESM3, ein bahnbrechendes biologisches Modell mit 98 Milliarden Parametern, revolutioniert die Proteinforschung. Das Modell transformiert Proteinstrukturen in ein diskretes Alphabet und kann gleichzeitig Sequenz, Struktur und Funktion verarbeiten. Die freie API und die Unterstützung von Yann LeCun unterstreichen die Bedeutung dieses Fortschritts.

Evolutionaryscale ESM3: Revolutionäre Proteinforschung mit freier API

US-Minister: Chinesische KI DeepSeek schuld an Marktrutsch

US-Finanzminister Scott Bessent macht die chinesische KI DeepSeek für den jüngsten Marktabschwung verantwortlich, nicht die Zölle von Präsident Trump. Er betont den Einfluss des globalen KI-Wettbewerbs auf Investoren und Tech-Giganten wie Nvidia, während andere Analysten Handelsängste als Hauptursache sehen. Der Artikel untersucht beide Perspektiven und die komplexe Dynamik der Marktstimmung.

US-Minister: Chinesische KI DeepSeek schuld an Marktrutsch