Intel ulepsza PyTorch o DeepSeek-R1
Intel rozszerza PyTorch o DeepSeek-R1, optymalizacje i wsparcie dla Phi-4. Zwiększa wydajność LLM na sprzęcie Intel, oferując lepszą integrację i dokumentację.
Intel rozszerza PyTorch o DeepSeek-R1, optymalizacje i wsparcie dla Phi-4. Zwiększa wydajność LLM na sprzęcie Intel, oferując lepszą integrację i dokumentację.
Microsoft rozszerzył możliwości SLM Phi Silica o funkcje multimodalne, integrując rozumienie obrazów. Umożliwia to nowe funkcje AI, takie jak Recall, zwiększając produktywność i dostępność.
Open Codex CLI to lokalna alternatywa dla OpenAI Codex. Umożliwia kodowanie z pomocą AI bezpośrednio na komputerze użytkownika, zapewniając większą kontrolę i prywatność.
Microsoft prezentuje 1-bitowy model AI, BitNet, działający wydajnie na CPU, nawet na Apple M2, bez GPU, rewolucjonizując dostępność AI.
Microsoft zaprezentował BitNet b1.58 2B4T, model AI 1-bit. Model o 2 miliardach parametrów działa na CPU. To krok w AI dla zasobów ograniczonych. BitNet na Hugging Face (MIT) zmieni krajobraz AI.
Microsoft prezentuje BitNet: model AI działający na CPU, jak Apple M2, bez GPU, dwa razy szybszy i lekki. Otwarty kod MIT wspiera innowacje w AI.
Microsoft wprowadza hiperwydajny model AI, BitNet b1.58 2B4T, działający na CPU, w tym Apple M2, otwierając AI dla szerszego grona urządzeń i zastosowań.
CWRU rozszerza możliwości AI dzięki nowym agentom, w tym modelom ogólnym i specjalistycznym. Ulepszenia te oferują studentom, wykładowcom i badaczom potężne zasoby AI.
Fujitsu i Headwaters zrewolucjonizowały raporty JAL dzięki AI, oszczędzając czas i zwiększając efektywność. Wykorzystano model Phi-4 Microsoftu offline do usprawnienia przekazywania informacji między załogami i personelem naziemnym, poprawiając obsługę pasażerów.
Fujitsu i Headwaters wprowadzają AI do JAL. Generuje raporty, oszczędza czas załogi i zwiększa bezpieczeństwo. Technologia działa offline i chroni dane.