Tag: ByteDance

AI надпревара: ByteDance срещу Baidu

Конкуренцията между Baidu и ByteDance се засилва в AI областта. Делото за данни от енциклопедията е само началото на битката за доминация в AI.

AI надпревара: ByteDance срещу Baidu

ByteDance и AI: Регулации и иновации

ByteDance налага Trae IDE, докато OpenAI навлиза в "ambient computing". Huadian New Energy и Insta360 правят IPO. САЩ отлагат митата. NetEase акциите растат заради Gen Z.

ByteDance и AI: Регулации и иновации

Doubao: Видео разговори и AI помощ

ByteDance разширява Doubao с видео разговори в реално време, превръщайки го във визуален AI помощник. Акцент върху приложения, AI развитие в Китай и етични въпроси.

Doubao: Видео разговори и AI помощ

Doubao AI: Видеочат и AI Революция

Doubao AI на ByteDance революционизира преживяването със видеочат в реално време, утвърждавайки се като водещ AI асистент, конкурирайки ChatGPT.

Doubao AI: Видеочат и AI Революция

Doubao AI на ByteDance: Видео революция

Doubao AI чатботът на ByteDance предлага иновативни видео функции, преобразявайки потребителското изживяване с реално време и мултимодални възможности, като предизвиква конкуренцията на пазара на GenAI.

Doubao AI на ByteDance: Видео революция

Ръст на приходите на ByteDance благодарение на TikTok

ByteDance отбелязва значителен ръст на приходите си през 2024 г., воден от глобалния успех на TikTok, въпреки несигурността в САЩ. Компанията се фокусира върху разширяване на присъствието си и инвестиции в AI.

Ръст на приходите на ByteDance благодарение на TikTok

Динамичен кръг за AI напредък

Новаторски подход на Китай към AI, използващ алгоритмични пробиви и инициативата 'AI Plus', за да стимулира приемането в различни индустрии, като същевременно се справя с предизвикателствата в изчислителната мощ и развитието на таланти. COMET и DeepSeek са примери за напредък.

Динамичен кръг за AI напредък

COMET на ByteDance: По-ефективно MoE

Екипът Doubao AI на ByteDance представи COMET, рамка с отворен код за оптимизиране на Mixture of Experts (MoE), повишавайки ефективността на обучението на големи езикови модели (LLM) и намалявайки разходите. Технологията спестява милиони часове изчисления с GPU.

COMET на ByteDance: По-ефективно MoE