Tencent đầu tư lớn vào trung tâm dữ liệu
Tencent Cloud đầu tư hơn 650 triệu USD vào các trung tâm dữ liệu ở Ả Rập Xê Út và Indonesia, đánh dấu bước mở rộng toàn cầu đầy tham vọng, thúc đẩy chuyển đổi kỹ thuật số.
Tencent Cloud đầu tư hơn 650 triệu USD vào các trung tâm dữ liệu ở Ả Rập Xê Út và Indonesia, đánh dấu bước mở rộng toàn cầu đầy tham vọng, thúc đẩy chuyển đổi kỹ thuật số.
Khám phá Acemagic F3A, PC mini dùng AMD Ryzen AI 9 HX 370, RAM 128GB. Chạy mượt các mô hình ngôn ngữ lớn, thiết kế thông minh, kết nối đa dạng.
Đột phá thuật toán và sáng kiến 'AI Plus' của Trung Quốc định hình lại bối cảnh AI toàn cầu, thúc đẩy ứng dụng trong nhiều ngành công nghiệp và giảm sự phụ thuộc vào công nghệ nước ngoài.
NVIDIA bắt tay cùng các 'ông lớn' viễn thông và viện nghiên cứu để tiên phong phát triển mạng không dây 6G tích hợp trí tuệ nhân tạo (AI). Mục tiêu là tạo ra mạng lưới hiệu suất cao, tối ưu hóa phổ tần và mang lại trải nghiệm kết nối vượt trội cho tương lai.
Video lan truyền về Yogi Adityanath và Kangana Ranaut là sản phẩm của AI, không phải thật. Dấu hiệu 'Minimax' và 'Hailuo AI' cho thấy video được tạo ra. Tìm kiếm ngược hình ảnh cho thấy nguồn gốc từ cuộc gặp năm 2021, không có cái ôm nào.
QwQ của Alibaba, một mô hình 'lý luận' 32 tỷ tham số, được tuyên bố vượt trội hơn DeepSeek R1 trong các bài kiểm tra toán học, mã hóa và gọi hàm.
AMD công bố doanh số ấn tượng của dòng card đồ họa Radeon RX 9070, vượt 200.000 chiếc trong đợt mở bán đầu. Hãng nhấn mạnh vào AI và hiệu năng cao, với kiến trúc RDNA 4 và CPU Ryzen 9 9000X3D. Tuy nhiên, giá bán lẻ cao hơn MSRP do các đối tác AIB tăng giá.
So sánh bất ngờ giữa AMD Ryzen AI Max+ 395 và Apple M4 Pro trong các tác vụ AI, cho thấy sức mạnh đáng gờm của cả hai chipset.
Baidu giới thiệu các mô hình AI mới, tuyên bố vượt trội hơn DeepSeek và OpenAI trong các bài kiểm tra benchmark. Ernie 4.5 và Ernie X1 đa phương thức thể hiện khả năng xử lý hình ảnh, âm thanh, video và lập luận ấn tượng.
ByteDance giới thiệu COMET, một framework nguồn mở giúp tối ưu hóa Mixture of Experts (MoE), tăng hiệu quả huấn luyện mô hình ngôn ngữ lớn (LLM) và giảm chi phí đáng kể. Công nghệ này đã giúp tiết kiệm hàng triệu giờ tính toán GPU.