Tag: OpenAI

WaveForms AI: Khởi Nghiệp Mô Hình Âm Thanh, Gọi Vốn 40 Triệu USD

WaveForms AI, startup do cựu trưởng nhóm giọng nói nâng cao của OpenAI sáng lập, đã gọi vốn thành công 40 triệu USD để phát triển mô hình ngôn ngữ lớn (LLM) âm thanh, hướng đến trí tuệ nhân tạo (AI) có khả năng thấu cảm và hiểu cảm xúc.

WaveForms AI: Khởi Nghiệp Mô Hình Âm Thanh, Gọi Vốn 40 Triệu USD

OpenAI ra mắt siêu AI Agent cấp tiến sĩ: Tác động đến thị trường lao động

OpenAI chuẩn bị giới thiệu siêu AI Agent cấp tiến sĩ, gây lo ngại về việc thay thế kỹ sư phần mềm. Các công ty như Meta và Salesforce cũng đang chuyển hướng sang sử dụng AI, dẫn đến cắt giảm nhân sự và thay đổi chiến lược tuyển dụng. Siêu AI Agent có khả năng tự chủ giải quyết các vấn đề phức tạp, sử dụng học máy, xử lý ngôn ngữ tự nhiên và mô hình hóa hệ thống phức tạp.

OpenAI ra mắt siêu AI Agent cấp tiến sĩ: Tác động đến thị trường lao động

Phát triển AI Agent thời gian thực trong 20 phút với mã nguồn mở của OpenAI

Bài viết này làm nổi bật bước tiến đáng kể của OpenAI trong việc phát triển AI Agent thời gian thực chỉ trong 20 phút. Công nghệ này mang lại hiệu quả cao, tương tác dữ liệu nhanh chóng, và khả năng tùy biến linh hoạt, mở ra tiềm năng lớn cho các ứng dụng AI.

Phát triển AI Agent thời gian thực trong 20 phút với mã nguồn mở của OpenAI

OpenAI o3-Mini Sắp Ra Mắt Nhu Cầu Năng Lượng AGI

Thế giới công nghệ đang xôn xao trước thông tin OpenAI sắp ra mắt o3-mini, phiên bản rút gọn của mô hình lớn hơn, có thể truy cập qua API và giao diện web. Sam Altman cho biết o3-mini sẽ có ba phiên bản: cao, trung bình và thấp. Mặc dù không vượt trội về hiệu suất so với o1-pro, o3-mini hứa hẹn tốc độ nhanh hơn, đặc biệt trong các tác vụ lập trình. Mô hình o3 đầy đủ sẽ mạnh mẽ hơn o1-pro và o3-pro, dự kiến dành cho người dùng trả phí. Về AGI, Altman khẳng định cần 872 megawatt điện để đạt được. Hiện tại, mức tiêu thụ điện của AI đang tiến gần đến con số đó, gợi ý rằng OpenAI có thể đã phát triển các mô hình thế hệ tiếp theo, thậm chí có thể đạt được AGI.

OpenAI o3-Mini Sắp Ra Mắt Nhu Cầu Năng Lượng AGI

Nghiên cứu Stanford và UC Berkeley về Hiệu suất ChatGPT: Suy giảm đáng kể

Một nghiên cứu gần đây của Đại học Stanford và UC Berkeley đã chỉ ra sự biến động đáng kể trong hiệu suất của GPT-3.5 và GPT-4 trong vòng ba tháng, đặc biệt là trong các nhiệm vụ như giải toán, tạo mã và tuân thủ hướng dẫn. Nghiên cứu này nhấn mạnh sự cần thiết phải theo dõi và hiểu rõ hơn về sự thay đổi hành vi của các mô hình AI.

Nghiên cứu Stanford và UC Berkeley về Hiệu suất ChatGPT: Suy giảm đáng kể