Thách thức DeepSeek
Việc ra mắt DeepSeek-R1 vào tháng Giêng đã khơi dậy sự quan tâm đáng kể trong cộng đồng công nghệ. Các mô hình ngôn ngữ Trung Quốc trước đây, như Ernie của Baidu và Doubao của ByteDance, đã cho thấy nhiều hứa hẹn trong các ứng dụng ngôn ngữ Trung Quốc, toán học và mã hóa, nhưng bị hạn chế bởi trình độ tiếng Anh yếu hơn và khả năng tiếp cận hạn chế. Tuy nhiên, DeepSeek-R1 đánh dấu một cột mốc quan trọng khi trở thành LLM tiếng Trung đầu tiên đạt được sự công nhận quốc tế.
Một trong những khía cạnh nổi bật nhất của DeepSeek-R1 là chi phí phát triển được báo cáo là thấp. Ngược lại với GPT-4o của OpenAI, được cho là tốn hơn 100 triệu đô la Mỹ để đào tạo, các nhà nghiên cứu DeepSeek tuyên bố chatbot của họ được phát triển với giá chỉ 5,6 triệu đô la Mỹ. Hơn nữa, thúc đẩy câu chuyện về hiệu quả, các kỹ sư DeepSeek đã đào tạo mô hình R1 bằng cách sử dụng các CPU tầm trung như Nvidia H800, thay vì các chip hàng đầu được sử dụng trong các mô hình như GPT-4o hoặc Claude của Anthropic. Bất chấp các hạn chế của Hoa Kỳ đối với việc xuất khẩu chip hiệu suất cao sang Trung Quốc, DeepSeek-R1 đã vượt trội hơn các bot hàng đầu khác bằng cách chỉ sử dụng 2.048 bộ xử lý trải rộng trên 256 máy chủ.
Hiệu quả đáng chú ý và chi phí phát triển thấp hơn phần lớn là do các kỹ thuật lập trình tinh vi, bao gồm PTX, một ngôn ngữ giống như hợp ngữ cho phép các nhà phát triển tinh chỉnh hiệu suất và tối đa hóa việc sử dụng phần cứng.
Ngay sau khi phát hành, ứng dụng DeepSeek-R1 đã tăng vọt lên vị trí hàng đầu trong bảng xếp hạng tải xuống miễn phí của Apple App Store Hoa Kỳ, vượt qua ChatGPT, TikTok và các nền tảng truyền thông xã hội của Meta. Nasdaq đã trải qua sự suy giảm và cổ phiếu của Nvidia đã giảm mạnh sau khi DeepSeek-R1 ra mắt.
Nghi ngờ tuyên bố của DeepSeek
Bất chấp sự nhiệt tình ban đầu, nhiều nhà quan sát đã đặt câu hỏi về tính hợp lệ của các tuyên bố của DeepSeek liên quan đến LLM của mình. Các nhà phân tích đã gợi ý rằng các số liệu được nêu có thể chỉ tính đến chi phí tính toán, đồng thời loại trừ hoặc đánh giá thấp chi phí cơ sở hạ tầng, phần cứng và nguồn nhân lực.
Wesley Kuo, người sáng lập và Giám đốc điều hành của Ubitus, một nhà cung cấp dịch vụ trò chơi đám mây và AI tạo sinh có trụ sở tại Đài Bắc, lặp lại những lo ngại này, nói rằng chi phí thực tế có khả năng cao hơn nhiều so với những gì đang được báo cáo. Ubitus, với sự hỗ trợ từ Nvidia, đã hỗ trợ Dự án TAME, một LLM bản địa hóa sử dụng các ký tự tiếng Trung phồn thể. Họ cung cấp CPU H100 và dữ liệu trò chơi. Ubitus cũng hợp tác với Foxlink và Shinfox Energy để thành lập Ubilink.AI, xây dựng trung tâm dịch vụ siêu máy tính AI chạy bằng năng lượng xanh lớn nhất của Đài Loan với sự hợp tác của Asus.
Kuo nhấn mạnh sự tham gia của công ty vào việc phát triển các ứng dụng và mô hình LLM cho các chính phủ, bao gồm cả chính phủ Nhật Bản, trên các lĩnh vực như trò chơi, du lịch và bán lẻ, làm nổi bật tiềm năng của AI để giải quyết tình trạng thiếu lao động và dân số già.
Lo ngại về tính toàn vẹn của dữ liệu
Kuo đồng quan điểm với OpenAI và Microsoft khi cho rằng DeepSeek có thể đã thu thập dữ liệu thông qua quá trình chưng cất mô hình. Quá trình này bao gồm đào tạo các mô hình ngôn ngữ nhỏ hơn để bắt chước đầu ra của các mô hình lớn hơn. OpenAI và Microsoft cáo buộc rằng DeepSeek đã sử dụng giao diện lập trình ứng dụng của OpenAI để tạo điều kiện cho sự phát triển của mình.
Kuo khẳng định rằng DeepSeek đã lấy dữ liệu từ OpenAI và có những hiểu lầm xung quanh các tuyên bố của công ty về hiệu quả. Ông chỉ ra rằng DeepSeek-R1, với 670 tỷ tham số, lớn hơn đáng kể so với Llama 3.1 405B của Meta AI. Các tham số là các giá trị số bên trong mà một mô hình học được trong quá trình đào tạo để đưa ra dự đoán. Kuo cũng gợi ý rằng các mô hình của DeepSeek có thể đã được chưng cất từ Llama 3.1.
Ngoài những phản bác này, những lo ngại cũng đã xuất hiện liên quan đến khả năng của DeepSeek-R1. Các chuyên gia cho rằng, giống như những người tiền nhiệm của nó, R1 vượt trội trong các chức năng chuyên biệt, dành riêng cho nhiệm vụ, nhưng lại tụt hậu so với các phiên bản của GPT-4o về hiệu suất đa năng.
Một hạn chế lớn của các mô hình DeepSeek là hạn chế về quyền truy cập miễn phí vào thông tin. Người dùng phát hiện ra rằng các câu hỏi về các chủ đề chính trị nhạy cảm đã gặp phải các phản hồi lảng tránh. Về các chủ đề như tình trạng của dân tộc thiểu số Duy Ngô Nhĩ ở Tân Cương và Đài Loan, các phản hồi của DeepSeek phản ánh quan điểm chính thức của Đảng Cộng sản Trung Quốc. Nghiên cứu cho thấy một phần đáng kể đầu ra của DeepSeek bị kiểm duyệt để ngăn chặn thông tin liên quan đến dân chủ, nhân quyền và các yêu sách chủ quyền tranh chấp của Trung Quốc.
Giải pháp thay thế của Đài Loan: TAIDE và hơn thế nữa
Đáp lại, LLM do Đài Loan phát triển, chẳng hạn như TAME, đã nổi lên như một giải pháp thay thế cho DeepSeek trong Sinosphere. Công cụ đối thoại AI đáng tin cậy (TAIDE), được Viện Nghiên cứu Ứng dụng Quốc gia ra mắt vào tháng 6 năm 2023, nhằm mục đích phát triển một mô hình phù hợp với các chuẩn mực xã hội, văn hóa và ngôn ngữ của Đài Loan.
Mặc dù công việc trên TAIDE dường như đã bị đình trệ, nhưng nó đã đóng vai trò là một chuẩn mực quan trọng cho Dự án TAME. TAME, được phát triển bởi Phòng thí nghiệm Trí tuệ và Hiểu biết Máy móc (MiuLab) tại Đại học Quốc gia Đài Loan, với nguồn tài trợ từ nhiều tổ chức khác nhau, đã được đào tạo trên 500 tỷ mã thông báo. Nó vượt trội hơn các đối thủ cạnh tranh, bao gồm GPT-4o, trên 39 đánh giá, đạt điểm cao hơn trong các kỳ thi tuyển sinh đại học, luật sư và y học cổ truyền Trung Quốc.
Một trong những mục tiêu của TAME là thúc đẩy văn hóa địa phương. Mở khóa khả năng ngôn ngữ địa phương là một bước quan trọng. Kuo đề cập đến việc phát triển một LLM giọng nói Đài Loan dựa trên Whisper, đã đạt được kết quả tích cực trong việc hiểu tiếng Đài Loan bằng miệng. Các nỗ lực đang được tiến hành để phát triển nhận dạng ngôn ngữ Hakka.
Những nỗ lực này đã được các tổ chức ở các khu vực nơi các ngôn ngữ này phổ biến đón nhận. Cũng có những nỗ lực để đào tạo mô hình trong nhận dạng ngôn ngữ bản địa, nhưng dữ liệu hạn chế vẫn là một trở ngại. Đào tạo AI để học một ngôn ngữ mới đòi hỏi một lượng lớn bản ghi âm giọng nói kết hợp với văn bản.
Truy cập dữ liệu lịch sử trong kho lưu trữ của chính phủ mang đến một cơ hội khác. Tuy nhiên, một số dữ liệu được bảo vệ bởi bản quyền. Sự xuất hiện của trí tuệ nhân tạo tổng hợp mang đến tiềm năng hỗ trợ hồi sinh các ngôn ngữ có nguy cơ tuyệt chủng và đã tuyệt chủng.
Theo đuổi chủ quyền AI
Sự giao thoa giữa ngôn ngữ và văn hóa nhấn mạnh tầm quan trọng của chủ quyền AI như một phương tiện củng cố bản sắc Đài Loan, truyền đạt câu chuyện của Đài Loan và bảo vệ môi trường thông tin của mình.
Julian Chu, một nhà tư vấn ngành và giám đốc tại Viện Tư vấn & Tình báo Thị trường (MIC), nhấn mạnh tiềm năng thiên vị trong các mô hình LLM và dữ liệu đào tạo. Ông lưu ý rằng ngay cả khi sử dụng các ký tự truyền thống, đầu ra của LLM có thể phản ánh phong cách của Cộng hòa Nhân dân Trung Hoa và không nắm bắt được văn hóa của Đài Loan. Mục tiêu là để các công ty Đài Loan sử dụng ngôn ngữ hoặc dữ liệu Đài Loan để đào tạo LLM và xây dựng chủ quyền AI.
Chu đề cập đến Mô hình Nền tảng Formosa (FFM-Llama2) như một LLM Đài Loan đầy hứa hẹn khác. Được Taiwan Web Service phát hành vào tháng 9 năm 2023, nó nhằm mục đích dân chủ hóa AI. Foxconn cũng đã ra mắt LLM của mình, FoxBrain, vào tháng Ba. Tuy nhiên, một số nhà bình luận vẫn hoài nghi về các liên doanh của các tập đoàn lớn vào LLM.
Lin Yen-ting, một thành viên của nhóm MiuLab đã phát triển TAME, nhấn mạnh sự cần thiết phải giải quyết khoảng cách trong môi trường thông tin liên quan đến Đài Loan. Ông lưu ý rằng DeepSeek-R1 và các LLM Trung Quốc khác trình bày một cái nhìn méo mó về Đài Loan. Các mô hình do Hoa Kỳ phát triển đôi khi cũng có thể xuyên tạc Đài Loan. Các mô hình nguồn mở có thể không ưu tiên Đài Loan và dữ liệu đào tạo bị chi phối bởi Trung Quốc.
Do đó, điều quan trọng là chọn lọc kết hợp nội dung Đài Loan và đào tạo lại nó vào mô hình. Cách tiếp cận chủ động này đảm bảo rằng cảnh quan văn hóa và ngôn ngữ độc đáo của Đài Loan được thể hiện chính xác trong lĩnh vực kỹ thuật số, thúc đẩy ý thức về bản sắc dân tộc và bảo tồn di sản riêng biệt của nó trước sự phát triển AI toàn cầu. Sự cống hiến này cho việc bảo tồn bản sắc Đài Loan đảm bảo rằng văn hóa và các giá trị độc đáo của quốc đảo không bị lu mờ bởi các câu chuyện thống trị.
Những thách thức vốn có trong nỗ lực này là rất lớn. Xây dựng một mô hình AI thực sự đại diện đòi hỏi một khoản đầu tư đáng kể về nguồn lực, bao gồm quyền truy cập vào các bộ dữ liệu lớn về nội dung bản địa hóa và chuyên môn về xử lý ngôn ngữ tự nhiên. Hơn nữa, nhu cầu liên tục để chống lại thông tin sai lệch và thông tin sai lệch đòi hỏi một quá trình liên tục tinh chỉnh và thích ứng.
Bất chấp những thách thức này, cam kết của Đài Loan đối với chủ quyền AI vẫn kiên định. Việc phát triển TAME và các LLM bản địa hóa khác thể hiện một bước quan trọng hướng tới việc đảm bảo rằng tương lai của trí tuệ nhân tạo phản ánh bản sắc văn hóa, các giá trị dân chủ và cam kết vững chắc trong việc bảo tồn vị trí riêng biệt của hòn đảo trên thế giới. Bằng cách ưu tiên chủ quyền AI, Đài Loan không chỉ bảo vệ di sản văn hóa của mình mà còn định vị mình là một người chơi quan trọng trong bối cảnh AI toàn cầu, chứng minh rằng tiến bộ công nghệ có thể phù hợp với việc bảo tồn bản sắc văn hóa và các nguyên tắc dân chủ.
Tiếp tục hành trình
Hành trình hướng tới chủ quyền AI hoàn toàn vẫn đang tiếp diễn. Nghiên cứu, phát triển và hợp tác hơn nữa là rất quan trọng để vượt qua những thách thức và đảm bảo thành công lâu dài của những sáng kiến này. Bằng cách tiếp tục ưu tiên chủ quyền AI, Đài Loan có thể tạo ra một cảnh quan kỹ thuật số thực sự phản ánh bản sắc văn hóa và các giá trị dân chủ độc đáo của mình, làm gương cho các quốc gia khác đang nỗ lực duy trì vị trí riêng biệt của họ trong một thế giới ngày càng kết nối.