Bối cảnh của trí tuệ nhân tạo không ngừng thay đổi, được đánh dấu bằng những cột mốc từng là chuyện khoa học viễn tưởng. Trong số những tiêu chuẩn bền bỉ nhất có bài kiểm tra Turing, được hình thành hơn bảy mươi năm trước như một thước đo khả năng của máy móc trong việc bắt chước cuộc trò chuyện của con người một cách thuyết phục. Trong nhiều thập kỷ, nó vẫn là một thách thức ghê gớm, có lẽ mang tính biểu tượng. Tuy nhiên, những phát triển gần đây cho thấy ngưỡng này có thể đã bị vượt qua một cách dứt khoát. Một nghiên cứu từ University of California at San Diego chỉ ra rằng mô hình ngôn ngữ tiên tiến của OpenAI, GPT-4.5, không chỉ vượt qua bài kiểm tra mà còn làm được điều đó với thành công đáng kinh ngạc, thường tỏ ra thuyết phục hơn trong việc đóng giả con người so với con người thật. Kết quả này đẩy cuộc trò chuyện về khả năng của AI vào lãnh thổ mới, đòi hỏi một cái nhìn sâu hơn về chính bài kiểm tra, bản chất của trí tuệ máy móc và những hàm ý của việc tạo ra các thực thể có thể phản chiếu hành vi ngôn ngữ của chúng ta một cách hiệu quả như vậy.
Giải mã sự lừa dối kỹ thuật số: Bên trong thí nghiệm
Nỗ lực nghiên cứu, có tiêu đề phù hợp là ‘Large Language Models Pass the Turing Test’ và hiện đang được bình duyệt, đã sử dụng một phương pháp được thiết kế để thăm dò khả năng đàm thoại của AI trong một so sánh trực tiếp với con người. Bối cảnh là một nền tảng trực tuyến nơi các tương tác hoàn toàn qua văn bản, loại bỏ các tín hiệu thị giác và thính giác có thể tiết lộ một người tham gia không phải là con người. Gần ba trăm sinh viên đại học đã được tuyển dụng cho màn giả mạo kỹ thuật số này. Mỗi người tham gia được chỉ định ngẫu nhiên một trong ba vai trò: giám khảo sáng suốt, một ‘nhân chứng’ con người, hoặc, ban đầu giám khảo không biết, một ‘nhân chứng’ AI.
Nhiệm vụ cốt lõi là một trò chơi thuyết phục. Cả nhân chứng con người và nhân chứng AI, hoạt động từ các phòng kỹ thuật số riêng biệt, tham gia vào cuộc trò chuyện dựa trên văn bản với giám khảo. Mục tiêu của họ là duy nhất: thuyết phục giám khảo về danh tính con người của họ. Giám khảo, sau một thời gian tương tác, phải đối mặt với quyết định quan trọng - xác định người đối thoại nào là con người và người nào là máy móc.
Đây không chỉ đơn thuần là một bài kiểm tra một AI so với tiêu chuẩn con người. Các nhà nghiên cứu đã đưa một số chương trình AI khác nhau vào thử thách này, cung cấp một góc nhìn so sánh về tình trạng của AI đàm thoại:
- GPT-4.5 (với gợi ý về nhân cách): Mô hình này, khi được hướng dẫn cụ thể để áp dụng một nhân cách giống con người, đã đạt được một kỳ tích đáng nể. Trong 73% các cuộc trao đổi mà nó hoạt động dưới điều kiện này, các giám khảo đã xác định nhầm nó là người tham gia con người. Con số này không chỉ cao về mặt tuyệt đối; nó vượt qua tỷ lệ thành công của các nhân chứng con người thực sự đang cố gắng chứng minh tính người của chính họ trong cùng một thiết lập thử nghiệm.
- LLaMa 3.1 405b của Meta (với gợi ý về nhân cách): Một mô hình ngôn ngữ lớn đương đại mạnh mẽ khác, LLaMa 3.1, cũng thể hiện khả năng thuyết phục đáng kể khi được gợi ý tương tự, đánh lừa các giám khảo 56% thời gian. Mặc dù không đạt đến đỉnh cao của GPT-4.5 trong thử nghiệm cụ thể này, hiệu suất của nó vẫn làm mờ đáng kể ranh giới giữa giao tiếp của con người và máy móc.
- GPT-4o (mô hình trước đó của OpenAI): Điều thú vị là, mô hình hơi sớm hơn của OpenAI, GPT-4o, hoạt động khác biệt rõ rệt khi được thử nghiệm mà không có gợi ý về nhân cách cụ thể. Nó chỉ được xác định là con người 21% thời gian, cho thấy vai trò quan trọng của các hướng dẫn phù hợp hoặc có lẽ là sự khác biệt vốn có trong phong cách đàm thoại của các mô hình khi không được hướng dẫn rõ ràng.
- ELIZA: Như một tiêu chuẩn lịch sử, các nhà nghiên cứu đã bao gồm ELIZA, một chatbot tiên phong được phát triển vào những năm 1960, nổi tiếng với các kỹ thuật khớp mẫu đơn giản mô phỏng một nhà tâm lý trị liệu Rogerian. Không có gì đáng ngạc nhiên, những nỗ lực bắt chước con người của ELIZA kém thuyết phục hơn nhiều đối với những người tham gia hiện đại, chỉ được đánh giá là con người 23% thời gian. Điều này làm nổi bật sự tiến bộ vượt bậc đã đạt được trong xử lý ngôn ngữ tự nhiên trong những thập kỷ qua.
Cameron Jones, một nhà nghiên cứu tham gia vào nghiên cứu từ Phòng thí nghiệm Ngôn ngữ và Nhận thức của UC San Diego, đã tóm tắt phát hiện nổi bật một cách ngắn gọn. Ông lưu ý rằng các giám khảo con người gặp khó khăn đáng kể, hoạt động không tốt hơn việc đoán ngẫu nhiên khi cố gắng phân biệt giữa con người và các phiên bản được gợi ý của GPT-4.5 hoặc LLaMa. Cụ thể hơn, ông nhấn mạnh kết quả phản trực giác: ‘Và 4.5 thậm chí còn được đánh giá là con người thường xuyên hơn đáng kể so với con người thực tế!’ Điều này cho thấy rằng AI, trong những điều kiện cụ thể, có thể giỏi hơn trong việc thể hiện tính người bằng văn bản so với chính con người, có lẽ bằng cách tuân thủ chặt chẽ hơn các quy tắc đàm thoại hoặc tránh những dấu hiệu đặc trưng mà người thật thể hiện. Hàm ý là sâu sắc - AI không chỉ vượt qua; nó đang thiết lập một tiêu chuẩn mới cho tính người được cảm nhận trong bối cảnh cụ thể này.
Suy nghĩ lại về tiêu chuẩn: Bài kiểm tra Turing còn là tiêu chuẩn vàng?
Tin tức rằng một cỗ máy có khả năng đã ‘vượt qua’ bài kiểm tra Turing, đặc biệt là bằng cách vượt trội hơn con người, chắc chắn làm dấy lên tranh luận. Điều này có báo hiệu buổi bình minh của trí tuệ máy móc thực sự, loại mà chính Alan Turing đã suy đoán? Hay nó chỉ đơn thuần tiết lộ những hạn chế của bài kiểm tra mà ông đề xuất trong một kỷ nguyên khác biệt hoàn toàn so với chúng ta? Một số tiếng nói nổi bật trong cộng đồng AI kêu gọi thận trọng, cho rằng việc đạt điểm cao trong kỳ thi đặc biệt này không đồng nghĩa với việc đạt được trí tuệ nhân tạo tổng quát (AGI) - khả năng giả định của AI để hiểu, học và áp dụng kiến thức trên một loạt các nhiệm vụ ở cấp độ con người.
Melanie Mitchell, một học giả AI tại Santa Fe Institute, đã trình bày sự hoài nghi này một cách mạnh mẽ trên tạp chí Science. Bà lập luận rằng bài kiểm tra Turing, đặc biệt là ở dạng đàm thoại cổ điển, có thể ít là thước đo khả năng nhận thức thực sự hơn là sự phản ánh các xu hướng và giả định của chính con người chúng ta. Chúng ta là những sinh vật xã hội, có khuynh hướng diễn giải ngôn ngữ trôi chảy như một dấu hiệu của suy nghĩ và ý định tiềm ẩn. Các mô hình ngôn ngữ lớn như GPT-4.5 được đào tạo trên các bộ dữ liệu khổng lồ về văn bản của con người, cho phép chúng trở nên cực kỳ thành thạo trong việc xác định các mẫu và tạo ra các phản hồi ngôn ngữ có khả năng xảy ra về mặt thống kê. Chúng xuất sắc về cú pháp, bắt chước dòng chảy đàm thoại và thậm chí có thể sao chép các sắc thái phong cách. Tuy nhiên, Mitchell cho rằng, ‘khả năng nói trôi chảy bằng ngôn ngữ tự nhiên, giống như chơi cờ vua, không phải là bằng chứng kết luận về trí tuệ tổng quát’. Việc thành thạo một kỹ năng cụ thể, ngay cả một kỹ năng phức tạp như ngôn ngữ, không nhất thiết ngụ ý sự hiểu biết rộng rãi, ý thức, hoặc khả năng suy luận mới lạ vượt ra ngoài các mẫu đã học trong quá trình đào tạo.
Mitchell còn chỉ ra sự diễn giải đang phát triển, và có lẽ là sự pha loãng, của chính khái niệm bài kiểm tra Turing. Bà tham chiếu một thông báo năm 2024 từ Stanford University liên quan đến nghiên cứu về mô hình GPT-4 trước đó. Nhóm Stanford đã ca ngợi phát hiện của họ là một trong những ‘lần đầu tiên một nguồn trí tuệ nhân tạo vượt qua bài kiểm tra Turing nghiêm ngặt’. Tuy nhiên, như Mitchell quan sát, phương pháp của họ liên quan đến việc so sánh các mẫu thống kê trong phản hồi của GPT-4 trên các khảo sát tâm lý và trò chơi tương tác với dữ liệu của con người. Mặc dù là một hình thức phân tích so sánh hợp lệ, bà khô khan lưu ý rằng công thức này ‘có thể không được Turing nhận ra’, người mà đề xuất ban đầu tập trung vào cuộc trò chuyện không thể phân biệt được.
Điều này làm nổi bật một điểm quan trọng: bài kiểm tra Turing không phải là một thực thể nguyên khối. Việc giải thích và áp dụng nó đã thay đổi. Thí nghiệm của UC San Diego dường như gần gũi hơn với trọng tâm đàm thoại ban đầu của Turing, nhưng ngay cả ở đây, các câu hỏi vẫn nảy sinh. Liệu bài kiểm tra có thực sự đo lường trí thông minh, hay nó đang đo lường khả năng của AI trong việc thực hiện một nhiệm vụ cụ thể - áp dụng nhân cách và bắt chước đàm thoại - một cách xuất sắc? Thực tế là GPT-4.5 hoạt động tốt hơn đáng kể khi được cung cấp ‘gợi ý về nhân cách’ cho thấy thành công của nó có thể là về diễn xuất khéo léo dựa trên hướng dẫn hơn là một phẩm chất giống con người vốn có, có thể khái quát hóa.
Các nhà phê bình cho rằng các LLM hoạt động về cơ bản khác với tâm trí con người. Chúng không ‘hiểu’ các khái niệm theo cách con người hiểu; chúng thao tác các ký hiệu dựa trên các mối quan hệ thống kê đã học. Chúng thiếu kinh nghiệm sống, hiện thân, ý thức và ý định thực sự. Mặc dù chúng có thể tạo ra văn bản về cảm xúc hoặc trải nghiệm, chúng không cảm thấy chúng. Do đó, việc vượt qua một bài kiểm tra chỉ dựa trên đầu ra ngôn ngữ có thể là một kỳ công ấn tượng về kỹ thuật và khoa học dữ liệu, nhưng nó không nhất thiết thu hẹp khoảng cách đến trí thông minh có tri giác thực sự. Bài kiểm tra có thể tiết lộ nhiều hơn về sức mạnh của các bộ dữ liệu khổng lồ và các thuật toán tinh vi để sao chép hành vi bề ngoài của con người hơn là về trạng thái bên trong của chính máy móc. Nó buộc chúng ta phải đối mặt với việc liệu sự trôi chảy về ngôn ngữ có phải là một đại diện đủ cho bản chất sâu sắc, đa diện của trí thông minh con người hay không.
Điều hướng một thế giới nơi ranh giới mờ nhòa
Bất kể hiệu suất của GPT-4.5 cấu thành trí thông minh thực sự hay chỉ là sự bắt chước tinh vi, những hàm ý thực tế là không thể phủ nhận và sâu rộng. Chúng ta đang bước vào một kỷ nguyên mà việc phân biệt giữa văn bản do con người và máy móc tạo ra trực tuyến ngày càng trở nên khó khăn, nếu không muốn nói là không thể trong một số bối cảnh nhất định. Điều này có những hậu quả sâu sắc đối với sự tin cậy, giao tiếp và chính kết cấu của xã hội kỹ thuật số của chúng ta.
Khả năng của AI trong việc mạo danh con người một cách thuyết phục làm dấy lên những lo ngại tức thì về thông tin sai lệch và thao túng. Các tác nhân độc hại có thể triển khai công nghệ như vậy cho các vụ lừa đảo tinh vi, lan truyền tuyên truyền phù hợp với từng cá nhân, hoặc tạo ra đội quân hồ sơ mạng xã hội giả để gây ảnh hưởng đến dư luận hoặc phá vỡ các cộng đồng trực tuyến. Nếu ngay cả những người dùng sáng suốt trong một thí nghiệm có kiểm soát cũng gặp khó khăn trong việc phân biệt, thì tiềm năng lừa dối trên internet mở là rất lớn. Cuộc chạy đua vũ trang giữa việc mạo danh do AI điều khiển và các công cụ phát hiện AI có khả năng sẽ tăng cường, nhưng lợi thế thường có thể thuộc về những kẻ mạo danh, đặc biệt là khi các mô hình trở nên tinh vi hơn.
Ngoài các mục đích sử dụng độc hại, ranh giới mờ nhạt còn ảnh hưởng đến các tương tác hàng ngày. Dịch vụ khách hàng sẽ thay đổi như thế nào khi chatbot trở nên không thể phân biệt được với nhân viên con người? Liệu hồ sơ hẹn hò trực tuyến hoặc các tương tác xã hội có yêu cầu các hình thức xác minh mới không? Tác động tâm lý đối với con người cũng rất đáng kể. Việc biết rằng thực thể bạn đang trò chuyện trực tuyến có thể là AI có thể nuôi dưỡng sự ngờ vực và xa lánh. Ngược lại, việc hình thành các mối gắn kết tình cảm với những người bạn đồng hành AI rất thuyết phục, ngay cả khi biết bản chất của chúng, cũng đặt ra những câu hỏi đạo đức và xã hội riêng.
Thành công của các mô hình như GPT-4.5 cũng thách thức hệ thống giáo dục và các ngành công nghiệp sáng tạo của chúng ta. Làm thế nào chúng ta đánh giá bài làm của sinh viên khi AI có thể tạo ra các bài luận hợp lý? Giá trị của tác giả con người là gì khi AI có thể sản xuất các bài báo, kịch bản, hoặc thậm chí thơ ca gây được tiếng vang với độc giả? Mặc dù AI có thể là một công cụ mạnh mẽ để tăng cường và hỗ trợ, khả năng sao chép đầu ra của con người đòi hỏi phải đánh giá lại tính độc đáo, sáng tạo và sở hữu trí tuệ.
Hơn nữa, nghiên cứu của UC San Diego nhấn mạnh những hạn chế của việc chỉ dựa vào các bài kiểm tra đàm thoại để đánh giá tiến bộ của AI. Nếu mục tiêu là xây dựng các hệ thống thực sự thông minh (AGI), thay vì chỉ là những kẻ bắt chước chuyên nghiệp, thì có lẽ trọng tâm cần chuyển sang các tiêu chuẩn đánh giá khả năng suy luận, giải quyết vấn đề trên các lĩnh vực đa dạng, khả năng thích ứng với các tình huống mới lạ, và có lẽ ngay cả các khía cạnh của ý thức hoặc tự nhận thức - những khái niệm nổi tiếng khó xác định, chứ đừng nói đến đo lường. Bài kiểm tra Turing, được hình thành trong một thời đại công nghệ khác, có thể đã hoàn thành mục đích của nó như một mục tiêu đầy cảm hứng, nhưng sự phức tạp của AI hiện đại có thể đòi hỏi các khung đánh giá đa sắc thái và đa diện hơn.
Thành tựu của GPT-4.5 không phải là điểm kết thúc mà là chất xúc tác cho sự phản ánh phê phán. Nó chứng tỏ sức mạnh phi thường của các kỹ thuật AI hiện tại trong việc làm chủ ngôn ngữ của con người, một kỳ công với tiềm năng to lớn cho cả lợi ích và tác hại. Nó buộc chúng ta phải vật lộn với những câu hỏi cơ bản về trí thông minh, danh tính và tương lai của tương tác giữa người và máy trong một thế giới mà khả năng ‘nói chuyện’ một cách thuyết phục không còn là lãnh thổ độc quyền của con người. Trò chơi bắt chước đã đạt đến một cấp độ mới, và việc hiểu các quy tắc, người chơi và những gì đang bị đe dọa chưa bao giờ quan trọng hơn thế.