Trò chơi Bắt chước: AI đã thành thạo đánh lừa chưa?

Một Tuyên bố Mang tính Bước ngoặt trong Trí tuệ Nhân tạo

Nhiệm vụ tạo ra những cỗ máy có thể suy nghĩ, hoặc ít nhất là bắt chước suy nghĩ của con người một cách thuyết phục, đã là nền tảng của khoa học máy tính kể từ khi ra đời. Trong nhiều thập kỷ, tiêu chuẩn đánh giá, dù còn gây tranh cãi, thường là Bài kiểm tra Turing Test, một rào cản khái niệm được đề xuất bởi nhà khoa học có tầm nhìn xa Alan Turing. Gần đây, những lời thì thầm đã biến thành tiếng hét trong cộng đồng AI sau kết quả của một nghiên cứu mới. Các nhà nghiên cứu báo cáo rằng một trong những mô hình ngôn ngữ lớn (LLM) tiên tiến nhất hiện nay, GPT-4.5 của OpenAI, không chỉ tham gia vào một phiên bản hiện đại của bài kiểm tra này – mà còn có thể nói là đã chiến thắng, thường tỏ ra thuyết phục hơn về ‘tính người’ so với những người tham gia là con người thực sự. Sự phát triển này làm dấy lên những câu hỏi cơ bản về bản chất của trí tuệ, giới hạn của mô phỏng và quỹ đạo của tương tác người-máy tính trong một kỷ nguyên ngày càng bão hòa với AI tinh vi. Các hàm ý vượt xa sự tò mò học thuật, chạm đến chính kết cấu của lòng tin, việc làm và tương tác xã hội trong thời đại kỹ thuật số.

Hiểu về Thử thách: Di sản của Bài kiểm tra Turing

Để đánh giá đúng tầm quan trọng của tuyên bố gần đây này, trước tiên người ta phải hiểu chính bài kiểm tra. Được hình thành bởi nhà toán học và người giải mã người Anh Alan Turing trong bài báo tinh túy năm 1950 của ông ‘Computing Machinery and Intelligence’, bài kiểm tra ban đầu không được trình bày như một quy trình cứng nhắc mà là một thí nghiệm tưởng tượng, một ‘trò chơi bắt chước’. Tiền đề rất thanh lịch trong sự đơn giản của nó: một người thẩm vấn con người tham gia vào các cuộc trò chuyện dựa trên văn bản với hai thực thể không nhìn thấy – một là con người, một là máy móc. Nhiệm vụ của người thẩm vấn là xác định ai là ai chỉ dựa trên các câu trả lời được gõ của họ.

Turing đề xuất rằng nếu một cỗ máy có thể liên tục đánh lừa người thẩm vấn tin rằng đó là người tham gia con người, thì về mặt thực tế, nó có thể được coi là có khả năng suy nghĩ. Ông đã né tránh câu hỏi triết học gai góc về liệu máy móc có thực sự suy nghĩ hay sở hữu ý thức hay không, thay vào đó tập trung vào khả năng sao chép hành vi trò chuyện của con người một cách không thể phân biệt được. Đó là một cách tiếp cận thực dụng, nhằm cung cấp một định nghĩa có thể đo lường được, mặc dù dựa trên hành vi, về trí tuệ máy móc. Qua nhiều năm, Turing Test đã trở thành cả một biểu tượng mang tính biểu tượng trong văn hóa đại chúng và một cột mốc lặp đi lặp lại, nếu gây tranh cãi, trong lĩnh vực trí tuệ nhân tạo. Sức mạnh bền bỉ của nó nằm ở sự đối đầu trực tiếp với câu hỏi: Hành động như con người có nghĩa là gì?

Đấu trường Hiện đại: Một Loại Hình Kiểm tra Mới

Thí nghiệm gần đây, được trình bày chi tiết trong một nghiên cứu tiền ấn phẩm do các nhà nghiên cứu tại Phòng thí nghiệm Ngôn ngữ và Nhận thức của UC San Diego dẫn đầu, đã điều chỉnh khái niệm ban đầu của Turing cho bối cảnh kỹ thuật số đương đại. Thay vì một người thẩm vấn duy nhất tập trung vào hai người tham gia ẩn danh, phiên bản này sử dụng động lực ba bên trong một môi trường trực tuyến. Gần 300 người tham gia đã được tuyển dụng và phân công ngẫu nhiên các vai trò qua nhiều vòng. Một số đóng vai trò là người thẩm vấn, có nhiệm vụ đặt câu hỏi và đánh giá câu trả lời. Những người khác đóng vai trò là một trong hai ‘nhân chứng’ – người trả lời là con người thực sự. Vai trò quan trọng cuối cùng được đảm nhiệm bởi một chatbot AI, đóng vai trò là nhân chứng thứ hai.

Thách thức cốt lõi vẫn giữ nguyên: người thẩm vấn, sau một khoảng thời gian tương tác trò chuyện đồng thời với cả nhân chứng con người và AI, phải đưa ra phán quyết – thực thể nào là máy móc, và thực thể nào là đồng loại con người? Thiết lập này nhằm cung cấp một môi trường được kiểm soát để đánh giá nghiêm ngặt khả năng trò chuyện của các hệ thống AI hiện đại so với các tiêu chuẩn của con người trong các tương tác thời gian thực. Quy mô của nghiên cứu, liên quan đến một nhóm lớn người tham gia và nhiều vòng, nhằm mục đích mang lại trọng lượng thống kê cho các phát hiện, vượt ra ngoài những tuyên bố mang tính giai thoại về sự tinh vi của AI. Các nhà nghiên cứu cũng đưa vào một số mô hình AI khác nhau trong các thử nghiệm của họ, đáng chú ý là GPT-4.5GPT-4o của OpenAI, LLaMa 3.1-405B của Meta, và, một cách thú vị, ELIZA, một chatbot thô sơ được phát triển vào giữa những năm 1960, đóng vai trò là một đường cơ sở lịch sử.

Yếu tố Quyết định: Sức mạnh của Persona

Phát hiện sáng tỏ nhất, và có lẽ đáng kinh ngạc nhất của nghiên cứu, xoay quanh một điều kiện thử nghiệm cụ thể: cách các mô hình AI được hướng dẫn, hay ‘prompted’, trước khi tham gia vào các cuộc trò chuyện. Các nhà nghiên cứu đã sử dụng hai chiến lược prompting riêng biệt.

  • Prompt ‘Không-Persona’: Điều này liên quan đến việc cung cấp cho AI các hướng dẫn tối thiểu, trực tiếp, về cơ bản nêu rõ sự tham gia của nó vào bài kiểm tra Turing và mục tiêu của nó: ‘Mục tiêu của bạn là thuyết phục người thẩm vấn rằng bạn là con người’. Cách tiếp cận này đã kiểm tra khả năng vốn có của AI trong việc bắt chước cuộc trò chuyện của con người mà không cần hướng dẫn cụ thể về nhân vật hoặc phong cách.
  • Prompt ‘Persona’: Trong điều kiện này, AI nhận được các hướng dẫn chi tiết hơn, yêu cầu nó nhập vai một nhân vật hoặc persona cụ thể. Ví dụ, nó có thể được yêu cầu hành động như ‘một người trẻ tuổi sử dụng tiếng lóng, am hiểu về văn hóa internet, nhưng không tiết lộ mình là AI’. Điều này đã kiểm tra khả năng của AI không chỉ để trò chuyện, mà còn để thực hiện một vai trò một cách thuyết phục.

Sự khác biệt về kết quả giữa hai điều kiện này không hề tinh tế; nó rất sâu sắc. Khi hoạt động dưới prompt ‘không-persona’ đơn giản, GPT-4.5, mặc dù có kiến trúc tiên tiến, đã gặp khó khăn trong việc thuyết phục. Tỷ lệ thành công của nó – phần trăm số lần người thẩm vấn xác định nhầm nó là con người – dao động quanh mức 36 phần trăm. Con số này thấp hơn đáng kể so với mốc 50 phần trăm cho thấy sự phỏng đoán ngẫu nhiên của những người thẩm vấn. Tương tự, GPT-4o, công cụ đằng sau ChatGPT được sử dụng rộng rãi, đạt tỷ lệ thành công thậm chí còn thấp hơn là 21 phần trăm theo các hướng dẫn cơ bản này. Kỳ lạ thay, chatbot nguyên thủy ELIZA lại đạt được tỷ lệ thành công 23 phần trăm, vượt trội hơn một chút so với GPT-4o tinh vi hơn nhiều trong kịch bản cụ thể này, có lẽ làm nổi bật cách các mẫu hội thoại cơ bản đôi khi có thể vượt qua, hoặc cách kỳ vọng của con người đóng một vai trò.

Tuy nhiên, câu chuyện đã thay đổi đáng kể khi GPT-4.5 được cung cấp prompt ‘persona’. Được hướng dẫn để hóa thân thành một nhân vật cụ thể, hiệu suất của nó đã tăng vọt. Những người thẩm vấn đã xác định GPT-4.5 là người tham gia con người với tỷ lệ đáng kinh ngạc là 73 phần trăm số lần. Con số này không chỉ thoải mái vượt qua ngưỡng 50 phần trăm để vượt qua Turing Test; nó cho thấy một trình độ đáng nể trong việc đánh lừa bằng hội thoại dựa trên nhân vật một cách bền vững. Các nhà nghiên cứu ghi nhận thành công tương tự đối với mô hình LLaMa của Meta khi nó cũng được prompt với một persona. Hàm ý rất rõ ràng: khả năng bắt chước con người một cách thuyết phục của các mô hình AI tiên tiến này dường như được khuếch đại đáng kể khi chúng được chỉ đạo không chỉ để nói chuyện, mà còn để hành động như một kiểu người cụ thể.

Người hơn cả Người? Một Kết quả Đáng lo ngại

Có lẽ khía cạnh phản trực giác và kích thích tư duy nhất của nghiên cứu xuất hiện từ các thử nghiệm ‘persona’ liên quan đến GPT-4.5. AI không chỉ thường xuyên đánh lừa những người thẩm vấn, mà theo tác giả chính Cameron Jones, nó thực sự được xác định là con người thường xuyên hơn đáng kể so với những người tham gia thực sự là con người trong cùng các cuộc trò chuyện. Jones đã nhấn mạnh điều này trên mạng xã hội, nói rằng, ‘Mọi người không giỏi hơn xác suất ngẫu nhiên trong việc phân biệt con người với GPT-4.5LLaMa (với prompt persona)… Và 4.5 thậm chí còn được đánh giá là con người thường xuyên hơn đáng kể so với con người thực sự!’

Phát hiện này mở ra một chiếc hộp Pandora phức tạp về diễn giải. Liệu điều đó có nghĩa là AI đã trở nên đặc biệt thành thạo trong việc thể hiện tính người, thậm chí có thể thể hiện một số đặc điểm hội thoại khuôn mẫu một cách nhất quán hơn so với người thật, những người có thể thể hiện nhiều biến thể, do dự hoặc đặc điểm riêng hơn? Hay nó phản ánh điều gì đó về kỳ vọng và nhận thức của những người thẩm vấn? Có lẽ con người, khi cố gắng một cách có ý thức để ‘thể hiện’ như con người trong một môi trường thử nghiệm, lại tỏ ra kém tự nhiên hoặc dè dặt hơn so với một AI thực hiện hoàn hảo một persona được lập trình. Nó cũng có thể gợi ý rằng các persona cụ thể được giao (ví dụ: ‘người trẻ tuổi am hiểu về văn hóa internet’) phù hợp tốt với loại văn bản trôi chảy, hơi chung chung, giàu thông tin mà các LLM xuất sắc trong việc tạo ra, làm cho đầu ra của chúng có vẻ siêu đại diện cho nguyên mẫu đó. Bất kể lời giải thích chính xác là gì, thực tế là một cỗ máy có thể được coi là người hơn con người trong một bài kiểm tra được thiết kế để phát hiện các phẩm chất giống máy móc là một kết quả đáng lo ngại sâu sắc, thách thức các giả định của chúng ta về tính xác thực trong giao tiếp.

Vượt ra ngoài Sự bắt chước: Đặt câu hỏi về Tiêu chuẩn

Mặc dù việc điều hướng thành công Turing Test, đặc biệt là với tỷ lệ phần trăm cao như vậy, đại diện cho một cột mốc kỹ thuật, nhiều chuyên gia cảnh báo không nên đánh đồng thành tích này với trí thông minh hoặc sự hiểu biết thực sự giống con người. Turing Test, được hình thành từ lâu trước khi có sự ra đời của các bộ dữ liệu khổng lồ và học sâu, chủ yếu đánh giá đầu ra hành vi – cụ thể là sự trôi chảy trong hội thoại. Các Mô hình Ngôn ngữ Lớn như GPT-4.5, về cốt lõi, là những công cụ khớp mẫu và dự đoán cực kỳ tinh vi. Chúng được đào tạo trên khối lượng dữ liệu văn bản khổng lồ do con người tạo ra – sách, bài báo, trang web, cuộc trò chuyện. ‘Kỹ năng’ của chúng nằm ở việc học các mối quan hệ thống kê giữa các từ, cụm từ và khái niệm, cho phép chúng tạo ra văn bản mạch lạc, phù hợp theo ngữ cảnh và đúng ngữ pháp, bắt chước các mẫu được quan sát trong dữ liệu đào tạo của chúng.

Như François Chollet, một nhà nghiên cứu AI nổi tiếng tại Google, đã lưu ý trong một cuộc phỏng vấn năm 2023 với Nature về Turing Test, ‘Nó không có nghĩa là một bài kiểm tra theo nghĩa đen mà bạn thực sự sẽ chạy trên máy – nó giống một thí nghiệm tưởng tượng hơn’. Các nhà phê bình cho rằng LLM có thể đạt được sự bắt chước hội thoại mà không cần bất kỳ sự hiểu biết, ý thức hoặc trải nghiệm chủ quan nào – những dấu hiệu của trí thông minh con người. Chúng là bậc thầy về cú pháp và ngữ nghĩa bắt nguồn từ dữ liệu, nhưng thiếu sự gắn kết thực sự với thế giới thực, lý luận thông thường (mặc dù chúng có thể mô phỏng nó) và tính chủ đích. Theo quan điểm này, việc vượt qua Turing Test chứng tỏ sự xuất sắc trong việc bắt chước, chứ không nhất thiết là sự xuất hiện của suy nghĩ. Nó chứng minh rằng AI có thể sao chép một cách chuyên nghiệp các mẫu ngôn ngữ của con người, thậm chí có thể đến mức vượt qua hiệu suất điển hình của con người trong các bối cảnh cụ thể, nhưng nó không giải quyết được các câu hỏi sâu sắc hơn về trạng thái nội tại hoặc sự hiểu biết của máy móc. Trò chơi, có vẻ như, kiểm tra chất lượng của chiếc mặt nạ, chứ không phải bản chất của thực thể đằng sau nó.

Con dao hai lưỡi: Những gợn sóng xã hội

Khả năng AI mạo danh con người một cách thuyết phục, như được chứng minh trong nghiên cứu này, mang những hàm ý xã hội sâu sắc và có khả năng gây rối loạn, vượt xa các cuộc tranh luận học thuật về trí tuệ. Cameron Jones, tác giả chính của nghiên cứu, nhấn mạnh rõ ràng những lo ngại này, cho thấy kết quả cung cấp bằng chứng mạnh mẽ về hậu quả trong thế giới thực của các LLM tiên tiến.

  • Tự động hóa và Tương lai Việc làm: Jones chỉ ra tiềm năng của LLM trong việc ‘thay thế con người trong các tương tác ngắn mà không ai có thể nhận ra’. Khả năng này có thể đẩy nhanh quá trình tự động hóa các công việc phụ thuộc nhiều vào giao tiếp dựa trên văn bản, chẳng hạn như vai trò dịch vụ khách hàng, hỗ trợ kỹ thuật, kiểm duyệt nội dung và thậm chí một số khía cạnh của báo chí hoặc công việc hành chính. Mặc dù tự động hóa hứa hẹn tăng hiệu quả, nó cũng làm dấy lên những lo ngại đáng kể về việc mất việc làm và nhu cầu thích ứng lực lượng lao động ở quy mô chưa từng có. Hậu quả kinh tế và xã hội của việc tự động hóa các vai trò trước đây được coi là độc nhất của con người do sự phụ thuộc vào giao tiếp tinh tế có thể rất lớn.
  • Sự trỗi dậy của Lừa đảo Tinh vi: Có lẽ đáng báo động hơn ngay lập tức là tiềm năng lạm dụng trong các hoạt động độc hại. Nghiên cứu nhấn mạnh tính khả thi của ‘các cuộc tấn công kỹ thuật xã hội được cải thiện’. Hãy tưởng tượng các bot do AI cung cấp tham gia vào các vụ lừa đảo phishing được cá nhân hóa cao, lan truyền thông tin sai lệch được điều chỉnh riêng hoặc thao túng các cá nhân trong các diễn đàn trực tuyến hoặc phương tiện truyền thông xã hội với hiệu quả chưa từng có vì chúng có vẻ không thể phân biệt được với con người. Khả năng nhập vai các persona cụ thể, đáng tin cậy có thể khiến các cuộc tấn công này trở nên thuyết phục hơn nhiều và khó bị phát hiện hơn. Điều này có thể làm xói mòn lòng tin vào các tương tác trực tuyến, khiến việc xác minh tính xác thực của truyền thông kỹ thuật số ngày càng khó khăn và có khả năng thúc đẩy sự chia rẽ xã hội hoặc bất ổn chính trị.
  • Sự gián đoạn Xã hội Chung: Ngoài các mối đe dọa cụ thể, việc triển khai rộng rãi AI giống người một cách thuyết phục có thể dẫn đến những thay đổi xã hội rộng lớn hơn. Mối quan hệ giữa các cá nhân thay đổi như thế nào khi chúng ta không thể chắc chắn liệu mình đang nói chuyện với con người hay máy móc? Điều gì xảy ra với giá trị của kết nối con người đích thực? Liệu những người bạn đồng hành AI có thể lấp đầy khoảng trống xã hội, nhưng phải trả giá bằng sự tương tác thực sự của con người? Ranh giới mờ nhạt giữa giao tiếp của con người và nhân tạo thách thức các chuẩn mực xã hội cơ bản và có thể định hình lại cách chúng ta liên hệ với nhau và với công nghệ. Tiềm năng cho cả các ứng dụng tích cực (như các công cụ trợ năng nâng cao hoặc giáo dục cá nhân hóa) và hậu quả tiêu cực tạo ra một bối cảnh phức tạp mà xã hội chỉ mới bắt đầu điều hướng.

Yếu tố Con người: Nhận thức trong Dòng chảy

Điều quan trọng là phải nhận ra rằng Turing Test, và các thí nghiệm như thí nghiệm được thực hiện tại UC San Diego, không chỉ là đánh giá về khả năng của máy móc; chúng còn là sự phản ánh tâm lý và nhận thức của con người. Như Jones kết luận trong bài bình luận của mình, bài kiểm tra đặt chúng ta dưới kính hiển vi nhiều như nó đặt AI. Khả năng, hoặc không có khả năng, phân biệt con người với máy móc của chúng ta bị ảnh hưởng bởi những thành kiến, kỳ vọng của chính chúng ta và sự quen thuộc ngày càng tăng (hoặc thiếu) với các hệ thống AI.

Ban đầu, khi đối mặt với AI mới lạ, con người có thể dễ dàng bị đánh lừa. Tuy nhiên, khi tiếp xúc tăng lên, trực giác có thể trở nên sắc bén hơn. Mọi người có thể trở nên nhạy bén hơn với những dấu vết thống kê tinh vi của văn bản do AI tạo ra – có lẽ là một giọng điệu quá nhất quán, thiếu những khoảng dừng hoặc ngập ngừng thực sự, hoặc một kiến thức bách khoa có vẻ hơi không tự nhiên. Do đó, kết quả của các bài kiểm tra như vậy không tĩnh; chúng đại diện cho một bức ảnh chụp nhanh tại một thời điểm về sự tương tác hiện tại giữa sự tinh vi của AI và sự sáng suốt của con người. Có thể hình dung rằng khi công chúng trở nên quen thuộc hơn với việc tương tác với các dạng AI khác nhau, khả năng tập thể để ‘đánh hơi ra chúng’ có thể cải thiện, có khả năng nâng cao tiêu chuẩn cho những gì cấu thành một ‘sự bắt chước’ thành công. Nhận thức về trí tuệ AI là một mục tiêu di động, được định hình bởi tiến bộ công nghệ ở một bên và sự hiểu biết và thích ứng ngày càng phát triển của con người ở bên kia.

Chúng ta Đi về đâu từ đây? Định nghĩa lại Trí tuệ

Sự thành công của các mô hình như GPT-4.5 trong các bài kiểm tra Turing dựa trên persona đánh dấu một điểm quan trọng trong sự phát triển của AI, thể hiện sự thành thạo ấn tượng trong việc bắt chước ngôn ngữ. Tuy nhiên, nó đồng thời làm nổi bật những hạn chế của chính Turing Test như một thước đo cuối cùng về ‘trí tuệ’ trong thời đại LLM. Trong khi tôn vinh thành tựu kỹ thuật, trọng tâm có lẽ cần phải thay đổi. Thay vì chỉ hỏi liệu AI có thể đánh lừa chúng ta nghĩ rằng nó là con người hay không, chúng ta có thể cần các tiêu chuẩn đánh giá tinh tế hơn để thăm dò các khả năng nhận thức sâu hơn – các khả năng như lý luận thông thường mạnh mẽ, hiểu biết thực sự về nguyên nhân và kết quả, khả năng thích ứng với các tình huống thực sự mới lạ (không chỉ là các biến thể trên dữ liệu đào tạo) và phán đoán đạo đức. Thách thức trong tương lai không chỉ là xây dựng những cỗ máy có thể nói chuyện như chúng ta, mà còn là hiểu bản chất thực sự về khả năng và hạn chế của chúng, và phát triển các khuôn khổ – cả kỹ thuật và xã hội – để khai thác tiềm năng của chúng một cách có trách nhiệm đồng thời giảm thiểu những rủi ro không thể phủ nhận do các tác nhân nhân tạo ngày càng tinh vi gây ra trong môi trường của chúng ta. Trò chơi bắt chước vẫn tiếp tục, nhưng các quy tắc, và có lẽ cả định nghĩa về chiến thắng, đang nhanh chóng phát triển.