Nhiệm vụ tạo ra những cỗ máy có khả năng suy nghĩ, hoặc ít nhất là trò chuyện, giống như con người là một tham vọng lâu đời trong lĩnh vực trí tuệ nhân tạo. Trong nhiều thập kỷ, tiêu chuẩn đánh giá, dù còn nhiều tranh cãi, thường là Phép thử Turing, do nhà toán học lỗi lạc Alan Turing đề xuất vào giữa thế kỷ 20. Tiền đề rất đơn giản nhưng sâu sắc: liệu một cỗ máy có thể tương tác với người thẩm vấn một cách thuyết phục đến mức người thẩm phán không thể phân biệt đáng tin cậy nó với một con người khác không? Những phát triển gần đây cho thấy rằng một số mô hình ngôn ngữ lớn (LLM) tinh vi nhất có thể đã đạt được, hoặc thậm chí vượt qua, cột mốc hấp dẫn này, làm dấy lên cuộc thảo luận mới về bản chất của trí tuệ, sự bắt chước và quỹ đạo tương lai của AI.
Chuẩn bị sân khấu: Một vòng thử thách hội thoại mới
Một nghiên cứu từ Đại học California San Diego đã đưa câu hỏi này trở lại tâm điểm một cách sắc nét. Các nhà nghiên cứu Cameron R. Jones và Benjamin K. Bergen đã thiết kế một phiên bản đương đại của Phép thử Turing để đánh giá khả năng hội thoại của các hệ thống AI tiên tiến. Thí nghiệm của họ đặt những người tham gia là con người đối đầu với một số mô hình AI, bao gồm GPT-4.5 rất được kính trọng của OpenAI và LLaMa-3.1-405B đáng gờm của Meta. Thiết lập bao gồm một thẩm phán là con người tham gia vào các cuộc trò chuyện dựa trên văn bản kéo dài năm phút đồng thời – một với một người tham gia ẩn danh là con người và một với một mô hình AI ẩn danh. Sau những tương tác ngắn ngủi này, nhiệm vụ của thẩm phán rất đơn giản: xác định đối tác trò chuyện nào là máy và đối tác nào là người.
Kết quả, đặc biệt đối với các mô hình được yêu cầu áp dụng một vai trò cụ thể, rất ấn tượng.
- Hiệu suất của GPT-4.5: Khi được hướng dẫn hành xử như một con người, GPT-4.5 được báo cáo đã đánh lừa các thẩm phán với tỷ lệ ấn tượng là 73%. Con số này có ý nghĩa vì nó cho thấy các thẩm phán có nhiều khả năng xác định AI là con người hơn là người tham gia thực sự trong cuộc trò chuyện.
- Thể hiện của LLaMa-3.1-405B: Mô hình lớn của Meta, LLaMa-3.1-405B (trong đó 405B biểu thị số lượng tham số khổng lồ định hình khả năng của nó), cũng hoạt động đáng tin cậy trong cùng điều kiện ‘vai trò’. Nó được xác định là con người 56% số lần. Mặc dù thấp hơn điểm số của GPT-4.5, kết quả này vẫn đặt nó trên ngưỡng 50% quan trọng thường được coi là dấu hiệu vượt qua bài kiểm tra, cho thấy các phản hồi của nó khó phân biệt về mặt thống kê với phản hồi của những người tham gia là con người.
- So sánh cơ bản: Để cung cấp bối cảnh và đảm bảo các thẩm phán không chỉ đơn giản là đoán ngẫu nhiên, các nhà nghiên cứu đã bao gồm các mô hình cơ bản. ELIZA, một chatbot nổi tiếng thời kỳ đầu từ những năm 1960 do Joseph Weizenbaum thiết kế tại MIT, đã được đưa vào làm đối chứng. Không có gì ngạc nhiên khi hiệu suất của nó phản ánh những tiến bộ vượt bậc trong AI kể từ khi nó được tạo ra, chỉ đạt được 23% đánh giá ‘con người’. Điều thú vị là GPT-4o, một mô hình OpenAI gần đây hơn được phát hành vào năm 2024, cũng hoạt động ở mức cơ bản tương tự trong thiết lập thử nghiệm cụ thể này, chỉ được đánh giá là con người 21% số lần. Điều này nhấn mạnh rằng các cấu hình, đào tạo cụ thể, hoặc có lẽ chính chiến lược gợi ý, đóng vai trò quan trọng trong việc đạt được hiệu suất hội thoại giống con người.
Phương pháp luận của nghiên cứu, sử dụng thiết lập ba bên này (thẩm phán, người ẩn danh, AI ẩn danh), được ghi nhận về tính nghiêm ngặt so với một số nỗ lực trước đó trong việc đánh giá AI dựa trên tiêu chuẩn Turing. Nó nhằm mục đích tạo ra một kịch bản thách thức và thực tế hơn để đánh giá khả năng không thể phân biệt trong hội thoại.
Sức mạnh của Vai trò: AI như một Diễn viên Phương pháp
Một yếu tố quan trọng ảnh hưởng đến tỷ lệ thành công của GPT-4.5 và LLaMa-3.1-405B trong nghiên cứu cụ thể này là việc sử dụng các lời nhắc ‘vai trò’ cụ thể. Các nhà nghiên cứu đã thử nghiệm các mô hình cả có và không có hướng dẫn để áp dụng một nhân vật hoặc giọng điệu giống con người. Sự nhảy vọt đáng kể về hiệu suất khi lời nhắc vai trò được áp dụng nhấn mạnh một khía cạnh quan trọng của các LLM hiện đại: khả năng đáng kinh ngạc của chúng trong việc điều chỉnh đầu ra dựa trên hướng dẫn.
‘Áp dụng vai trò’ đòi hỏi điều gì đối với một AI? Điều đó có nghĩa là mô hình điều chỉnh:
- Giọng điệu và Phong cách: Bắt chước ngôn ngữ thông thường, sử dụng cách nói thông tục, hoặc thậm chí mô phỏng sự do dự hoặc suy ngẫm.
- Trọng tâm Nội dung: Có khả năng tham chiếu đến kinh nghiệm cá nhân (mặc dù bịa đặt), bày tỏ ý kiến, hoặc tham gia vào các cuộc nói chuyện phiếm liên quan đến nhân vật được áp dụng.
- Mô hình Tương tác: Phản hồi theo những cách cảm thấy tương tác hơn và ít giống như một hệ thống truy xuất thông tin thuần túy.
Khả năng này bắt nguồn trực tiếp từ cách các mô hình này được đào tạo. LLM học các mẫu, phong cách và thông tin từ các bộ dữ liệu khổng lồ mà chúng được cung cấp, chủ yếu bao gồm văn bản và mã do con người tạo ra trên internet và văn học số hóa. Khi được nhắc hành động như một loại người cụ thể, mô hình dựa trên vô số ví dụ về cuộc trò chuyện của con người trong dữ liệu đào tạo của nó phù hợp với vai trò đó. Nó ít liên quan đến tính cách thực sự hơn là sự khớp mẫu và tạo ra tinh vi.
Điều này dẫn đến ý tưởng, được các nhà quan sát như John Nosta, người sáng lập tổ chức tư vấn đổi mới NostaLab, trình bày, rằng có lẽ những gì chúng ta đang chứng kiến không nhất thiết là trí tuệ nhân tạo theo nghĩa con người, mà là sự đồng cảm nhân tạo rất tiên tiến – hoặc ít nhất, là sự mô phỏng thuyết phục về nó. AI không cảm thấy đồng cảm, nhưng nó đã học được các mẫu ngôn ngữ liên quan đến việc thể hiện nó. Thành công phụ thuộc vào sự bắt chước hành vi, điều chỉnh các phản hồi với một phong cách gây tiếng vang như con người, đặc biệt là trong các tương tác ngắn như các cuộc trò chuyện năm phút được sử dụng trong bài kiểm tra.
Chính các nhà nghiên cứu đã nhấn mạnh khả năng thích ứng này: ‘Có thể cho rằng chính sự dễ dàng mà LLM có thể được nhắc để điều chỉnh hành vi của chúng cho các kịch bản khác nhau đã khiến chúng trở nên linh hoạt: và rõ ràng là có khả năng đóng giả con người.’ Sự linh hoạt này là một con dao hai lưỡi, cho phép khả năng hội thoại đáng chú ý đồng thời đặt ra câu hỏi về tính xác thực và tiềm năng thao túng.
Một Thành tựu Mang tính Bước ngoặt hay một Thước đo Sai lầm? Đánh giá lại Phép thử Turing
Trong khi các tiêu đề có thể tung hô AI ‘vượt qua’ Phép thử Turing, ý nghĩa của thành tựu này cần được xem xét cẩn thận. Liệu việc thuyết phục đa số thẩm phán trong một cuộc trò chuyện văn bản ngắn có thực sự tương đương với trí tuệ cấp độ con người không? Hầu hết các chuyên gia, bao gồm cả các tác giả nghiên cứu một cách ngầm định, sẽ trả lời là không.
Phép thử Turing, được hình thành từ rất lâu trước khi LLM được đào tạo trên dữ liệu quy mô internet ra đời, chủ yếu đo lường hiệu suất hội thoại, chứ không phải các khả năng nhận thức sâu sắc hơn như:
- Hiểu biết: AI có thực sự hiểu được các sắc thái và hàm ý của cuộc trò chuyện, hay nó chỉ đơn thuần dự đoán các từ tiếp theo có khả năng xảy ra nhất về mặt thống kê?
- Ý thức: Trải nghiệm chủ quan về nhận thức và suy nghĩ vẫn vững chắc trong lĩnh vực của con người (và có khả năng là các dạng sống sinh học khác). Các mô hình AI hiện tại không cho thấy bằng chứng nào về việc sở hữu nó.
- Lý luận: Mặc dù AI có thể thực hiện các bước logic trong các lĩnh vực cụ thể, khả năng lý luận đa mục đích, ý thức thông thường và hiểu biết về nguyên nhân-kết quả trong các tình huống mới lạ của nó vẫn còn hạn chế so với con người.
- Ý định: Các phản hồi của AI được tạo ra dựa trên thuật toán và dữ liệu; chúng thiếu niềm tin, mong muốn hoặc ý định thực sự thúc đẩy giao tiếp của chúng.
Do đó, điểm số cao trong Phép thử Turing chứng tỏ rằng một AI có thể chơi trò chơi bắt chước cực kỳ tốt, đặc biệt khi được hướng dẫn bởi các lời nhắc cụ thể. Nó đã học cách tạo ra văn bản phù hợp chặt chẽ với các mẫu hội thoại của con người. Sinead Bovell, người sáng lập công ty giáo dục công nghệ Waye, đã suy ngẫm về điều này, đặt câu hỏi liệu có thực sự đáng ngạc nhiên khi AI được đào tạo trên ‘nhiều dữ liệu con người hơn bất kỳ người nào có thể đọc hoặc xem’ cuối cùng lại xuất sắc trong việc ‘nghe giống con người’.
Điều này đặt ra một câu hỏi cơ bản: Liệu Phép thử Turing có còn là một tiêu chuẩn phù hợp hoặc đủ cho sự tiến bộ của AI trong thế kỷ 21 không? Một số người cho rằng việc tập trung vào sự lừa dối thông qua hội thoại là quá hẹp và có khả năng gây hiểu lầm. Nó không đánh giá đầy đủ các khả năng mà chúng ta thường liên kết với trí tuệ thực sự, chẳng hạn như giải quyết vấn đề, sáng tạo, phán đoán đạo đức hoặc khả năng thích ứng với các môi trường vật lý hoặc khái niệm hoàn toàn mới.
Bối cảnh lịch sử cũng có liên quan. Các tuyên bố về việc AI vượt qua Phép thử Turing đã xuất hiện trước đây. Vào năm 2014, một chatbot tên là ‘Eugene Goostman’, được thiết kế để mô phỏng một cậu bé 13 tuổi người Ukraine, được cho là đã thuyết phục được 33% thẩm phán trong một sự kiện thử nghiệm tương tự. Mặc dù điều này được một số người ca ngợi vào thời điểm đó, tỷ lệ thành công 33% đã không đạt được ngưỡng 50% thường được trích dẫn và đạt được bằng cách sử dụng một vai trò (một thiếu niên không phải người bản xứ nói tiếng Anh) có thể bào chữa cho các lỗi ngữ pháp hoặc lỗ hổng kiến thức. So với các kết quả gần đây vượt quá 50% và thậm chí đạt 73% với các mô hình tinh vi hơn, sự tiến bộ trong AI hội thoại là không thể phủ nhận, nhưng những hạn chế của chính bài kiểm tra vẫn còn phù hợp.
Nhìn vào Bên trong Động cơ: Động lực của Khả năng Hội thoại
Hiệu suất ấn tượng của các mô hình như GPT-4.5 không phải là ngẫu nhiên; đó là kết quả của sự đổi mới và tinh chỉnh không ngừng trong phát triển AI, đặc biệt là trong lĩnh vực mô hình ngôn ngữ lớn. Một số yếu tố góp phần vào khả năng tạo ra văn bản giống con người của chúng:
- Bộ dữ liệu Khổng lồ: Các LLM hiện đại được đào tạo trên lượng văn bản và mã thực sự đáng kinh ngạc. Sự tiếp xúc rộng lớn này cho phép chúng học các cấu trúc ngữ pháp phức tạp, từ vựng đa dạng, sắc thái phong cách, thông tin thực tế (mặc dù không phải lúc nào cũng chính xác) và các chuỗi hội thoại phổ biến.
- Kiến trúc Tinh vi: Công nghệ cơ bản, thường dựa trên kiến trúc Transformer, sử dụng các cơ chế như ‘sự chú ý’ cho phép mô hình cân nhắc tầm quan trọng của các từ khác nhau trong lời nhắc đầu vào khi tạo ra đầu ra. Điều này giúp duy trì ngữ cảnh và sự mạch lạc trong các đoạn văn bản dài hơn.
- Kỹ thuật Đào tạo Nâng cao: Các kỹ thuật như Học tăng cường từ Phản hồi của Con người (RLHF) được sử dụng để tinh chỉnh các mô hình. Con người đánh giá các phản hồi khác nhau của AI, hướng dẫn mô hình tạo ra các đầu ra hữu ích hơn, vô hại hơn và trung thực hơn – và thường là nghe giống con người hơn.
- Quy mô Tham số: Các mô hình như LLaMa-3.1-405B, với hàng trăm tỷ tham số, có khả năng lưu trữ và xử lý thông tin học được trong quá trình đào tạo lớn hơn, cho phép tạo ra văn bản phức tạp và tinh tế hơn.
- Giữ Ngữ cảnh: Các mô hình mới hơn thể hiệnkhả năng cải thiện trong việc ‘ghi nhớ’ các phần trước của cuộc trò chuyện, dẫn đến các tương tác nhất quán và phù hợp hơn, một khía cạnh quan trọng của đối thoại của con người.
- Nền tảng Đa phương thức: Xây dựng dựa trên các tiền thân như GPT-4, vốn kết hợp các khả năng ngoài văn bản (như hiểu hình ảnh), mang lại cho các mô hình mới hơn một biểu diễn nội bộ tiềm năng phong phú hơn, ngay cả khi tương tác thử nghiệm hoàn toàn dựa trên văn bản.
Khi OpenAI giới thiệu GPT-4.5, CEO Sam Altman đã nhận xét: ‘Đối với tôi, đây là mô hình đầu tiên mang lại cảm giác như đang nói chuyện với một người chu đáo.’ Mặc dù mang tính chủ quan, tình cảm này phản ánh bước nhảy vọt về chất lượng trong khả năng hội thoại mà những tiến bộ kỹ thuật này đã mang lại. Lời nhắc vai trò sau đó hoạt động như một đòn bẩy mạnh mẽ, hướng các khả năng này vào việc bắt chước một phong cách hội thoại cụ thể của con người được rút ra từ dữ liệu đã học.
Những Gợn sóng trong Thực tế: Các Cân nhắc Xã hội và Kinh tế
Việc chứng minh rằng AI có thể bắt chước một cách thuyết phục cuộc trò chuyện của con người, ngay cả khi nó không tương đương với trí tuệ thực sự, mang lại những tác động đáng kể trong thế giới thực vượt xa các bài kiểm tra học thuật. Như Sinead Bovell đã lưu ý, những tiến bộ này có khả năng ‘gây ra những tác động kinh tế và xã hội lớn’.
- Gián đoạn Thị trường Lao động: Các lĩnh vực phụ thuộc nhiều vào giao tiếp là những ứng cử viên hàng đầu cho việc tích hợp AI và khả năng thay thế. Vai trò dịch vụ khách hàng, tạo nội dung (viết bài báo, bản sao tiếp thị), dịch vụ dịch thuật và thậm chí một số khía cạnh của việc dạy kèm hoặc trợ lý cá nhân có thể ngày càng được xử lý bởi các chatbot và tác nhân AI tinh vi. Sự thúc đẩy gần đây đối với ‘Agentic AI’ – các hệ thống được thiết kế để thực hiện các quy trình công việc một cách tự chủ trong các lĩnh vực như phân tích dữ liệu, hỗ trợ bán hàng hoặc quản lý chăm sóc sức khỏe – càng có thêm động lực nếu các tác nhân này cũng có thể giao tiếp với sự trôi chảy giống con người.
- Mối quan hệ Con người và Lòng tin: Khi AI trở nên thành thạo hơn trong việc bắt chước sự đồng cảm và tính cách, nó có thể làm thay đổi động lực tương tác của con người. Liệu mọi người có hình thành mối liên kết tình cảm với những người bạn đồng hành AI không? Làm thế nào chúng ta sẽ đảm bảo tính xác thực trong các tương tác trực tuyến khi việc phân biệt giữa con người và AI trở nên khó khăn hơn? Khả năng lừa đảo, cho dù là lừa đảo, lan truyền thông tin sai lệch hay thao túng dư luận, đều tăng lên đáng kể.
- Sự trỗi dậy của ‘Deeper Fakes’: Susan Schneider, Giám đốc Sáng lập của Trung tâm Tâm trí Tương lai tại FAU, bày tỏ lo ngại về quỹ đạo này, dự đoán một kịch bản ‘ác mộng’ tiềm ẩn liên quan đến ‘deeper fakes’ và thậm chí là ‘chiến tranh mạng chatbot’. Nếu AI có thể bắt chước các cá nhân một cách thuyết phục bằng văn bản, khả năng mạo danh độc hại sẽ leo thang đáng kể.
- Sự tương thích Đạo đức: Schneider cũng nhấn mạnh vấn đề quan trọng về sự tương thích: đảm bảo các hệ thống AI hành xử theo các giá trị của con người. Một AI có thể bắt chước hoàn hảo cuộc trò chuyện của con người nhưng thiếu la bàn đạo đức hoặc hoạt động dựa trên dữ liệu thiên vị học được trong quá trình đào tạo có thể duy trì các định kiến có hại hoặc đưa ra các khuyến nghị phi đạo đức, tất cả trong khi nghe có vẻ hoàn toàn hợp lý. Thực tế là các mô hình này đã vượt qua bài kiểm tra mà không nhất thiết phải được ‘điều chỉnh đúng cách’ là một điểm đáng lo ngại đối với nhiều nhà nghiên cứu.
Khả năng ‘vượt qua’ như một cuộc trò chuyện của con người không chỉ đơn thuần là một sự tò mò kỹ thuật; nó giao thoa trực tiếp với cách chúng ta làm việc, giao tiếp, tin tưởng và liên hệ với nhau trong một thế giới ngày càng kỹ thuật số.
Vạch ra Tương lai: Vượt ra ngoài Sự bắt chước Hướng tới Năng lực Thực sự
Mặc dù kết quả Phép thử Turing gần đây liên quan đến GPT-4.5 và LLaMa-3.1 là những cột mốc đáng chú ý trong lịch sử phát triển AI, chúng chủ yếu làm nổi bật sự tiến bộ đáng kinh ngạc trong tạo ngôn ngữ tự nhiên và bắt chước. Sự đồng thuận giữa nhiều chuyên gia là trọng tâm bây giờ phải chuyển sang phát triển AI thể hiện sự hiểu biết, lý luận và hành vi đạo đức thực sự, thay vì chỉ xuất sắc trong việc bắt chước hội thoại.
Điều này đòi hỏi phải vượt ra ngoài Phép thử Turing truyền thống hướng tới các tiêu chuẩn và phương pháp đánh giá mới. Chúng có thể trông như thế nào?
- Các bài kiểm tra tập trung vào giải quyết vấn đề phức tạp trong các tình huống mới lạ.
- Đánh giá lý luận thông thường mạnh mẽ.
- Đánh giá ra quyết định đạo đức trong các kịch bản mơ hồ.
- Các thước đo về sáng tạo và tư duy độc đáo, không chỉ là sự kết hợp lại các mẫu hiện có.
- Các bài kiểm tra yêu cầu lập kế hoạch dài hạn và tư duy chiến lược.
Mục tiêu cuối cùng đối với nhiều người trong lĩnh vực này không chỉ là tạo ra những người đối thoại thuyết phục mà còn phát triển AI có thể đóng vai trò là công cụ đáng tin cậy, đáng tin cậy để giải quyết các vấn đề trong thế giới thực và tăng cường khả năng của con người. Như những suy nghĩ kết luận trong báo cáo ban đầu đã gợi ý, tương lai của AI có lẽ nằm nhiều hơn ở tính hữu dụng thực tế của nó – hỗ trợ khám phá khoa học, cải thiện chăm sóc sức khỏe, quản lý các hệ thống phức tạp – hơn là chỉ ở khả năng trò chuyện một cách thuyết phục.
Hành trình hướng tới Trí tuệ Nhân tạo Tổng quát (AGI), nếu có thể đạt được, còn dài và phức tạp. Các cột mốc như vượt qua Phép thử Turing là những dấu hiệu quan trọng trên đường đi, thể hiện sức mạnh của các kỹ thuật hiện tại. Tuy nhiên, chúng cũng đóng vai trò là lời nhắc nhở quan trọng về những hạn chế của các thước đo hiện tại của chúng ta và những câu hỏi đạo đức và xã hội sâu sắc mà chúng ta phải giải quyết khi những công nghệ mạnh mẽ này tiếp tục phát triển. Trò chơi bắt chước có thể có những nhà vô địch mới, nhưng thách thức xây dựng AI thực sự thông minh, có lợi và tương thích chỉ mới bắt đầu.