Những nghiên cứu gần đây đã làm sáng tỏ một khía cạnh thú vị nhưng đáng lo ngại của trí tuệ nhân tạo (AI): khả năng chịu ảnh hưởng của những khuynh hướng phi lý tương tự như những gì quan sát được trong quá trình ra quyết định của con người. Phát hiện này thách thức nhận thức thông thường về AI như một công cụ khách quan và không thiên vị, thúc đẩy việc đánh giá lại tiện ích thực tế của nó trong các ứng dụng đa dạng.
Một nghiên cứu đột phá đã xem xét kỹ lưỡng hành vi của ChatGPT, một hệ thống AI nổi bật, trên một loạt các thiên kiến nhận thức phổ biến trong tâm lý học con người. Các phát hiện, được công bố trên tạp chí danh tiếng Manufacturing & Service Operations Management, tiết lộ rằng ChatGPT thể hiện nhiều mô hình ra quyết định phi lý trong gần một nửa số kịch bản được đánh giá. Những mô hình này bao gồm các thiên kiến được ghi nhận rõ ràng như ngụy biện bàn tay nóng (hot hand fallacy), bỏ qua tỷ lệ cơ bản (base-rate neglect) và ngụy biện chi phí chìm (sunk cost fallacy), làm dấy lên những lo ngại đáng kể về độ tin cậy và tính phù hợp của AI trong các bối cảnh ra quyết định quan trọng.
Tiết lộ những sai sót giống con người trong AI
Nghiên cứu, được thực hiện bởi một tập đoàn các chuyên gia từ năm tổ chức học thuật uy tín trải dài khắp Canada và Úc, đã đánh giá một cách nghiêm ngặt hiệu suất của GPT-3.5 và GPT-4 của OpenAI, các mô hình ngôn ngữ lớn (LLM) nền tảng cung cấp sức mạnh cho ChatGPT. Phân tích toàn diện của nghiên cứu đã phơi bày rằng mặc dù các LLM này thể hiện “tính nhất quán ấn tượng” trong các quy trình suy luận của chúng, nhưng chúng vẫn còn xa mới miễn nhiễm với những sai sót và thiên kiến giống con người.
Các tác giả đã khéo léo nhấn mạnh rằng tính nhất quán vốn có này trong các hệ thống AI mang lại cả lợi thế và bất lợi. Mặc dù tính nhất quán có thể hợp lý hóa các tác vụ với các giải pháp rõ ràng, theo công thức, nhưng nó lại gây ra những rủi ro tiềm ẩn khi áp dụng cho các quyết định chủ quan hoặc dựa trên sở thích. Trong những trường hợp như vậy, việc AI sao chép các thiên kiến của con người có thể dẫn đến những kết quả sai sót và kết quả sai lệch.
Yang Chen, tác giả chính của nghiên cứu và là trợ lý giáo sư về quản lý hoạt động tại Trường Kinh doanh Ivey danh tiếng, nhấn mạnh tầm quan trọng của việc phân biệt các ứng dụng phù hợp của các công cụ AI. Ông cảnh báo rằng mặc dù AI vượt trội trong các tác vụ đòi hỏi tính toán chính xác và suy luận logic, nhưng việc áp dụng nó trong các quy trình ra quyết định chủ quan đòi hỏi sự xem xét cẩn thận và giám sát chặt chẽ.
Mô phỏng các thiên kiến của con người trong AI
Để đi sâu vào sự hiện diện của các thiên kiến của con người trong các hệ thống AI, các nhà nghiên cứu đã nghĩ ra một loạt các thử nghiệm mô phỏng các thiên kiến phổ biến của con người, bao gồm ác cảm rủi ro, tự tin thái quá và hiệu ứng sở hữu (endowment effect). Họ đã trình bày cho ChatGPT các lời nhắc được thiết kế để kích hoạt những thiên kiến này và phân tích tỉ mỉ các phản hồi của AI để xác định xem nó có khuất phục trước những cạm bẫy nhận thức tương tự như con người hay không.
Các nhà khoa học đã đặt ra những câu hỏi giả định, được điều chỉnh từ các thí nghiệm tâm lý học truyền thống, cho các LLM. Những câu hỏi này được đóng khung trong bối cảnh các ứng dụng thương mại thực tế, trải rộng trên các lĩnh vực như quản lý hàng tồn kho và đàm phán với nhà cung cấp. Mục tiêu là để xác định xem AI có mô phỏng các thiên kiến của con người hay không và liệu khả năng dễ bị ảnh hưởng bởi những thiên kiến này có tồn tại trên các lĩnh vực kinh doanh khác nhau hay không.
Kết quả cho thấy GPT-4 hoạt động tốt hơn người tiền nhiệm của nó, GPT-3.5, trong việc giải quyết các vấn đề với các giải pháp toán học rõ ràng. GPT-4 thể hiện ít lỗi hơn trong các kịch bản đòi hỏi tính toán xác suất và suy luận logic. Tuy nhiên, trong các mô phỏng chủ quan, chẳng hạn như quyết định có theo đuổi một lựa chọn rủi ro để đảm bảo lợi nhuận hay không, chatbot thường phản ánh những sở thích phi lý mà con người thể hiện.
Ưa thích sự chắc chắn của AI
Đáng chú ý, nghiên cứu tiết lộ rằng “GPT-4 thể hiện sự ưa thích sự chắc chắn mạnh mẽ hơn cả con người.” Quan sát này nhấn mạnh xu hướng của AI là ủng hộ các kết quả an toàn hơn và dễ đoán hơn khi đối mặt với các nhiệm vụ mơ hồ. Khuynh hướng hướng tới sự chắc chắn có thể có lợi trong một số tình huống nhất định, nhưng nó cũng có thể hạn chế khả năng khám phá các giải pháp sáng tạo hoặc thích ứng với các tình huống không lường trước được của AI.
Điều quan trọng là, hành vi của chatbot vẫn nhất quán đáng kể, bất kể các câu hỏi được trình bày dưới dạng các vấn đề tâm lý trừu tượng hay các quy trình kinh doanh hoạt động. Tính nhất quán này cho thấy rằng các thiên kiến được quan sát không chỉ là kết quả của các ví dụ đã ghi nhớ mà là một khía cạnh nội tại của cách các hệ thống AI suy luận và xử lý thông tin. Nghiên cứu kết luận rằng các thiên kiến mà AI thể hiện được nhúng trong các cơ chế suy luận của nó.
Một trong những tiết lộ đáng ngạc nhiên nhất của nghiên cứu là cách GPT-4 đôi khi khuếch đại các lỗi giống con người. Trong các nhiệm vụ thiên kiến xác nhận, GPT-4 liên tục đưa ra các phản hồi thiên vị. Hơn nữa, nó thể hiện một khuynh hướng rõ rệt hơn đối với ngụy biện bàn tay nóng so với GPT 3.5, cho thấy xu hướng mạnh mẽ hơn trong việc nhận thức các mẫu trong tính ngẫu nhiên.
Các trường hợp tránh thiên kiến
Điều thú vị là, ChatGPT đã chứng minh khả năng vượt qua một số thiên kiến phổ biến của con người, bao gồm bỏ qua tỷ lệ cơ bản và ngụy biện chi phí chìm. Bỏ qua tỷ lệ cơ bản xảy ra khi các cá nhân bỏ qua các sự kiện thống kê để ủng hộ thông tin giai thoại hoặc cụ thể theo trường hợp. Ngụy biện chi phí chìm nảy sinh khi việc ra quyết định bị ảnh hưởng quá mức bởi các chi phí đã phát sinh, làm lu mờ phán đoán hợp lý.
Các tác giả cho rằng các thiên kiến giống con người của ChatGPT bắt nguồn từ dữ liệu huấn luyện mà nó được tiếp xúc, bao gồm các thiên kiến nhận thức và kinh nghiệm mà con người thể hiện. Những xu hướng này được củng cố hơn nữa trong quá trình tinh chỉnh, đặc biệt khi phản hồi của con người ưu tiên các phản hồi правдоподобный hơn là các phản hồi hợp lý. Khi đối mặt với các nhiệm vụ mơ hồ, AI có xu hướng hướng tới các mô hình suy luận của con người hơn là chỉ dựa vào logic trực tiếp.
Điều hướng các thiên kiến của AI
Để giảm thiểu rủi ro liên quan đến các thiên kiến của AI, các nhà nghiên cứu ủng hộ một cách tiếp cận thận trọng đối với ứng dụng của nó. Họ khuyên rằng AI nên được sử dụng trong các lĩnh vực mà thế mạnh của nó nằm ở đó, chẳng hạn như các tác vụ đòi hỏi độ chính xác và tính toán không thiên vị, tương tự như những tác vụ do máy tính thực hiện. Tuy nhiên, khi kết quả phụ thuộc vào các đầu vào chủ quan hoặc chiến lược, sự giám sát của con người trở nên tối quan trọng.
Chen nhấn mạnh rằng “Nếu bạn muốn hỗ trợ quyết định chính xác, không thiên vị, hãy sử dụng GPT trong các lĩnh vực mà bạn đã tin tưởng máy tính.” Ông cũng gợi ý rằng sự can thiệp của con người, chẳng hạn như điều chỉnh lời nhắc của người dùng để sửa các thiên kiến đã biết, là điều cần thiết khi AI được sử dụng trong các bối cảnh đòi hỏi phán đoán sắc thái và tư duy chiến lược.
Meena Andiappan, đồng tác giả của nghiên cứu và là phó giáo sư về nguồn nhân lực và quản lý tại Đại học McMaster ở Canada, ủng hộ việc đối xử với AI như một nhân viên đưa ra các quyết định quan trọng. Bà nhấn mạnh sự cần thiết của việc giám sát và các nguyên tắc đạo đức để đảm bảo rằng AI được sử dụng một cách có trách nhiệm và hiệu quả. Việc không cung cấp hướng dẫn như vậy có thể dẫn đến tự động hóa tư duy sai sót, thay vì cải thiện quy trình ra quyết định như mong muốn.
Hàm ý và xem xét
Các phát hiện của nghiên cứu có ý nghĩa sâu sắc đối với sự phát triển và triển khai các hệ thống AI trên các lĩnh vực đa dạng. Tiết lộ rằng AI dễ bị ảnh hưởng bởi các thiên kiến giống con người nhấn mạnh tầm quan trọng của việc đánh giá cẩn thận tính phù hợp của nó đối với các nhiệm vụ cụ thể và thực hiện các biện pháp bảo vệ để giảm thiểu các rủi ro tiềm ẩn.
Các tổ chức dựa vào AI để ra quyết định cần nhận thức được khả năng xảy ra thiên kiến và thực hiện các bước để giải quyết nó. Điều này có thể bao gồm cung cấp thêm dữ liệu huấn luyện để giảm thiên kiến, sử dụng các thuật toán ít bị thiên kiến hơn hoặc thực hiện sự giám sát của con người để đảm bảo rằng các quyết định của AI là công bằng và chính xác.
Nghiên cứu cũng nhấn mạnh sự cần thiết của nghiên cứu sâu hơn về nguyên nhân và hậu quả của thiên kiến AI. Bằng cách hiểu rõ hơn về cách các hệ thống AI phát triển thiên kiến, chúng ta có thể phát triển các chiến lược để ngăn chặn chúng xảy ra ngay từ đầu.
Khuyến nghị về triển khai AI có trách nhiệm
Để đảm bảo việc triển khai các hệ thống AI một cách có trách nhiệm và hiệu quả, cần xem xét các khuyến nghị sau:
- Đánh giá kỹ lưỡng các hệ thống AI về các thiên kiến tiềm ẩn trước khi triển khai. Điều này bao gồm kiểm tra hệ thống AI trên nhiều bộ dữ liệu và kịch bản để xác định bất kỳ lĩnh vực nào mà nó có thể dễ bị thiên kiến.
- Cung cấp thêm dữ liệu huấn luyện để giảm thiên kiến. Dữ liệu huấn luyện càng đa dạng và đại diện, hệ thống AI càng ít có khả năng phát triển thiên kiến.
- Sử dụng các thuật toán ít bị thiên kiến hơn. Một số thuật toán dễ bị thiên kiến hơn các thuật toán khác. Khi chọn một thuật toán cho một tác vụ cụ thể, điều quan trọng là phải xem xét khả năng xảy ra thiên kiến của nó.
- Thực hiện sự giám sát của con người để đảm bảo rằng các quyết định của AI là công bằng và chính xác. Sự giám sát của con người có thể giúp xác định và sửa chữa bất kỳ thiên kiến nào trong các quyết định của AI.
- Thiết lập các nguyên tắc đạo đức rõ ràng cho việc sử dụng AI. Các nguyên tắc này nên giải quyết các vấn đề như công bằng, trách nhiệm giải trình và tính minh bạch.
Bằng cách tuân theo các khuyến nghị này, các tổ chức có thể đảm bảo rằng các hệ thống AI được sử dụng theo cách vừa có lợi vừa có trách nhiệm. Những hiểu biết thu được từ nghiên cứu này đóng vai trò như một lời nhắc nhở có giá trị rằng mặc dù AI hứa hẹn rất nhiều, nhưng điều quan trọng là phải tiếp cận việc triển khai nó một cách thận trọng và cam kết các nguyên tắc đạo đức. Chỉ khi đó, chúng ta mới có thể khai thác toàn bộ tiềm năng của AI đồng thời bảo vệ chống lại những cạm bẫy tiềm ẩn của nó.