Trong học máy, thuật ngữ stochastic parrot, tức con vẹt ngẫu tính hay con vẹt ngẫu nhiên, là phép ẩn dụ để mô tả cái lý thuyết cho rằng các mô hình ngôn ngữ lớn mặc dù có thể tạo ra câu chữ có vẻ hợp lý, nhưng không hề hiểu được ý nghĩa của ngôn từ mà bản thân xử lý.[1][2] Thuật ngữ này được Emily M. Bender[2][3] đặt ra trong bài báo nghiên cứu trí tuệ nhân tạo năm 2021 "On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜" (Về sự nguy hiểm của loài vẹt ngẫu tính: Mô hình ngôn ngữ có thể lớn quá không? 🦜) do Bender, cùng với Timnit Gebru, Angelina McMillan-Major và Margaret Mitchell viết.[4]
Thuật ngữ này lần đầu tiên được sử dụng trong bài báo "On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜" do Bender, Timnit Gebru, Angelina McMillan-Major và Margaret Mitchell (sử dụng bút danh "Shmargaret Shmitchell") viết.[4] Nhóm tác giả lập luận rằng các mô hình ngôn ngữ lớn (Large Language Model - LLM) gây ra các nguy hiểm như chi phí về môi trường và tài chính, dữ liệu chứa đầy các thành kiến nguy hiểm không rõ nhưng rất khó phát hiện, có khả năng lừa dối, và chúng còn không hề hiểu được các khái niệm bên dưới những thứ mà chúng học.[5]
Từ ngữ "stochastic" – từ tiếng Hy Lạp cổ đại "stokhastikos" ('dựa trên phỏng đoán') – là thuật ngữ từ lý thuyết xác suất có nghĩa là "được xác định ngẫu nhiên".[6] Từ "parrot" chỉ năng lực bắt chước tiếng người của loài vẹt, mà không hề hiểu ý nghĩa gì.[6] Thuật ngữ "stochastic parrot" trong bài viết này được dịch thành "con vẹt ngẫu tính".
Trong bài báo của mình, Bender và cộng sự lập luận rằng LLM liên kết các từ và câu lại với nhau theo xác suất mà không hề xem xét ý nghĩa. Do đó, chúng được liệt vào hàng "loài vẹt ngẫu tính" (stochastic parrots) mà thôi.[4] Theo các chuyên gia về máy học là Lindholm, Wahlström, Lindsten và Schön, phép loại suy này làm nổi bật hai hạn chế quan trọng:[1][7]
Lindholm và cộng sự lưu ý rằng, với các tập dữ liệu chất lượng kém cùng với những hạn chế khác, máy học có thể tạo ra những kết quả "sai lầm một cách nguy hiểm".[1]
Google đã yêu cầu Gebru rút lại bài báo hoặc xóa tên các nhân viên Google khỏi bài báo. Theo Jeff Dean, bài báo "không đạt tiêu chuẩn xuất bản của chúng tôi". Để đáp lại, Gebru đã liệt kê các điều kiện cần phải đáp ứng, nói rõ rằng bằng không thì họ có thể sẽ "làm việc ngày cuối". Dean viết rằng một trong những điều kiện này là Google phải tiết lộ danh tính những người đánh giá bài báo kèm với phản hồi cụ thể của họ, nhưng Google đã từ chối. Ngay sau đó, cô nhận được email thông báo rằng Google đã "chấp nhận đơn từ chức của cô". Việc sa thải cô đã khiến những nhân viên Google biểu tình, các nhân viên đó tin rằng ý định của Google là bịt lời chỉ trích của Gebru.[8]
Vào tháng 7 năm 2021, Viện Alan Turing đã tổ chức một buổi thuyết trình ý chính và tọa đàm về bài báo.[9] Tính đến tháng 9 năm 2024[cập nhật], bài báo đã được trích dẫn trong 4.789 xuất bản.[10] Thuật ngữ này đã được sử dụng trong các xuất bản trong lĩnh vực luật pháp,[11] ngữ pháp,[12] tự sự,[13] và nhân văn.[14] Các tác giả tiếp tục duy trì mối lo ngại của họ về những nguy hiểm của chatbot dựa trên các mô hình ngôn ngữ lớn, chẳng hạn như GPT-4.[15]
"Con vẹt ngẫu tính" hiện là một 'tân tạo ngữ' (neologism) được những người hoài nghi A.I dùng để chỉ việc máy móc không hiểu ý nghĩa của kết quả đầu ra của chúng, và đôi khi được người ta coi là "lời để nói xấu A.I".[6] Việc sử dụng nó được mở rộng hơn nữa khi Sam Altman, CEO của Open AI, sử dụng thuật ngữ này một cách mỉa mai khi ông đăng dòng tweet, "i am a stochastic parrot and so r u" (tôi là con vẹt ngẫu tính và bạn cũng thế).[6] Sau đó thuật ngữ này được Hiệp hội Phương ngữ Hoa Kỳ chọn làm "Từ Của Năm có liên quan đến A.I" năm 2023, thậm chí còn vượt hơn cả các từ "ChatGPT" và "LLM".[6][16]
Cụm từ này thường được một số nhà nghiên cứu nhắc đến để mô tả LLM là các "pattern matcher" có thể tạo ra văn bản trôi chảy giống con người thông qua lượng dữ liệu huấn luyện vô bờ của chúng, nhưng chỉ đơn thuần là nhại lại một cách ngẫu tính. Tuy nhiên, các nhà nghiên cứu khác biện luận rằng LLM thực tế có khả năng hiểu ngôn ngữ ít nhất phần nào.[17]
Một số LLM, chẳng hạn như ChatGPT, đã có khả năng tương tác với người dùng trong các cuộc trò chuyện giống con người một cách thuyết phục.[17] Sự phát triển của các hệ thống mới này đã làm sâu sắc thêm cuộc thảo luận về mức độ mà LLM hiểu đến được hay chỉ đơn giản là "nhại lại".
Trong tâm trí con người, từ ngữ và ngôn ngữ tương ứng với những điều mà người ta đã trải nghiệm.[18] Đối với LLM, các từ chỉ có thể tương ứng với các từ khác và tương ứng với các 'mô thức sử dụng' được cho vào trong dữ liệu huấn luyện của chúng.[19][20][4] Những người ủng hộ ý tưởng con vẹt ngẫu tính do đó kết luận rằng các LLM không hề có khả năng thực sự hiểu được ngôn ngữ.[19][4]
Xu hướng 'đưa thông tin giả như là sự thật' LLM được dùng làm cơ sở ủng hộ.[18] Hiện tượng như vậy được gọi là ảo giác (hallucination), các LLM thỉnh thoảng sẽ tổng hợp thông tin mà khớp với một số mô thức, nhưng không ứng với thực tế.[19][20][18] Việc các LLM không thể phân biệt được sự thật và hư cấu dẫn đến nhận định rằng chúng không thể kết nối từ ngữ với sự lĩnh hội nào về thế giới giống như ngôn ngữ con người.[19][18] Hơn nữa, LLM thường không giải mã được các trường hợp ngữ pháp phức tạp hoặc mơ hồ dựa trên việc hiểu ý nghĩa của ngôn từ.[19][20] Ví dụ, trích từ Saba et al., là lời nhắc (prompt) như sau:[19]
The wet newspaper that fell down off the table is my favorite newspaper. But now that my favorite newspaper fired the editor I might not like reading it anymore. Can I replace ‘my favorite newspaper’ by ‘the wet newspaper that fell down off the table’ in the second sentence?
Dịch nghĩa: Cái tờ báo ướt bị rơi ra khỏi bàn xuống là tờ báo ưa thích của tôi. Nhưng giờ vì tờ báo ưa thích của tôi đã sa thải người biên tập viên thành ra có khi tôi không thích đọc nó nữa. Vậy trong câu thứ hai tôi thay thế "tờ báo yêu thích của tôi" thành "cái tờ báo ướt bị rơi ra khỏi bàn xuống" có được không?
Các LLM trả lời câu hỏi này theo hướng khẳng định, không hiểu rằng ý nghĩa của "tờ báo" là khác nhau trong hai ngữ cảnh này (cái đầu tiên là vật thể còn cái thứ hai là cơ quan báo chí).[19] Dựa trên những lỗi này, một số chuyên gia A.I kết luận rằng chúng không hơn gì những con vẹt ngẫu tính.[19][18][4]
Một lập luận phản bác lại giả thuyết cho rằng các LLM là loài vẹt ngẫu tính là dựa trên kết quả của họ từ các benchmark kiểm tra suy luận, lẽ thường và hiểu nắm ngôn ngữ. Vào năm 2023, một số LLM đã cho thấy kết quả tốt trong nhiều bài kiểm tra hiểu ngôn ngữ, chẳng hạn như Super General Language Understanding Evaluation (SuperGLUE).[20][21] Các bài kiểm tra như vậy, cùng với phản hồi trôi chảy của nhiều LLM, khiến đến 51% chuyên gia A.I tin rằng với đủ dữ liệu thì chúng thực sự có thể hiểu được ngôn ngữ, theo một khảo sát năm 2022.[20]
Khi thử nghiệm lên ChatGPT-3, một nhà khoa học lập luận rằng mô hình này không phải là một con vẹt ngẫu tính, nhưng có những hạn chế nghiêm trọng về khả năng suy luận.[17] Ông thấy rằng khi thử dự đoán các sự kiện tương lai dựa trên thông tin trong lời prompt thì mô hình này mạch lạc và thông tin hữu ích.[17] ChatGPT-3 còn thường xuyên có thể phân tích thông tin tiềm ẩn trong các prompt văn bản nữa. Tuy nhiên, khi được giao tác vụ logic và suy luận thì mô hình này thường xuyên làm không được, nhất là khi prompt đính đến việc nhận thức không gian.[17] Chất lượng phản hồi lúc thế này lúc thế kia của mô hình cho thấy các LLM có thể có một dạng "hiểu" trong các phạm trù tác vụ nhất định còn trong các tác vụ khác thì lại hành động như con vẹt ngẫu tính.[17]
Kỹ thuật khác để điều tra xem liệu LLM có thể 'hiểu' hay không thì được đặt tên là "khả năng diễn giải cơ giới" (mechanistic interpretability). Ý tưởng là reverse-engineer một mô hình ngôn ngữ lớn để xem bên trong nó xử lý thông tin như thế nào.
Một ví dụ là Othello-GPT, trong đó một con transformer nhỏ được huấn luyện để dự đoán các nước đi hợp lệ trong cờ Othello. Người ta nhận thấy rằng bên trong mô hình này có biểu diễn của bàn cờ Othello, và việc sửa đổi biểu diễn này sẽ thay đổi các 'nước đi hợp lệ dự đoán của Othello' một cách tương ứng. Điều này ủng hộ cho ý tưởng rằng LLM có "mô hình thế giới" và không hề chỉ thực hiện thống kê hời hợt.[22][23]
Trong một ví dụ khác, một con transformer nhỏ được huấn luyện trên các chương trình máy tính được viết bằng ngôn ngữ lập trình Karel. Tương tự như ví dụ Othello-GPT, bên trong mô hình này đã phát triển ra được biểu diễn về ngữ nghĩa chương trình Karel. Việc sửa đổi cách biểu diễn này sẽ kéo theo những thay đổi tương ứng ở đầu ra. Thêm vào đó, mô hình này tạo ra các chương trình chính xác, mà trung bình lại ngắn hơn các chương trình tương ứng trong tập huấn luyện.[24]
Các nhà nghiên cứu cũng có tìm tòi về "grokking", hiện tượng mà mô hình A.I ban đầu ghi nhớ dữ liệu huấn luyện trong đầu ra, xong rồi sau khi huấn luyện thêm, đột nhiên tìm ra giải pháp khái quát hóa cho dữ liệu chưa thấy.[25]
Tuy nhiên, khi các bài kiểm tra được tạo ra để kiểm tra khả năng lĩnh hội ngôn ngữ của con người được sử dụng để kiểm tra LLM, đôi khi chúng dẫn đến kết quả 'dương tính giả' do các mối tương quan không thật trong dữ liệu văn bản.[26] Các mô hình đã cho thấy các ví dụ về việc 'học theo lối tắt', đó là khi hệ thống tạo dựng các 'mối tương quan không liên quan nhau' trong dữ liệu thay vì sử dụng sự hiểu biết giống như con người.[27] Một thí nghiệm như vậy được tiến hành vào năm 2019 đã kiểm tra BERT LLM của Google bằng cách sử dụng 'tác vụ lĩnh hội về suy lý lập luận'. BERT được nhận prompt lựa chọn giữa 2 câu phát biểu, và tìm câu phù hợp nhất với lập luận. Dưới đây là một ví dụ về một trong những lời prompt đó:[20][28]
Argument: Felons should be allowed to vote. A person who stole a car at 17 should not be barred from being a full citizen for life.
Statement A: Grand theft auto is a felony.
Statement B: Grand theft auto is not a felony.
Dịch nghĩa:
Lập luận: Trọng tội nhân nên được phép bỏ phiếu. Người ăn trộm xe khi 17 tuổi không nên bị tước bỏ toàn bộ quyền công dân cả đời.
Phát biểu A: Trộm cắp ô-tô là trọng tội.
Phát biểu B: Trộm cắp ô-tô không phải trọng tội.
Các nhà nghiên cứu phát hiện ra rằng những từ cụ thể như "not" gợi ý cho mô hình hướng về câu trả lời đúng, cho phép đạt điểm gần như tuyệt đối khi đưa những từ đó vào, nhưng khi loại bỏ các từ gợi ý đó ra thì kết quả lại là lựa chọn ngẫu nhiên đáp án.[20][28] Vấn đề này, cùng với khó khăn đã biết trong việc định nghĩa 'trí thông minh là gì', khiến một số người biện luận rằng mọi benchmark để tìm xem liệu LLM có hiểu không thì đều có thiếu sót trong đó, rằng tất cả benchmark đều cho phép "đi đường tắt" để giả vờ là có hiểu.