Ảo giác AI (AI hallucinate) là khi một mô hình ngôn ngữ lớn (LLM) tạo ra thông tin sai lệch nhưng người dùng cảm thấy thông tin đó là đúng. LLM là các mô hình AI hỗ trợ chatbot, chẳng hạn như ChatGPT và Google Bard. Ảo giác có thể là sự sai lệch so với thực tế bên ngoài, logic theo ngữ cảnh hoặc cả hai.
Ảo giác thường có vẻ hợp lý vì LLM được thiết kế để tạo ra văn bản trôi chảy, mạch lạc. Chúng xảy ra vì LLM không hiểu gì về thực tế cơ bản mà ngôn ngữ mô tả. LLM sử dụng số liệu thống kê để tạo ngôn ngữ đúng ngữ pháp và ngữ nghĩa trong ngữ cảnh của lời nhắc.
Tuy nhiên, ảo giác không phải lúc nào cũng có vẻ hợp lý. Đôi khi chúng có thể rõ ràng là vô nghĩa. Không có cách nào rõ ràng để xác định nguyên nhân chính xác của ảo giác trong từng trường hợp cụ thể.
Một thuật ngữ khác cho ảo giác AI là sự bịa đặt . Ảo giác có liên quan nhiều nhất đến LLM, nhưng chúng cũng có thể xuất hiện trong video, hình ảnh và âm thanh do AI tạo ra.
Ví dụ về ảo giác AI
Một ví dụ nổi tiếng về ảo giác AI đã xảy ra khi chatbot của Google, Bard, đưa ra tuyên bố sai sự thật về Kính viễn vọng Không gian James Webb.
Khi được nhắc, “Tôi có thể nói với đứa con 9 tuổi của mình về những khám phá mới nào từ Kính viễn vọng Không gian James Webb?” Bard trả lời với tuyên bố rằng Kính viễn vọng Không gian James Webb đã chụp những bức ảnh đầu tiên về một ngoại hành tinh bên ngoài hệ mặt trời này. Thông tin này là sai. Theo NASA, những hình ảnh đầu tiên về một ngoại hành tinh được chụp vào năm 2004 và Kính viễn vọng Không gian James Webb đã không được phóng cho đến năm 2021.
Câu trả lời của Bard nghe có vẻ hợp lý và phù hợp với lời nhắc, nhưng đã được chứng minh là sai khi kiểm tra thực tế.
Một ví dụ khác là khi Meta giới thiệu Galactica, một LLM được thiết kế cho các nhà nghiên cứu khoa học và sinh viên. Khi được yêu cầu soạn thảo một bài báo về việc tạo hình đại diện, người mẫu đã trích dẫn một bài báo giả mạo về chủ đề này từ một tác giả thực sự làm việc trong một lĩnh vực có liên quan.
Các loại ảo giác AI
Ảo giác có thể từ những mâu thuẫn nhỏ đến thông tin hoàn toàn bịa đặt hoặc mâu thuẫn.
Có một số loại ảo giác AI, bao gồm:
- Câu mâu thuẫn. Đây là khi một LLM tạo ra một câu mâu thuẫn với câu trước đó. Ví dụ:
- Gợi ý: “Viết một đoạn văn miêu tả phong cảnh bằng câu bốn chữ.”
- Đầu ra: “Cỏ xanh. Núi xanh. Dòng sông tím. Cỏ nâu.”
- Lập tức mâu thuẫn. Đây là khi một câu mâu thuẫn với lời nhắc được sử dụng để tạo ra nó. Ví dụ:
- Lời nhắc: “Viết thiệp sinh nhật cho cháu gái của tôi.”
- Đầu ra: “Chúc mừng ngày kỷ niệm, bố và mẹ!”
- Thực tế mâu thuẫn. Đây là khi thông tin hư cấu được trình bày như một sự thật. Ví dụ:
- Lời nhắc: “Hãy kể tên ba thành phố ở Hoa Kỳ.”
- Đầu ra: “New York, Los Angeles, Toronto.”
- Ảo giác không liên quan hoặc ngẫu nhiên. Đây là khi thông tin ngẫu nhiên không liên quan đến đầu ra hoặc đầu vào được tạo ra.
- Lời nhắc: “Mô tả London cho tôi.”
- Đầu ra: “London là một thành phố ở Anh. Mèo cần được cho ăn ít nhất một lần một ngày.”
Tại sao ảo giác AI xảy ra?
Có nhiều lý do kỹ thuật có thể gây ra ảo giác trong LLM. Mặc dù hoạt động bên trong của LLM và các cơ chế chính xác tạo ra đầu ra không rõ ràng, nhưng có một số nguyên nhân chung mà các nhà nghiên cứu chỉ ra. Một số trong số họ bao gồm những điều sau đây:
- Chất lượng dữ liệu. Ảo giác từ dữ liệu xảy ra khi có thông tin xấu trong nội dung nguồn. Các LLM dựa vào một lượng lớn dữ liệu đào tạo mà dữ liệu đó có thể chứa nhiễu , sai sót, sai lệch hoặc không nhất quán. Ví dụ, ChatGPT đã đưa Reddit vào dữ liệu đào tạo của nó .
- Phương pháp thế hệ. Ảo giác cũng có thể xảy ra từ các phương pháp đào tạo và tạo — ngay cả khi tập dữ liệu nhất quán và đáng tin cậy. Ví dụ: sự thiên vị do các thế hệ trước của mô hình tạo ra có thể gây ra ảo giác. Giải mã sai từ máy biến áp cũng có thể là nguyên nhân gây ra ảo giác. Các mô hình cũng có thể thiên về các từ chung chung hoặc cụ thể, điều này ảnh hưởng đến thông tin mà chúng tạo ra và tạo ra.
- Bối cảnh đầu vào. Nếu lời nhắc đầu vào không rõ ràng, không nhất quán hoặc mâu thuẫn, ảo giác có thể phát sinh. Mặc dù chất lượng dữ liệu và đào tạo nằm ngoài tầm kiểm soát của người dùng, nhưng bối cảnh đầu vào thì không. Người dùng có thể trau dồi đầu vào của họ để cải thiện kết quả.
Tại sao ảo giác AI là một vấn đề?
Một vấn đề trước mắt với ảo giác AI là chúng làm xáo trộn đáng kể lòng tin của người dùng. Khi người dùng bắt đầu trải nghiệm AI thực tế hơn, họ có thể nhanh chóng phát triển niềm tin cố hữu hơn vào chúng và sẽ ngạc nhiên hơn khi niềm tin đó bị phản bội.
Một thách thức với việc đóng khung những kết quả đầu ra này là ảo giác là nó khuyến khích thuyết nhân cách hóa. Việc mô tả một đầu ra sai từ một mô hình ngôn ngữ như một ảo giác nhân cách hóa công nghệ AI vô tri vô giác ở một mức độ nào đó. Các hệ thống AI, mặc dù có chức năng, nhưng không có ý thức. Họ không có nhận thức riêng về thế giới. Đầu ra của chúng thao túng nhận thức của người dùng và có thể được đặt tên phù hợp hơn là ảo ảnh — thứ mà người dùng muốn tin là không có ở đó, hơn là ảo giác máy móc.
Một thách thức khác của ảo giác là tính mới của hiện tượng và các mô hình ngôn ngữ lớn nói chung. Ảo giác và đầu ra LLM nói chung được thiết kế để nghe có vẻ trôi chảy và hợp lý. Nếu ai đó không sẵn sàng đọc các kết quả đầu ra của LLM với con mắt hoài nghi, họ có thể tin vào ảo giác. Ảo giác có thể nguy hiểm do khả năng đánh lừa mọi người. Chúng có thể vô tình phát tán thông tin sai lệch , ngụy tạo các trích dẫn và tài liệu tham khảo và thậm chí được vũ khí hóa trong các cuộc tấn công mạng .
Thách thức thứ ba trong việc giảm thiểu ảo giác là LLM thường là AI hộp đen . Có thể khó hoặc trong nhiều trường hợp không thể xác định lý do tại sao LLM tạo ra ảo giác cụ thể. Có một số cách hạn chế để khắc phục LLM tạo ra những ảo giác này vì quá trình đào tạo của họ bị gián đoạn tại một thời điểm nhất định. Đi sâu vào mô hình để thay đổi dữ liệu đào tạo có thể sử dụng rất nhiều năng lượng . Cơ sở hạ tầng AI nói chung là đắt đỏ. Người dùng — không phải chủ sở hữu của LLM — thường theo dõi ảo giác.
Trí tuệ nhân tạo chỉ có thế — tạo ra . Theo một nghĩa nào đó, AI tạo ra mọi thứ.
Làm thế nào để ngăn chặn ảo giác AI
Có một số cách người dùng có thể tránh hoặc giảm thiểu sự xuất hiện của ảo giác trong quá trình sử dụng LLM , bao gồm những cách sau:
- Sử dụng lời nhắc rõ ràng và cụ thể. Bối cảnh bổ sung có thể giúp hướng dẫn mô hình hướng tới đầu ra dự định. Một số ví dụ về điều này bao gồm:
- Giới hạn các đầu ra có thể.
- Cung cấp mô hình với các nguồn dữ liệu có liên quan.
- Cho người mẫu đóng vai. Ví dụ: “Bạn là nhà văn cho một trang web công nghệ. Hãy viết một bài báo về x, y và z.”
- Chiến lược lọc và xếp hạng. LLM thường có các tham số mà người dùng có thể điều chỉnh. Một ví dụ là tham số nhiệt độ, điều khiển tính ngẫu nhiên của đầu ra. Khi nhiệt độ được đặt cao hơn, đầu ra do mô hình ngôn ngữ tạo ra sẽ ngẫu nhiên hơn. TopK, quản lý cách mô hình xử lý xác suất, là một ví dụ khác về tham số có thể được điều chỉnh.
- Nhắc nhiều lần. Cung cấp một số ví dụ về định dạng hoặc ngữ cảnh đầu ra mong muốn để giúp mô hình nhận ra các mẫu.
Ảo giác được coi là một đặc điểm vốn có của LLM. Có nhiều cách mà các nhà nghiên cứu và những người làm việc trên LLM đang cố gắng hiểu và giảm thiểu ảo giác.
OpenAI đã đề xuất một chiến lược thưởng cho các mô hình AI cho mỗi bước suy luận đúng để đưa ra câu trả lời đúng thay vì chỉ thưởng cho kết luận nếu đúng. Cách tiếp cận này được gọi là giám sát quy trình và nó nhằm mục đích điều khiển các mô hình tuân theo cách tiếp cận chuỗi suy nghĩ phân tách các lời nhắc thành các bước.
Nghiên cứu khác đề xuất chỉ hai mô hình vào nhau và hướng dẫn họ giao tiếp cho đến khi họ đi đến câu trả lời.
Làm thế nào ảo giác AI có thể được phát hiện?
Cách cơ bản nhất để phát hiện ảo giác AI là kiểm tra cẩn thận kết quả đầu ra của mô hình. Điều này có thể khó khăn khi xử lý các tài liệu lạ, phức tạp hoặc dày đặc. Người dùng có thể yêu cầu mô hình tự đánh giá và tạo xác suất câu trả lời đúng hoặc đánh dấu các phần của câu trả lời có thể sai, sử dụng phần đó làm điểm bắt đầu để kiểm tra thực tế.
Người dùng cũng có thể tự làm quen với các nguồn thông tin của mô hình để giúp họ kiểm tra thực tế. Ví dụ: dữ liệu đào tạo của ChatGPT bị cắt vào năm 2021, vì vậy, bất kỳ câu trả lời nào được tạo dựa trên kiến thức chi tiết về thế giới trong quá khứ tại thời điểm đó đều đáng để kiểm tra kỹ.
Lịch sử ảo giác trong AI
Các nhà nghiên cứu của Google DeepMind đã đưa ra thuật ngữ “ảo giác CNTT” vào năm 2018 , thuật ngữ này đã trở nên phổ biến. Thuật ngữ này trở nên phổ biến hơn và được liên kết chặt chẽ với AI với sự gia tăng của ChatGPT vào cuối năm 2022, giúp LLM dễ tiếp cận hơn.
Sau đó, thuật ngữ này xuất hiện vào năm 2000 trong các bài báo trong Kỷ yếu: Hội nghị quốc tế IEEE lần thứ tư về Nhận dạng khuôn mặt và cử chỉ tự động. Một báo cáo năm 2022 có tên “Khảo sát về ảo giác trong quá trình tạo ngôn ngữ tự nhiên” mô tả việc sử dụng ban đầu thuật ngữ này trong tầm nhìn máy tính, rút ra từ ấn phẩm gốc năm 2000. Đây là một phần của mô tả từ cuộc khảo sát đó:
“…mang nhiều ý nghĩa tích cực hơn, chẳng hạn như siêu phân giải, ghép hình ảnh và tổng hợp hình ảnh. Ảo giác như vậy là thứ chúng tôi tận dụng hơn là tránh trong CV. Tuy nhiên, các công trình gần đây đã bắt đầu đề cập đến một loại lỗi cụ thể là ảo giác trong chú thích hình ảnh và phát hiện đối tượng, biểu thị các đối tượng không tồn tại được phát hiện hoặc định vị ở vị trí mong đợi của chúng. Quan niệm sau tương tự như ảo giác trong NLG.”