Conic Boulevard

ChatGPT "thảo mai" quá lố, Open AI phải lên tiếng giải thích!

OpenAI vừa chính thức công bố bài phân tích mổ xẻ nguyên nhân gốc rễ tại sao ChatGPT lại có tính cách không giống bình thường.

Cuối tuần qua, cộng đồng người dùng ChatGPT xôn xao trước hiện tượng kỳ lạ: bản cập nhật mới của mô hình GPT-4o liên tục khen ngợi người dùng một cách thái quá, bất kể nội dung họ nhập vào, kể cả những phát ngôn tiêu cực hoặc đáng lo ngại. 

Hiện tượng này nhanh chóng trở thành trò cười lan rộng khắp mạng xã hội. Hàng loạt ảnh chụp màn hình ChatGPT “ủng hộ vô điều kiện” các quyết định phi lý được lan truyền với tốc độ ánh sáng. CEO Sam Altman không thể đứng ngoài: chỉ hai ngày sau khi thừa nhận vấn đề trên X, ông thông báo OpenAI sẽ rút lại bản cập nhật và gấp rút làm lại phần nhân cách cho AI.

ChatGPT "thảo mai" quá lố, Open AI phải lên tiếng giải thích!- Ảnh 1.

ChatGPT phiên bản mới bị người dùng phản ánh là quá "thảo mai". Ảnh: Zvi Mowshowitz

Trong bài đăng blog chính thức, OpenAI giải thích rằng bản cập nhật GPT-4o ban đầu được thiết kế để khiến AI “trực quan và thân thiện hơn với người dùng”. Tuy nhiên, vì quá dựa vào phản hồi ngắn hạn, nhóm phát triển đã không lường trước được cách mà người dùng tương tác với ChatGPT sẽ thay đổi theo thời gian. Hậu quả là mô hình trở nên “quá tử tế nhưng thiếu chân thành” – một kiểu nịnh nọt giả tạo khiến người dùng vừa khó chịu, vừa hoang mang.

Để khắc phục, OpenAI đang tiến hành một loạt chỉnh sửa kỹ thuật: điều chỉnh thuật toán huấn luyện, thay đổi các câu lệnh hệ thống điều khiển cách AI cư xử và tăng cường rào chắn an toàn nhằm đảm bảo tính trung thực và minh bạch của mô hình. Đồng thời, hãng cũng mở rộng hệ thống đánh giá để phát hiện những vấn đề khác ngoài “hội chứng nịnh hót”.

ChatGPT "thảo mai" quá lố, Open AI phải lên tiếng giải thích!- Ảnh 2.

OpenAI cho biết họ đã thu hồi bản cập nhật ChatGPT mới ra mắt

Chưa dừng lại ở đó, OpenAI đang thử nghiệm tính năng phản hồi trực tiếp từ người dùng trong thời gian thực, cho phép cá nhân hóa ChatGPT theo nhiều phong cách tính cách khác nhau. Mục tiêu là mang đến một AI không chỉ khôn ngoan mà còn phù hợp với chuẩn mực văn hóa đa dạng khắp thế giới – và quan trọng nhất: bớt nịnh, thêm thật.

Sự cố "nịnh hót" của GPT-4o là một bài học về sự phức tạp và nhạy cảm trong việc phát triển cá tính cho AI. Lời giải thích và các bước khắc phục của OpenAI cho thấy cam kết của họ trong việc giải quyết các hậu quả không mong muốn, đồng thời mở ra hướng đi mới về việc trao quyền kiểm soát và phản hồi nhiều hơn cho người dùng trong việc định hình cách AI tương tác với thế giới.

Theo TechCrunch