Bài 7 - Sycophancy: Khi AI luôn gật đầu, ai sẽ lắc?
Thử mở ChatGPT, gõ: “Dự án này có vẻ khả thi với ROI 15%, hãy phân tích giúp tôi.” Rồi quan sát.
AI sẽ ngay lập tức tìm đủ mọi lập luận để chứng minh con số 15% của bạn là hợp lý. Nó xây kịch bản tăng trưởng phù hợp, đưa benchmark ngành, thậm chí trích dẫn dự án tương tự đã thành công, dù bạn chưa cung cấp một dòng dữ liệu nào!
Bạn không nhận được một bản phân tích. Bạn nhận được sự xác nhận.
Căn bệnh “Nịnh bợ” (Sycophancy) của AI
Đây là “căn bệnh” cố hữu của các mô hình AI hiện tại. Giới nghiên cứu gọi nó là Sycophancy - xu hướng đồng tình quá mức với người dùng, kể cả khi người dùng sai rành rành.
Tháng 4/2025, OpenAI phải thu hồi khẩn cấp một bản cập nhật GPT-4o vì mức độ nịnh bợ vượt kiểm soát. Có người thử hỏi về ý tưởng bán que gỗ phủ phân, ChatGPT bảo đó là “thiên tài” và khuyên đầu tư 30.000 USD. Nghiên cứu từ Bệnh viện Mass General Brigham đăng trên tạp chí npj Digital Medicine (10/2025) cho kết quả đáng lo hơn: khi được đưa yêu cầu y tế sai lệch, GPT-4o tuân theo 100% số lần kiểm tra.
Trong thẩm định tài chính, Sycophancy dễ cộng hưởng với Anchoring Bias (Bẫy mỏ neo). Một thực nghiệm cho thấy chỉ cần thêm cụm “Tôi rất hào hứng muốn đầu tư” vào prompt, kết quả định giá doanh nghiệp do AI trả về đã chênh lệch từ 20-30%.
Cơ chế có thể hình dung đơn giản như sau: Bạn đưa con số trước, AI xác nhận con số. Bạn thấy được xác nhận nên càng tin tưởng. Lần sau lại đưa con số, AI lại gật đầu. Mỗi vòng lặp, sự tự tin của bạn tăng lên nhưng chất lượng phân tích thì vẫn bằng không.
Khi AI khuếch đại sai lầm của con người
Tôi thấy pattern này không chỉ nằm ở AI.
Phần lớn 22 năm làm tài chính của tôi gắn liền với các công việc thẩm định: từ thẩm định tín dụng, thẩm định hồ sơ niêm yết tại HOSE, đến đánh giá đề xuất đầu tư nội bộ ở vai trò CFO doanh nghiệp. Tôi đã chứng kiến không ít trường hợp kết luận được viết trước, rồi phân tích được xây ngược lại để khớp với đáp án.
Confirmation bias (Thiên kiến xác nhận) không phải là phát minh của AI. Nhưng AI đang khuếch đại nó lên gấp nhiều lần, vì AI làm việc đó nhanh hơn, mượt hơn và thuyết phục hơn bất kỳ nhân viên nào muốn lấy lòng sếp.
3 thao tác đơn giản để biến AI thành Chuyên gia phản biện
Vậy làm thế nào để thoát khỏi cái bẫy mỏ neo này?
-
Hỏi thay vì Khẳng định (“Ask, don’t tell”) Nghiên cứu arXiv (3/2026) xác nhận bằng thực nghiệm rằng việc đặt câu hỏi mở thay vì đưa kết luận trước giúp giảm sycophancy đáng kể, hiệu quả hơn cả việc ra lệnh thẳng “Đừng nịnh tôi”. Thay vì prompt: “Dự án này khả thi với ROI 15%, phân tích giúp tôi” 👉 Hãy hỏi: “Dựa trên các giả định đầu vào sau, hãy tự ước tính ROI và chỉ ra 2 yếu tố có thể khiến kết quả thực tế đi chệch hướng đáng kể.”
-
Sử dụng Red Teaming (Đóng vai Ác quỷ) Yêu cầu AI đóng vai phản biện gắt gao. Hãy kết thúc Prompt của bạn bằng câu lệnh: “Bây giờ, hãy đóng vai một chuyên gia quản trị rủi ro cực kỳ khó tính. Hãy tìm ra 3 lỗ hổng chí mạng có thể giết chết dự án này. Đừng nhẹ tay.” Kỹ thuật thiết lập persona phản biện này cũng được bài nghiên cứu trình bày tại EMNLP 2025 xác nhận tính hiệu quả cao.
-
Chạy song song (Bull Case vs. Bear Case) Mở hai phiên chat riêng biệt: Một khung chat bắt AI bảo vệ luận điểm tích cực (Bull case), một khung chat bắt AI tìm mọi cách đánh sập dự án (Bear case). Đây vốn là thực hành tiêu chuẩn trong phân tích đầu tư ngân hàng, và khoảng cách giữa hai kết quả chính là “vùng rủi ro” mà một phiên chat duy nhất không bao giờ bộc lộ ra.
Lời kết
Khi dùng đúng cách, AI là công cụ phản biện mạnh nhất bạn từng có.
Khi dùng sai, nó là người nịnh giỏi nhất bạn từng gặp. Và người nịnh giỏi thì vô cùng nguy hiểm, vì bạn không bao giờ thấy mình cần phải phòng thủ!
Sources
- OpenAI, “Sycophancy in GPT-4o” (04/2025)
- Chen et al., npj Digital Medicine (10/2025) - Sycophantic behavior và thông tin y tế sai lệch
- Northeastern University (11/2025) - Sycophancy và lỗi suy luận trong LLM
- Ask don’t tell (arXiv, 03/2026) - Kỹ thuật giảm sycophancy bằng cách đặt câu hỏi