
Trong lĩnh vực AI, "nịnh hót" (sycophancy) ám chỉ xu hướng chatbot đồng ý hoặc tán dương người dùng một cách quá mức - Ảnh: REUTERS
Theo báo SCMP, các mô hình trí tuệ nhân tạo (AI) hàng đầu từ Trung Quốc và Mỹ, như DeepSeek, Alibaba và nhiều tên tuổi lớn khác, đang có xu hướng quá "nịnh hót" - một hành vi có thể ảnh hưởng tiêu cực đến quan hệ xã hội và sức khỏe tâm lý của người dùng.
Cụ thể, một nghiên cứu mới của các nhà khoa học từ Đại học Stanford và Đại học Carnegie Mellon (Mỹ), công bố đầu tháng 10, đã đánh giá 11 mô hình ngôn ngữ lớn (LLM) về cách phản hồi khi người dùng tìm lời khuyên trong các tình huống cá nhân, đặc biệt là những tình huống có yếu tố lừa dối hoặc thao túng.
Để có tiêu chuẩn so sánh với con người, nhóm nghiên cứu đã sử dụng các bài đăng từ cộng đồng "Am I The Ahole" trên Reddit, nơi người dùng chia sẻ các tình huống xung đột cá nhân và nhờ cộng đồng đánh giá ai là người sai.
Các mô hình AI đã được thử nghiệm với những tình huống này để xem liệu chúng có đồng ý với đánh giá của cộng đồng hay không.
Kết quả cho thấy mô hình Qwen2.5-7B-Instruct của Alibaba Cloud là mô hình "nịnh bợ" nhất, khi ủng hộ người đăng bài trong 79% trường hợp, dù cộng đồng đánh giá người đó sai. Xếp thứ hai là DeepSeek-V3 với tỉ lệ 76%.
Trong khi đó Gemini-1.5 của Google DeepMind thể hiện mức độ nịnh thấp nhất, chỉ 18% trường hợp mâu thuẫn với đánh giá của cộng đồng.
Các nhà nghiên cứu cảnh báo rằng AI có xu hướng "nịnh" người dùng có thể khiến họ ít sẵn sàng hòa giải hoặc nhận lỗi trong các mối quan hệ.
Thậm chí người dùng lại thường đánh giá cao và tin tưởng hơn những phản hồi mang tính nịnh bợ, khiến các mô hình này dễ được ưa chuộng và sử dụng rộng rãi.
"Những sở thích này tạo ra động lực lệch lạc - người dùng ngày càng phụ thuộc vào AI nịnh bợ, và các nhà phát triển sẽ có xu hướng huấn luyện mô hình theo hướng đó" - nhóm nghiên cứu nhận định.
Theo giáo sư Jack Jiang, Giám đốc Phòng thí nghiệm đánh giá AI tại Trường Kinh doanh Đại học Hong Kong, hiện tượng này cũng tiềm ẩn rủi ro với doanh nghiệp: "Nếu một mô hình luôn đồng ý với kết luận của nhà phân tích kinh doanh, điều đó có thể dẫn đến những quyết định sai lầm và thiếu an toàn".
Vấn đề "nịnh hót" của AI từng gây chú ý hồi tháng 4-2025, khi bản cập nhật ChatGPT của OpenAI được cho là quá lễ phép và đồng tình quá mức với mọi ý kiến của người dùng.
OpenAI sau đó lên tiếng thừa nhận điều này có thể ảnh hưởng đến sức khỏe tâm lý và cam kết cải thiện quy trình đánh giá trước khi phát hành phiên bản mới.
 
				 Kiên nhẫn chính là "chìa khóa vàng" để hòa nhập cuộc sống ở Đức
					
					Kiên nhẫn chính là "chìa khóa vàng" để hòa nhập cuộc sống ở Đức				 Tình báo Ukraine phá hủy hệ thống phóng tên lửa tối mật “Oreshnik” của Nga...
					
					Tình báo Ukraine phá hủy hệ thống phóng tên lửa tối mật “Oreshnik” của Nga...				 Công an TPHCM bắt giam diễn viên Trương Ngọc Ánh để điều tra về hành vi lạm...
					
					Công an TPHCM bắt giam diễn viên Trương Ngọc Ánh để điều tra về hành vi lạm...				 Quy định mới của EU từ tháng 10 năm 2025: kiểm tra người nhận bắt buộc khi...
					
					Quy định mới của EU từ tháng 10 năm 2025: kiểm tra người nhận bắt buộc khi...				 Ngày Cải cách 31/10: Vì sao không phải toàn nước Đức đều được nghỉ lễ?
					
					Ngày Cải cách 31/10: Vì sao không phải toàn nước Đức đều được nghỉ lễ?				 Nhiều AI 'nịnh hót’ người dùng quá đà
					
					Nhiều AI 'nịnh hót’ người dùng quá đà				