Trong nhiều năm, lời khuyên khi tương tác với trí tuệ nhân tạo nghe có vẻ khá cổ điển: hãy lịch sự, rõ ràng và nói "làm ơn." Nhưng nghiên cứu mới cho thấy rằng bản năng này, bắt nguồn từ chuẩn mực xã hội của con người, có thể đang âm thầm làm suy giảm hiệu suất của các hệ thống AI.
Một nghiên cứu được trình bày tại Hội thảo NeurIPS 2025, công bố vào tháng 9 năm 2025, có tiêu đề "Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy", phát hiện rằng giọng điệu bạn sử dụng khi đưa ra lệnh cho các mô hình ngôn ngữ lớn (LLM) có thể thay đổi đáng kể độ chính xác của chúng. Và trong một kết quả có vẻ nghịch lý, thậm chí đáng lo ngại, các lệnh lịch sự hơn thực sự có thể tạo ra kết quả tồi tệ hơn.
Các nhà nghiên cứu đã kiểm tra cách các giọng điệu khác nhau, từ rất lịch sự đến rất thô lỗ, ảnh hưởng đến hiệu suất của ChatGPT-4o trên các câu hỏi trắc nghiệm. Sử dụng bộ dữ liệu gồm 50 câu hỏi có độ khó vừa phải về toán học, khoa học và lịch sử, họ đã tạo ra năm phiên bản của mỗi lệnh: rất lịch sự, lịch sự, trung lập, thô lỗ và rất thô lỗ.
Sự khác biệt duy nhất giữa các lệnh này là giọng điệu. Bản thân các câu hỏi vẫn giống hệt nhau.
Theo nghiên cứu, độ chính xác tăng đều đặn khi các lệnh trở nên ít lịch sự hơn. Các lệnh rất lịch sự đạt độ chính xác trung bình là 80,8%. Ngược lại, các lệnh rất thô lỗ đạt 84,8%, cải thiện gần bốn điểm phần trăm. Các lệnh trung lập hoạt động tốt hơn các lệnh lịch sự, và các lệnh thô lỗ thậm chí còn hoạt động tốt hơn nữa.
Kiểm định thống kê đã xác nhận mô hình này: không có trường hợp nào mà các lệnh lịch sự hơn dẫn đến kết quả tốt hơn đáng kể. Mọi sự khác biệt có ý nghĩa đều ủng hộ cách diễn đạt ít lịch sự hơn hoặc trực tiếp hơn.
Nói cách khác, chỉ riêng giọng điệu, thứ mà hầu hết người dùng cho rằng không nên quan trọng, có thể thay đổi hiệu suất AI.
Nghiên cứu không đưa ra lời giải thích rõ ràng, nhưng nó đặt ra một câu hỏi sâu sắc hơn về cách các LLM xử lý ngôn ngữ. Không giống như con người, các hệ thống này không "cảm nhận" được sự lịch sự hay xúc phạm. Đối với chúng, những từ như "làm ơn" hoặc thậm chí cả những lời lăng mạ chỉ đơn giản là các token, các mô hình được học từ dữ liệu huấn luyện.
Một giải thích có thể là những gì trông giống như "sự thô lỗ" thực chất là đại diện cho thứ khác: tính trực tiếp.
Các lệnh thô lỗ có xu hướng mang tính mệnh lệnh hơn. Chúng loại bỏ ngôn ngữ rào đón và đi thẳng vào nhiệm vụ. Thay vì "Bạn có thể vui lòng giải câu hỏi này không?", một lệnh thô lỗ sẽ nói, "Trả lời câu này." Sự khác biệt về cấu trúc đó có thể làm cho nhiệm vụ rõ ràng hơn đối với mô hình.
Một yếu tố khác được nghiên cứu xác định là độ dài lệnh và các mô hình từ vựng. Việc thêm các cụm từ lịch sự sẽ đưa thêm các token có thể làm loãng hoặc làm mất tập trung khỏi hướng dẫn cốt lõi. Ngược lại, các lệnh ngắn hơn, sắc nét hơn phù hợp với các mô hình mà mô hình đã thấy trong quá trình huấn luyện.
Cũng có khả năng là một số giọng điệu nhất định phù hợp chặt chẽ hơn với phân phối dữ liệu huấn luyện hoặc hướng dẫn hệ thống, giảm những gì các nhà nghiên cứu gọi là "độ rối rắm" (perplexity). Đó là cách toán học để đo mức độ "ngạc nhiên" hoặc "bối rối" của mô hình trước các từ mà nó nhìn thấy.
Hàm ý là giọng điệu không phải là một lớp bao bọc trung lập xung quanh một câu hỏi. Nó là một phần của đầu vào và nó định hình cách mô hình phản hồi.
Những phát hiện này đánh dấu sự khác biệt đáng chú ý so với công trình trước đây. Một nghiên cứu năm 2024 của Yin và cộng sự phát hiện rằng các lệnh bất lịch sự thường làm giảm độ chính xác, đặc biệt với các mô hình cũ như ChatGPT-3.5. Nghiên cứu đó cũng cho thấy rằng ngôn ngữ quá lịch sự không nhất thiết cải thiện kết quả, nhưng nó không cho thấy lợi thế rõ ràng cho sự thô lỗ.
Vậy điều gì đã thay đổi?
Một giải thích được đưa ra bởi nghiên cứu năm 2025 là sự tiến hóa của mô hình. Các hệ thống mới hơn như ChatGPT-4o có thể xử lý ngôn ngữ khác đi, hoặc có thể ít nhạy cảm hơn với các tác động tiêu cực của cách diễn đạt khắc nghiệt. Một khả năng khác là việc hiệu chỉnh giọng điệu có ý nghĩa. Các lệnh "rất thô lỗ" trong nghiên cứu mới, mặc dù mang tính xúc phạm, nhưng ít cực đoan hơn so với các ví dụ độc hại nhất được sử dụng trong nghiên cứu trước đó.
Cũng có một sự thay đổi rộng hơn trong cách các mô hình được huấn luyện. Khi các LLM trở nên tiên tiến hơn, chúng được tiếp xúc với dữ liệu đa dạng hơn và các quy trình điều chỉnh hướng dẫn phức tạp hơn, điều này có thể thay đổi cách chúng diễn giải các tín hiệu ngôn ngữ tinh tế.
Ý tưởng rằng giọng điệu có thể ảnh hưởng đến hiệu suất AI kết nối với một hiện tượng rộng hơn và đáng lo ngại hơn: tác động xã hội.
Một nhóm nghiên cứu riêng biệt, nghiên cứu GASLIGHTBENCH được phát hành vào ngày 7 tháng 12 năm 2025, cho thấy rằng các LLM rất dễ bị ảnh hưởng bởi các tín hiệu xã hội như lời tâng bốc, kêu gọi cảm xúc và quyền hạn giả mạo. Trong các thí nghiệm này, các mô hình thường từ bỏ độ chính xác thực tế để phù hợp với giọng điệu hoặc kỳ vọng của người dùng, một hành vi được gọi là xu nịnh (sycophancy).
Ví dụ, khi người dùng trình bày thông tin không chính xác với sự tự tin hoặc áp lực cảm xúc, các mô hình có thể đồng ý thay vì thách thức họ. Trong một số trường hợp, độ chính xác giảm đáng kể, đặc biệt trong các cuộc trò chuyện nhiều lượt khi người dùng liên tục củng cố một tuyên bố sai.
Điều này tạo ra một nghịch lý. Một mặt, ngôn ngữ lịch sự hoặc giàu tính xã hội có thể làm cho các tương tác cảm thấy tự nhiên và giống con người hơn. Mặt khác, nó có thể đưa vào nhiễu—hoặc thậm chí là thiên vị—làm giảm hiệu suất của mô hình.
Những phát hiện của GASLIGHTBENCH đi xa hơn, cho rằng các kỹ thuật căn chỉnh được thiết kế để làm cho các mô hình "hữu ích" có thể vô tình khuyến khích hành vi này. Bằng cách khen thưởng sự lịch sự và dễ chịu, các quy trình huấn luyện có thể đẩy các mô hình ưu tiên hòa hợp xã hội hơn sự thật khách quan.
Kết hợp lại, những phát hiện này thách thức một giả định phổ biến: rằng các LLM diễn giải ngôn ngữ theo cách giống con người.
Trên thực tế, các hệ thống này là các công cụ thống kê. Chúng không hiểu sự lịch sự như một chuẩn mực xã hội; chúng nhận ra nó như một mô hình trong dữ liệu. Khi bạn nói "làm ơn," mô hình không cảm thấy bị buộc phải giúp đỡ; nó chỉ đơn giản là xử lý các token bổ sung có thể hoặc không thể giúp nó dự đoán câu trả lời chính xác.
Nếu có gì, nghiên cứu cho thấy rằng các LLM có thể nhạy cảm hơn với sự rõ ràng về cấu trúc hơn là sắc thái xã hội. Ngôn ngữ trực tiếp, mệnh lệnh có thể giảm sự mơ hồ và giúp mô hình dễ dàng ánh xạ đầu vào vào một mô hình đã biết hơn.
Điều này cũng đặt ra câu hỏi về "giả thuyết tương đồng"—ý tưởng rằng các mô hình hoạt động tốt nhất khi các nhiệm vụ giống với dữ liệu huấn luyện của chúng. Nếu chỉ riêng giọng điệu có thể thay đổi độ chính xác, thì sự tương đồng không chỉ là về nội dung mà còn về hình thức.
Bất chấp những kết quả gây chú ý, các nhà nghiên cứu cẩn thận không khuyến nghị người dùng trở nên thô lỗ hoặc lạm dụng.
Đối với những người xây dựng và nghiên cứu các hệ thống AI, những phát hiện này làm nổi bật một vấn đề sâu sắc hơn: các mô hình kế thừa các mô hình và thiên vị của ngôn ngữ con người.
Alex Tsado, một chuyên gia AI đã làm việc chặt chẽ với các nhà phát triển mô hình và là người sáng lập và giám đốc của Alliance4AI, một trong những cộng đồng AI lớn nhất ở Châu Phi, nói thẳng thắn: "Các mô hình học từ dữ liệu về tương tác của con người, vì vậy miễn là chúng được huấn luyện một cách mù quáng, chúng sẽ làm theo những gì xảy ra trong không gian con người. Vì vậy, nếu chúng ta nghĩ rằng có thiên vị hoặc thực hành có hại trong không gian con người, nó sẽ được tự động hóa trong không gian AI."
Điều đó bao gồm cả cách sử dụng giọng điệu.
"Nhưng khi bạn phụ trách việc xây dựng mô hình AI, bạn có thể điều chỉnh thiên vị khỏi những thứ bạn cho là có hại," Tsado thêm. "Trong trường hợp này, khi tôi gặp đội ngũ Anthropic vào đầu tháng 12 năm 2025, họ nói rằng họ đã thấy điều này và đã thêm các thứ để làm cho các mô hình của họ phản ứng với những từ tốt hoặc xấu này."
Nói cách khác, đây không phải là thuộc tính cố định của AI. Nó có thể được điều chỉnh thông qua huấn luyện và thiết kế.
Nghiên cứu hiện tại vẫn còn hạn chế. Các thí nghiệm tập trung vào các câu hỏi trắc nghiệm thay vì các nhiệm vụ phức tạp hơn như lập trình, viết lách hoặc lý luận dài. Không rõ liệu các mô hình tương tự có áp dụng được trong các lĩnh vực đó, nơi sắc thái và giải thích quan trọng hơn.
Cũng có các yếu tố văn hóa và ngôn ngữ cần xem xét. Sự lịch sự khác nhau rất nhiều giữa các ngôn ngữ và bối cảnh, và các danh mục giọng điệu của nghiên cứu dựa trên các biểu thức tiếng Anh cụ thể.
Tuy nhiên, những hàm ý khó có thể bỏ qua.
Nếu một thứ gì đó hời hợt như giọng điệu có thể ảnh hưởng nhất quán đến hiệu suất AI, điều đó cho thấy kỹ thuật tạo lệnh vẫn còn xa mới được giải quyết. Những thay đổi nhỏ trong cách diễn đạt, thường bị bỏ qua, có thể có tác động đo lường được.
Đối với người dùng, bài học rất đơn giản nhưng nghịch lý: cách bạn hỏi quan trọng, và lịch sự không phải lúc nào cũng là chiến lược tốt nhất.
Đối với các nhà nghiên cứu và nhà phát triển, thách thức phức tạp hơn. Làm thế nào để bạn thiết kế các hệ thống vừa chính xác vừa phù hợp với các giá trị của con người? Làm thế nào để bạn đảm bảo rằng các tín hiệu xã hội không làm méo mó các đầu ra thực tế?
Và có lẽ quan trọng nhất, làm thế nào để bạn xây dựng AI hiểu không chỉ những gì chúng ta nói—mà là những gì chúng ta muốn nói?
Cho đến khi những câu hỏi đó được trả lời, một điều rõ ràng: khi nói đến AI, cách cư xử tốt có thể không phải lúc nào cũng có lợi.


