Chào mừng!!

Bằng cách đăng ký với chúng tôi, bạn sẽ có thể thảo luận, chia sẻ và nhắn tin riêng tư với các thành viên khác trong cộng đồng của chúng tôi.

ĐĂNG KÝ NGAY!

Điều gì xảy ra khi ứng viên phải đối mặt với AI thay vì con người?

timingdeptry

Thành viên
Tham gia
13/6/25
Bài viết
19
VNĐ
1,225
Bạn nghĩ có thể đánh bại AI không? Khi thuật toán đánh giá chúng ta, chúng ta thay đổi cách hành xử, đôi khi theo những cách có thể ảnh hưởng đến cơ hội được tuyển dụng hoặc nhận vào học.
220
Trong một bài báo gần đây được công bố trên Proceedings of the National Academy of Sciences (PNAS), các nhà nghiên cứu đã điều tra xem liệu mọi người có hành xử khác đi trong các bài đánh giá khi biết rằng mình đang bị đánh giá bởi trí tuệ nhân tạo (AI) thay vì con người hay không. Họ phát hiện rằng qua 12 nghiên cứu với hơn 13.000 người tham gia, mọi người có xu hướng thay đổi cách thể hiện bản thân để nhấn mạnh các đặc điểm phân tích và giảm nhẹ các đặc điểm trực giác hoặc cảm xúc khi tin rằng họ đang được AI đánh giá.
Bối cảnh
Khi trí tuệ nhân tạo ngày càng được tích hợp vào các quy trình ra quyết định, các tổ chức đang áp dụng các công cụ dựa trên AI để đánh giá ứng viên cho công việc hoặc chương trình giáo dục. Những công cụ này hứa hẹn mang lại hiệu quả và tính khách quan, dẫn đến xu hướng thay thế người đánh giá bằng thuật toán ngày càng tăng.
Điều này đặt ra một câu hỏi quan trọng: Liệu việc bị đánh giá bởi AI có thay đổi cách mọi người hành xử?
Các ứng viên trẻ tuổi thể hiện sự thay đổi hành vi mạnh mẽ hơn khi biết mình được AI đánh giá, cho thấy sự khác biệt thế hệ trong kỳ vọng về công nghệ.
Dựa trên lý thuyết tâm lý học, nhóm nghiên cứu này giả thuyết rằng mọi người thay đổi cách thể hiện bản thân khi biết AI đang đánh giá mình – một phản ứng mà họ gọi là “hiệu ứng đánh giá bởi AI” (AI assessment effect). Cụ thể, họ có thể làm nổi bật các đặc điểm phân tích và kiềm chế các khía cạnh trực giác hoặc cảm xúc, được thúc đẩy bởi niềm tin phổ biến rằng AI coi trọng các phẩm chất dựa trên dữ liệu và logic hơn là sự thấu cảm cảm xúc của con người.
Niềm tin này – được gọi là “niềm tin ưu tiên phân tích” (analytical priority lay belief) trong bài nghiên cứu – là trung tâm của cách cá nhân dự đoán sở thích của AI.
Nghiên cứu
Các nhà nghiên cứu thực hiện 12 nghiên cứu với tổng số 13.342 người tham gia để kiểm tra liệu mọi người có thay đổi hành vi khi biết mình được đánh giá bởi AI thay vì con người không.
Thiết kế nghiên cứu:
  • Các nghiên cứu bao gồm các tình huống trong tuyển dụng việc làm, xét tuyển đại học và các ngữ cảnh thực tế khác.
  • Người tham gia được ngẫu nhiên hoặc gần như ngẫu nhiên chia vào các nhóm, nơi họ được thông báo rằng họ đang được AI, con người, hoặc cả hai đánh giá.
  • Nghiên cứu đo lường việc nhấn mạnh đặc điểm phân tích so với trực giác của người tham gia, cả tự báo cáo và hành vi.
Quy trình:
  • Đảm bảo chất lượng dữ liệu thông qua kiểm tra sự chú ý.
  • Áp dụng các khoảng tin cậy bootstrap để giảm thiểu sai số.
  • Loại trừ nhất quán các trường hợp không hoàn thành hoặc nghi ngờ về mục đích nghiên cứu.
Kết quả chính
  1. Thay đổi hành vi:
    • Người tham gia điều chỉnh hành vi của mình khi tin rằng AI đang đánh giá họ, nhấn mạnh đặc điểm phân tích và giảm nhẹ trực giác hoặc cảm xúc.
  2. Niềm tin chi phối:
    • Sự thay đổi này xuất phát từ niềm tin rằng AI coi trọng logic và dữ liệu hơn, mặc dù không có bằng chứng rõ ràng về điều đó.
  3. Thiếu chân thực:
    • Mức độ thể hiện bản thân ít chân thực nhất xảy ra trong các bài đánh giá hoàn toàn do AI thực hiện, so với chỉ con người hoặc kết hợp cả hai.
  4. Tác động thực tế:
    • Trong một nghiên cứu, 27% ứng viên chỉ được chọn nếu được AI đánh giá, nhưng không được chọn nếu do con người đánh giá.
Kết luận
Nghiên cứu cho thấy rằng các bài đánh giá dựa trên AI có thể định hình hành vi ứng viên, dẫn đến một mô hình nhất quán – “hiệu ứng đánh giá bởi AI” (AI assessment effect).
Hệ quả:
  • Các ứng viên có thể điều chỉnh hành vi dựa trên những niềm tin không chính xác, làm mờ đi những phẩm chất thực sự.
  • Điều này có thể dẫn đến quyết định tuyển dụng hoặc xét tuyển kém tối ưu.
Khuyến nghị:
  • Các tổ chức cần xem xét nghiêm túc quy trình đánh giá của mình và giảm thiểu các sai lệch có thể xảy ra do chính sách minh bạch AI.
  • Cung cấp thông tin rõ ràng về khả năng và giới hạn của AI có thể ảnh hưởng tích cực đến hành vi ứng viên.
Những phát hiện này không chỉ áp dụng cho nhân sự mà còn mở ra hướng nghiên cứu mới về các lĩnh vực có mức độ rủi ro cao khác, như cung cấp dịch vụ công.
 
Top