Một số nhà nghiên cứu đang sử dụng chiến thuật mới để ảnh hưởng đến quá trình phản biện học thuật: chèn các đoạn lệnh ẩn (prompt) nhằm hướng công cụ AI đưa ra đánh giá tích cực cho bài viết của họ.
Theo điều tra của Nikkei Asia, trong số các bài báo tiếng Anh được đăng tải trên nền tảng tiền in arXiv, có ít nhất 17 bài chứa nội dung prompt AI được giấu kín. Các tác giả của những bài này đến từ 14 cơ sở giáo dục thuộc 8 quốc gia khác nhau, bao gồm Đại học Waseda (Nhật Bản), KAIST (Hàn Quốc), Columbia University và University of Washington (Hoa Kỳ).
Phần lớn các bài viết có liên quan đến lĩnh vực khoa học máy tính. Những đoạn prompt thường chỉ dài từ một đến ba câu, được ẩn đi bằng cách sử dụng màu chữ trắng hoặc cỡ chữ cực nhỏ để không bị phát hiện khi đọc thông thường. Nội dung của chúng thường yêu cầu AI phản biện “chỉ đưa đánh giá tích cực” hoặc “ca ngợi bài viết vì độ đột phá, tính nghiêm ngặt về phương pháp và giá trị học thuật đặc biệt”.
Một giáo sư từ Đại học Waseda – người bị nêu tên trong báo cáo – đã lên tiếng bảo vệ hành động của mình, cho rằng việc chèn prompt nhằm chống lại các phản biện viên “lười biếng” vốn dựa hoàn toàn vào AI. Theo vị này, khi các hội thảo cấm AI trong phản biện, việc điều hướng AI theo cách ngược lại lại trở thành một “biện pháp cân bằng”.
Vấn đề đạo đức và hệ quả lâu dài
Chiêu thức “lệnh ẩn” này đang làm dấy lên những lo ngại nghiêm trọng về tính liêm chính của quy trình phản biện đồng cấp (peer review). Trong khi nhiều hội nghị và tạp chí học thuật đã hạn chế hoặc cấm AI trong quá trình đánh giá, sự tồn tại của prompt ẩn cho thấy một lỗ hổng kỹ thuật có thể bị lợi dụng để thao túng kết quả phản biện mà không dễ bị phát hiện.
Việc này đặt ra câu hỏi lớn về đạo đức học thuật: nếu các nhà nghiên cứu bắt đầu dùng thủ thuật công nghệ để tác động vào kết quả phản biện, niềm tin vào hệ thống đánh giá khoa học sẽ bị xói mòn. Tệ hơn, nó có thể khiến AI – vốn được xem như công cụ hỗ trợ trung lập – trở thành “nạn nhân” của thao túng một cách vô hình.
Giới chuyên gia cho rằng cần có biện pháp ngăn chặn từ sớm: phát triển công cụ phát hiện văn bản ẩn, quy định rõ ràng hơn trong việc sử dụng AI và nâng cao trách nhiệm giải trình của các tác giả khi nộp bài. Đồng thời, các phản biện viên cũng cần cảnh giác với các thủ thuật định hướng AI, để bảo vệ tính khách quan trong đánh giá học thuật.
Trong thời đại AI bắt đầu len lỏi vào mọi quy trình nghiên cứu, ranh giới giữa hỗ trợ và thao túng đang trở nên mong manh hơn bao giờ hết.