Vài tuần sau khi công bố Gemini 2.5 Pro – mô hình AI mạnh mẽ và tốn kém nhất từ trước đến nay – Google đã phát hành báo cáo kỹ thuật liên quan đến các đánh giá an toàn nội bộ. Tuy nhiên, các chuyên gia cho rằng báo cáo này quá sơ sài, khiến việc đánh giá mức độ rủi ro tiềm ẩn từ mô hình trở nên rất khó khăn.
Theo giới chuyên môn, các báo cáo kỹ thuật thường cung cấp thông tin hữu ích – đôi khi gây tranh cãi – mà các công ty không công khai trong các tài liệu quảng bá. Nhìn chung, cộng đồng AI đánh giá cao các tài liệu dạng này vì chúng thể hiện nỗ lực minh bạch và hỗ trợ nghiên cứu độc lập. Tuy nhiên, cách tiếp cận của Google lại khác biệt. Họ chỉ công bố báo cáo sau khi mô hình được xem là đã vượt qua giai đoạn “thử nghiệm”, và không bao gồm toàn bộ các đánh giá năng lực nguy hiểm – phần này được chuyển sang một quá trình kiểm toán riêng.
Các chuyên gia chia sẻ với TechCrunch tỏ ra thất vọng với sự thiếu chi tiết trong báo cáo Gemini 2.5 Pro. Báo cáo này thậm chí không nhắc đến Frontier Safety Framework (FSF) – khung đánh giá an toàn được Google giới thiệu năm ngoái nhằm phát hiện các năng lực AI có thể gây tổn hại nghiêm trọng trong tương lai.
Peter Wildeford, đồng sáng lập Viện Chính sách và Chiến lược AI, nhận định: “Báo cáo quá ngắn, thông tin tối thiểu và được công bố sau khi mô hình đã ra mắt công chúng nhiều tuần. Không thể xác minh liệu Google có thực hiện đúng cam kết công khai hay không, và vì thế không thể đánh giá được mức độ an toàn của mô hình.”
Thomas Woodside, đồng sáng lập Dự án Secure AI, tuy ghi nhận việc Google công bố báo cáo, vẫn nghi ngờ về cam kết của công ty trong việc duy trì đánh giá an toàn một cách kịp thời. Ông nhắc lại lần gần nhất Google chia sẻ kết quả kiểm tra năng lực nguy hiểm là từ tháng 6/2024, cho một mô hình đã ra mắt từ tháng 2.
Hiện Google cũng chưa công bố báo cáo nào cho Gemini 2.5 Flash – một phiên bản nhẹ và tiết kiệm hơn vừa được giới thiệu tuần trước. Người phát ngôn cho biết báo cáo “sẽ sớm ra mắt”.
Woodside hy vọng đây là dấu hiệu cho thấy Google sẽ bắt đầu cập nhật báo cáo thường xuyên hơn. Theo ông, các cập nhật này nên bao gồm cả những mô hình chưa công bố chính thức, vì chúng vẫn có thể tiềm ẩn rủi ro nghiêm trọng.
Mặc dù Google là một trong những phòng thí nghiệm AI đầu tiên đề xuất chuẩn hóa báo cáo kỹ thuật, công ty không phải đơn vị duy nhất bị chỉ trích thiếu minh bạch gần đây. Meta bị phê phán khi phát hành báo cáo đánh giá an toàn sơ sài cho các mô hình Llama 4 mã nguồn mở, trong khi OpenAI thậm chí không công bố báo cáo nào cho dòng GPT-4.1 mới nhất.
Điều đáng lưu tâm là Google từng cam kết với chính phủ Mỹ sẽ công bố báo cáo an toàn cho tất cả mô hình AI “quan trọng” được triển khai. Sau đó, công ty tiếp tục đưa ra các cam kết tương tự với các chính phủ khác, khẳng định sẽ “cung cấp sự minh bạch công khai” cho các sản phẩm AI.
Kevin Bankston, cố vấn cấp cao về quản trị AI tại Trung tâm Dân chủ và Công nghệ, cho rằng xu hướng báo cáo rời rạc và mơ hồ đang tạo nên “cuộc đua xuống đáy” về tiêu chuẩn an toàn AI.
“Kết hợp với thông tin cho thấy các phòng thí nghiệm khác như OpenAI đang rút ngắn thời gian kiểm tra an toàn trước khi ra mắt từ hàng tháng xuống chỉ vài ngày, thì tài liệu nghèo nàn này của Google cho thấy một câu chuyện đáng lo ngại: các công ty đang vội vã tung mô hình ra thị trường mà xem nhẹ yếu tố an toàn và minh bạch” ông nói với TechCrunch.
Về phần mình, Google cho biết mặc dù các báo cáo kỹ thuật không nêu đầy đủ, công ty vẫn tiến hành các bài kiểm tra an toàn và “tấn công mô phỏng” (adversarial red teaming) trước khi phát hành mô hình AI mới.