Trí tuệ nhân tạo tạo sinh (Generative AI) đang mang lại những chuyển biến quan trọng trong nhiều ngành nghề, nhưng đồng thời cũng đặt ra nhiều thách thức liên quan đến bảo mật và an toàn dữ liệu. Các doanh nghiệp ngày càng lo ngại về rủi ro khi triển khai AI, bao gồm nguy cơ phát tán thông tin sai lệch, lộ dữ liệu nhạy cảm, tấn công mạng và vi phạm quyền riêng tư. Tuy nhiên, không phải tổ chức nào cũng có đủ công cụ và kiến thức để quản lý những rủi ro này một cách hiệu quả.
“Các doanh nghiệp, tổ chức không chỉ quan tâm tới chất lượng và tính hiệu quả của các ứng dụng AI, mà còn cả tính an toàn và bảo mật của những ứng dụng này,” bà Sarah Bird, Giám đốc Sản phẩm mảng AI có trách nhiệm tại Microsoft, cho biết. “Tuy nhiên, nhiều tổ chức vẫn chưa xác định được họ cần làm gì để phát triển một giải pháp AI đáng tin cậy, hoặc họ chưa có những công cụ hỗ trợ cần thiết để làm điều đó.”
Nhằm giải quyết những thách thức trên, Microsoft đã phát triển nhiều công cụ và dịch vụ nhằm hỗ trợ các nhà phát triển xây dựng AI với tiêu chí an toàn, bảo mật và tôn trọng quyền riêng tư. Một số công cụ đáng chú ý bao gồm PyRIT – một khung nguồn mở dành cho các chuyên gia đánh giá rủi ro trong hệ thống AI, Azure AI Foundry – nền tảng tự động kiểm tra và giám sát rủi ro, cùng Azure AI Content Safety – công cụ phát hiện và ngăn chặn các nội dung độc hại.
Với sự hỗ trợ từ những công cụ này, nhiều doanh nghiệp đã thành công trong việc triển khai AI vào các lĩnh vực yêu cầu giám sát chặt chẽ, chẳng hạn như trợ lý AI hỗ trợ tóm tắt hồ sơ bệnh án hay chatbot tư vấn thuế cho khách hàng. Bà Mehrnoosh Sameki, Quản lý sản phẩm cấp cao về AI có trách nhiệm tại Microsoft, cho biết rằng mặc dù việc xây dựng phiên bản đầu tiên của một ứng dụng AI có thể khá đơn giản, nhưng quá trình triển khai thực tế thường bị chậm lại do doanh nghiệp lo ngại rủi ro hoặc chưa chắc chắn về việc tuân thủ các quy định. Các công cụ và dịch vụ của Microsoft giúp đẩy nhanh quá trình này, đồng thời mang lại sự an tâm trong việc thử nghiệm và bảo mật ứng dụng.
Microsoft không chỉ tập trung vào việc phát triển công cụ hỗ trợ AI an toàn mà còn áp dụng một phương pháp toàn diện để đảm bảo AI hoạt động một cách có trách nhiệm. Phương pháp này là kết quả của sự hợp tác giữa nhiều nhóm chuyên gia tại Microsoft, bao gồm nhóm AI Red Team, chuyên đánh giá các rủi ro tiềm ẩn như hiện tượng “ảo giác AI” và các cuộc tấn công bằng lệnh độc hại. Ngoài ra, các nhà nghiên cứu deepfake và chuyên gia đo lường đã phát triển các hệ thống đánh giá AI, trong khi các kỹ sư liên tục thiết kế và cải tiến các biện pháp bảo vệ an toàn.
Bà Mehrnoosh Sameki, Quản lý sản phẩm cấp cao mảng AI có trách nhiệm tại Microsoft cho biết: “Để tạo ra phiên bản đầu tiên của ứng dụng AI tạo sinh rất đơn giản. Tuy nhiên, quá trình triển khai sau đó lại diễn ra chậm hơn trước khi sản phẩm chính thức ra mắt, do doanh nghiệp lo ngại về rủi ro tiềm ẩn do AI, hoặc họ không chắc chắn đã tuân thủ đúng các quy định và yêu cầu chưa. Do đó, các công cụ và dịch vụ hỗ trợ của Microsoft không chỉ giúp triển khai áp dụng AI nhanh chóng hơn mà còn mang lại sự an tâm trong suốt quá trình thử nghiệm và bảo mật ứng dụng.”
Bên cạnh đó, một tổ chức chăm sóc y tế đã ứng dụng AI để phát triển trợ lý tóm tắt hồ sơ bệnh án. Họ đặc biệt chú trọng đến các công cụ giúp tăng độ chính xác, đồng thời tạo ra các bộ lọc tùy chỉnh nhằm đảm bảo mọi thông tin quan trọng đều được tổng hợp đầy đủ trong bản tóm tắt.
Bà Sameki cho biết nhiều công cụ mà Microsoft cung cấp có vai trò như những công cụ gỡ lỗi, giúp doanh nghiệp hiểu rõ hơn về cách cải thiện hệ thống AI của mình. Nhờ đó, cả hai công ty trong các lĩnh vực tư vấn thuế và chăm sóc y tế đều có thể triển khai AI nhanh chóng hơn, đồng thời nâng cao mức độ tin cậy của hệ thống.
Không chỉ dừng lại ở việc hỗ trợ doanh nghiệp phát triển AI an toàn, Microsoft còn giúp các tổ chức nâng cao khả năng quản trị AI thông qua hệ thống theo dõi và chia sẻ thông tin về toàn bộ quá trình phát triển, triển khai và vận hành mô hình AI. Hiện tại, Microsoft đang cung cấp báo cáo AI dưới dạng bản xem trước riêng tư trên nền tảng Azure AI Foundry. Những báo cáo này giúp doanh nghiệp dễ dàng phân tích, đánh giá rủi ro và đưa ra các biện pháp giảm thiểu phù hợp, đồng thời tuân thủ các quy định ngày càng chặt chẽ về AI.
Những nỗ lực này là một phần trong cam kết của Microsoft nhằm giúp các tổ chức và cá nhân khai thác tối đa tiềm năng của AI, đồng thời phổ biến kiến thức và kinh nghiệm để cộng đồng có thể áp dụng AI một cách hiệu quả hơn. Bà Sarah Bird nhấn mạnh rằng việc xây dựng các hệ thống AI đáng tin cậy luôn là ưu tiên hàng đầu của Microsoft, và công ty mong muốn trao quyền cho khách hàng để họ cũng có thể thực hiện điều đó trong hoạt động kinh doanh của mình.