AI tạo sinh như ChatGPT, Google Gemini, Microsoft Copilot đang giúp doanh nghiệp làm việc nhanh hơn, tự động hóa nhiều tác vụ và nâng cao hiệu suất. Tuy nhiên, đi kèm với lợi ích là những rủi ro dữ liệu và pháp lý rất dễ xảy ra, đặc biệt khi doanh nghiệp không có quy trình kiểm soát.
Theo khuyến nghị từ Google AI Principles, Microsoft Responsible AI Standard và chính sách sử dụng của OpenAI, rủi ro không nằm ở công cụ – mà nằm ở cách doanh nghiệp dùng công cụ.
Dưới đây là 6 nhóm rủi ro phổ biến nhất:
1. Lộ dữ liệu nội bộ khi nhập vào AI công cộng
Nhiều nhân viên vô tình đưa vào ChatGPT/Gemini:
Thông tin khách hàng,
Báo cáo doanh thu,
Dữ liệu tài chính,
Tài liệu chiến lược,
Mã nguồn nội bộ.
Vấn đề lớn nhất:
➡️ Những dữ liệu này có thể được lưu lại để cải thiện mô hình (tùy điều khoản)
➡️ Doanh nghiệp mất quyền kiểm soát
Nguồn:
OpenAI Usage Policy – https://openai.com/policies
Google AI Privacy – https://ai.google/responsibility/privacy/
2. Vi phạm luật dữ liệu cá nhân (Nghị định 13/2023)
ChatGPT, Gemini, Copilot đều xử lý dữ liệu trên hạ tầng của nhà cung cấp.
Nếu doanh nghiệp đưa dữ liệu cá nhân vào AI:
- Số điện thoại
- CCCD
- Hình ảnh
- Lịch sử mua hàng
➡️ Đây là hành vi xử lý dữ liệu cá nhân có yếu tố nước ngoài → phải tuân thủ luật VN.
Đặc biệt Nghị định 13 yêu cầu:
1. Phải có sự đồng ý của chủ thể dữ liệu
2. Phải thông báo mục đích, phạm vi, thời gian xử lý
3. Không được chia sẻ dữ liệu cho bên thứ ba trái phép
Rất nhiều doanh nghiệp vi phạm mà không biết.
3. Dữ liệu đưa vào AI có thể được huấn luyện để cải thiện mô hình
Một số dịch vụ AI sử dụng dữ liệu người dùng để tối ưu mô hình (tùy gói, tùy thiết lập).
➡️ Nếu doanh nghiệp dùng bản miễn phí hoặc không cấu hình đúng → rủi ro dữ liệu bị tái sử dụng là có thật.
Nguồn:
Microsoft Copilot Documentation – https://learn.microsoft.com
Google Gemini Terms – https://policies.google.com
4. Đưa mã nguồn hoặc file kỹ thuật vào AI → Rò rỉ tri thức doanh nghiệp
Lỗi này rất phổ biến trong team dev:
Đưa code vào AI để nhờ phân tích
Đưa error log dài chứa thông tin cấu hình nội bộ
Copy API key / token / config vào AI
➡️ Rủi ro nghiêm trọng: AI lưu lại dấu vết → có thể bị khai thác hoặc bị lộ qua prompt injection.
Microsoft đã cảnh báo về việc này trong loạt bài về Secure Development with AI.
5. Output của AI có thể sai, gây rủi ro vận hành
Nhiều nhân viên vô tình đưa vào ChatGPT/Gemini:
Thông tin khách hàng,
Báo cáo doanh thu,
Dữ liệu tài chính,
Tài liệu chiến lược,
Mã nguồn nội bộ.
Vấn đề lớn nhất:
➡️ Những dữ liệu này có thể được lưu lại để cải thiện mô hình (tùy điều khoản)
➡️ Doanh nghiệp mất quyền kiểm soát
Nguồn:
OpenAI Usage Policy – https://openai.com/policies
Google AI Privacy – https://ai.google/responsibility/privacy/
6. Thiếu kiểm soát nội bộ → nhân viên dùng AI “tự phát”
Nhiều doanh nghiệp chưa có:
Chính sách sử dụng AI
Phân quyền
Hướng dẫn bảo mật
Quy định xử lý dữ liệu
Khung kiểm soát rủi ro
➡️ Dẫn tới tình trạng: ai muốn dùng gì thì dùng, nhập gì thì nhập → cực kỳ nguy hiểm.
Theo Microsoft Responsible AI, doanh nghiệp cần:
- AI Use Policy
- Data Classification
- AI Governance
Tóm lại:
Việc sử dụng ChatGPT, Gemini hay Copilot có thể giúp doanh nghiệp tăng hiệu suất làm việc lên rất nhiều, nhưng nếu không đi kèm chiến lược và quy trình quản lý dữ liệu đúng cách, rủi ro phát sinh sẽ lớn hơn lợi ích. Doanh nghiệp có thể vô tình vi phạm pháp luật về dữ liệu, làm lộ thông tin quan trọng, đánh mất bí mật kinh doanh, gặp trục trặc trong vận hành hoặc thậm chí ảnh hưởng đến uy tín thương hiệu. Đây đều là những rủi ro hoàn toàn có thể tránh được nếu doanh nghiệp hiểu rõ và kiểm soát tốt cách sử dụng AI.
Muốn ứng dụng AI an toàn? Hãy bắt đầu bằng hiểu đúng về dữ liệu 👨💻
Đó cũng là lý do DigiService tổ chức workshop online: An Toàn Dữ Liệu Trong Kỷ Nguyên AI – Hiểu Đúng Để Làm Đúng
🗓 11/12/2025 | 14:00–15:00
📝 Đăng ký miễn phí: https://forms.gle/nreJrHxcgiGYZdFh6
📘 Xem chi tiết: https://digiservice.vn/workshop-an-toan-du-lieu-trong-ky-nguyen-ai/
Buổi workshop sẽ giúp doanh nghiệp:
Hiểu rõ quy định dữ liệu
Phân loại dữ liệu đúng cách
Tránh các rủi ro khi dùng AI
Xây dựng nền tảng triển khai AI an toàn và bền vững