AI tạo sinh như ChatGPT, Google Gemini, Microsoft Copilot đang giúp doanh nghiệp làm việc nhanh hơn, tự động hóa nhiều tác vụ và nâng cao hiệu suất. Tuy nhiên, đi kèm với lợi ích là những rủi ro dữ liệu và pháp lý rất dễ xảy ra, đặc biệt khi doanh nghiệp không có quy trình kiểm soát.

Theo khuyến nghị từ Google AI Principles, Microsoft Responsible AI Standard và chính sách sử dụng của OpenAI, rủi ro không nằm ở công cụ – mà nằm ở cách doanh nghiệp dùng công cụ.

Dưới đây là 6 nhóm rủi ro phổ biến nhất:

1. Lộ dữ liệu nội bộ khi nhập vào AI công cộng

Nhiều nhân viên vô tình đưa vào ChatGPT/Gemini:

    1. Thông tin khách hàng,

    2. Báo cáo doanh thu,

    3. Dữ liệu tài chính,

    4. Tài liệu chiến lược,

    5. Mã nguồn nội bộ.

Vấn đề lớn nhất:
➡️ Những dữ liệu này có thể được lưu lại để cải thiện mô hình (tùy điều khoản)
➡️ Doanh nghiệp mất quyền kiểm soát

Nguồn:

OpenAI Usage Policy – https://openai.com/policies
Google AI Privacy – https://ai.google/responsibility/privacy/

2. Vi phạm luật dữ liệu cá nhân (Nghị định 13/2023)

ChatGPT, Gemini, Copilot đều xử lý dữ liệu trên hạ tầng của nhà cung cấp.

Nếu doanh nghiệp đưa dữ liệu cá nhân vào AI:

    1. Số điện thoại
    2. Email
    3. CCCD
    4. Hình ảnh
    5. Lịch sử mua hàng

➡️ Đây là hành vi xử lý dữ liệu cá nhân có yếu tố nước ngoài → phải tuân thủ luật VN.

Đặc biệt Nghị định 13 yêu cầu:

1. Phải có sự đồng ý của chủ thể dữ liệu

2. Phải thông báo mục đích, phạm vi, thời gian xử lý

3. Không được chia sẻ dữ liệu cho bên thứ ba trái phép

Rất nhiều doanh nghiệp vi phạm mà không biết.

3. Dữ liệu đưa vào AI có thể được huấn luyện để cải thiện mô hình

Một số dịch vụ AI sử dụng dữ liệu người dùng để tối ưu mô hình (tùy gói, tùy thiết lập).

➡️ Nếu doanh nghiệp dùng bản miễn phí hoặc không cấu hình đúng → rủi ro dữ liệu bị tái sử dụng là có thật.

Nguồn:

Microsoft Copilot Documentation – https://learn.microsoft.com
Google Gemini Terms – https://policies.google.com

4. Đưa mã nguồn hoặc file kỹ thuật vào AI → Rò rỉ tri thức doanh nghiệp

Lỗi này rất phổ biến trong team dev:

    1. Đưa code vào AI để nhờ phân tích

    2. Đưa error log dài chứa thông tin cấu hình nội bộ

    3. Copy API key / token / config vào AI

➡️ Rủi ro nghiêm trọng: AI lưu lại dấu vết → có thể bị khai thác hoặc bị lộ qua prompt injection.

Microsoft đã cảnh báo về việc này trong loạt bài về Secure Development with AI.

5. Output của AI có thể sai, gây rủi ro vận hành

Nhiều nhân viên vô tình đưa vào ChatGPT/Gemini:

    1. Thông tin khách hàng,

    2. Báo cáo doanh thu,

    3. Dữ liệu tài chính,

    4. Tài liệu chiến lược,

    5. Mã nguồn nội bộ.

Vấn đề lớn nhất:
➡️ Những dữ liệu này có thể được lưu lại để cải thiện mô hình (tùy điều khoản)
➡️ Doanh nghiệp mất quyền kiểm soát

Nguồn:

OpenAI Usage Policy – https://openai.com/policies
Google AI Privacy – https://ai.google/responsibility/privacy/

6. Thiếu kiểm soát nội bộ → nhân viên dùng AI “tự phát”

Nhiều doanh nghiệp chưa có:

    1. Chính sách sử dụng AI

    2. Phân quyền

    3. Hướng dẫn bảo mật

    4. Quy định xử lý dữ liệu

    5. Khung kiểm soát rủi ro

➡️ Dẫn tới tình trạng: ai muốn dùng gì thì dùng, nhập gì thì nhập → cực kỳ nguy hiểm.

Theo Microsoft Responsible AI, doanh nghiệp cần:

  1. AI Use Policy
  2. Data Classification
  3. AI Governance

Tóm lại:

Việc sử dụng ChatGPT, Gemini hay Copilot có thể giúp doanh nghiệp tăng hiệu suất làm việc lên rất nhiều, nhưng nếu không đi kèm chiến lược và quy trình quản lý dữ liệu đúng cách, rủi ro phát sinh sẽ lớn hơn lợi ích. Doanh nghiệp có thể vô tình vi phạm pháp luật về dữ liệu, làm lộ thông tin quan trọng, đánh mất bí mật kinh doanh, gặp trục trặc trong vận hành hoặc thậm chí ảnh hưởng đến uy tín thương hiệu. Đây đều là những rủi ro hoàn toàn có thể tránh được nếu doanh nghiệp hiểu rõ và kiểm soát tốt cách sử dụng AI.

Muốn ứng dụng AI an toàn? Hãy bắt đầu bằng hiểu đúng về dữ liệu 👨‍💻

Đó cũng là lý do DigiService tổ chức workshop online:  An Toàn Dữ Liệu Trong Kỷ Nguyên AI – Hiểu Đúng Để Làm Đúng

🗓 11/12/2025 | 14:00–15:00
📝 Đăng ký miễn phí: https://forms.gle/nreJrHxcgiGYZdFh6
📘 Xem chi tiết: https://digiservice.vn/workshop-an-toan-du-lieu-trong-ky-nguyen-ai/

Buổi workshop sẽ giúp doanh nghiệp:

Hiểu rõ quy định dữ liệu

Phân loại dữ liệu đúng cách

Tránh các rủi ro khi dùng AI

Xây dựng nền tảng triển khai AI an toàn và bền vững

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *