Sau sự kiện ChatGPT tạo ra thông tin bịa đặt về công ty, giám đốc Đức Trung (TP.HCM) bắt đầu thấy lo lắng về mức dộ bảo mật và hậu quả về mặt pháp lý khi sử dụng mô hình AI để hỗ trợ công việc.
Việc ứng dụng AI trong xử lý công việc tiềm ẩn rủi ro lớn. (Ảnh minh hoạ: Phương Lâm)
Dù thường xuyên áp dụng mô hình ChatGPT trong công việc, Đức Trung (TP Thủ Đức, TP.HCM), giám đốc một công ty truyền thông với quy mô nhỏ, chưa lường trước tình huống AI bịa đặt hàng loạt thông tin dối trá về công ty kinh doanh của mình.
Trước đây, anh chỉ ứng dụng trí tuệ nhân tạo trong việc xây dựng ra ý tưởng, hỗ trợ đọc các báo cáo, thu thập thông tin và nghiên cứu. Khi thử sử dụng AI để xử lý một số vấn đề về giấy tờ, anh nhận thấy công cụ trí tuệ này đưa ra nhiều số liệu sai lệch về công ty.
Đức Trung suy đoán, hệ thống đã dựa trên các thông tin mà anh từng nhập vô, rồi tự động suy diễn, thêm thắt, dẫn đến việc lan truyền ra những nội dung không chính xác về công ty.
Không chỉ Đức Trung, phần lớn nhân sự của anh đều đang thực hiện ứng dụng C
hatGPT, Grok và
MidJourney vào công việc hàng ngày. Một số nhân viên thuộc bộ phận sáng tạo nội dung và thiết kế hình ảnh còn được cung cấp tài khoản có trả lệ phí hàng tháng.
Vì thế, giám đốc này bắt đầu thấy lo lắng nhiều hơn về vấn đề bảo mật. Bên cạnh các thông tin về doanh nghiệp, Trung cũng sợ làm lộ dữ kiện của khách hàng, đối tác.
"Các hợp đồng kinh doanh đều có ghi rõ các điều khoản bảo mật. Nếu thông tin bị tuồn ra ngoài, chúng tôi đứng trước nguy cơ sẽ phải bị đền bù, gánh chịu thiệt hại lớn về tài chính, thậm chí phải chịu trách nhiệm trước pháp luật", Đức Trung nói.
Theo bà Thanh Nguyễn, Giám đốc Điều hành và Truyền cảm hứng hạnh phúc tại công ty tư vấn thương hiệu tuyển dụng
Anphabe, nhiều người đứng đầu tại Việt Nam lo lắng về vấn đề bảo mật số liệu của công ty. Đó là một trong những lý do dẫn đến việc có nhiều tổ chức tin rằng tuy việc sử dụng trí tuệ nhân tạo là điều quan trọng, nhưng chưa sẵn sàng cho triển khai thực hiện.
Đây không chỉ là tình trạng xảy ra ở Việt Nam, mà còn ở nhiều quốc gia khác trên thế giới. Theo báo cáo
Tin cậy Số liệu 2025 của nền tảng
Ataccama, 43% các công ty kinh doanh xem vấn đề bảo mật thông tin là rào cản lớn nhất khi cho triển khai mô hình AI. 21% các tổ chức không có khung quản trị kiểm tra số liệu, dẫn đến nguy cơ cao về việc vi phạm bảo mật và mất lòng tin khi áp dụng công cụ trí tuệ nhân tạo trong công việc.
Về biện pháp khắc phục, 51% các người đứng đầu phụ trách xem việc cải thiện chất lượng và mức độ chính xác trong số liệu là ưu tiên hàng đầu, giúp làm giảm rủi ro với ứng dụng AI. Bên cạnh đó, các phương pháp như sử dụng công cụ tự động phát hiện thông tin nhạy cảm hay thiết lập khung quản trị thông tin qua các cấp lãnh đạo từ trên xuống dưới cũng được đề cập đến.
Tiềm ẩn nguy cơ bị rò rỉ thông tin nội bộ
Bên cạnh công ty truyền thông của Đức Trung, công ty phân phối giải pháp bảo mật, nơi Đức Duy (26 tuổi, quận 7, TP.HCM) giữ vai trò phụ trách cấp trung, cũng lo ngại về khả năng bị rò rỉ số liệu khi sử dụng mô hình AI.
Đức Duy nhận thấy nguy cơ bị rò rỉ thông tin doanh nghiệp khi sử dụng trí tuệ nhân tạo(Ảnh minh họa)
Đội ngũ kỹ thuật ở công ty Đức Duy bắt đầu cho kết hợp các ứng dụng trí tuệ nhân tạo như
ChatGPT và
Grok vào quy trình làm việc từ năm ngoái. AI được xem như phụ tá
"ảo", đảm nhiệm những công việc mang tính lặp lại như viết code, tạo file hay tổng hợp các thông tin chuyên ngành.
Việc sử dụng AI giúp tiết kiệm đáng kể thời gian xử trí, nhờ đó các nhân sự khác có thể tập trung nhiều hơn vào các nhiệm vụ đòi hỏi chuyên môn sâu như tham vấn kỹ thuật hay phát triển mở rộng kinh doanh.
Tuy nhiên, anh cũng thẳng thắn cảnh cáo rằng hiệu suất luôn đi kèm với rủi ro, đặc biệt là nguy cơ bị rò rỉ các thông tin nhạy cảm.
"Chỉ cần một đoạn câu lệnh, một thông báo lỗi hay mã code được đưa lên AI, nguy cơ mất số liệu doanh nghiệp là hoàn toàn có thể xảy ra", anh nhấn mạnh. Những đoạn dối thoại tưởng chừng vô hại có thể vô tình để lộ ra các thông tin quan trọng, từ đó trở thành mục tiêu khai thác của bọn hacker hoặc tổ chức tội phạm mạng.
Mối nguy không chỉ đến từ nội bộ. Khi làm việc với đối tác có hệ thống bảo mật kém, rủi ro lại càng gia tăng. Các hình thức tấn công phổ biến như
phishing (giả mạo qua email),
social engineering (lừa đảo dựa trên hành vi con người) hay lây nhiễm mã độc qua sự liên kết độc hại có thể gây ra nhiều thiệt hại lớn.
Tương tự, Ái Quỳnh (30 tuổi, quận Phú Nhuận, TP.HCM), trưởng phòng thiết kế tại một
agency quảng cáo, cũng nhận thấy nhiều công cụ AI miễn phí hiện nay có thể âm thầm thu thập số liệu mà người sử dụng không hay biết.
Tại công ty cô, các buổi workshop đào tạo về AI được tổ chức thường xuyên cho nhiều đội nhóm. Riêng nhóm thiết kế ghi nhận mức cải thiện năng suất lên đến 40% nhờ sử dụng AI trong các khâu như tạo hình nền, dựng video ngắn hay xử lý hình ảnh.
Tuy vậy, người trưởng phòng này khẳng định rằng việc sử dụng mô hình AI vẫn cần được kiểm soát chặt chẽ.
"Những ý tưởng trong thiết kế, nội dung quảng cáo chưa công bố hay số liệu của khách hàng bị rò rỉ qua AI có thể gây ra ảnh hưởng nghiêm trọng đến chiến lược quảng cáo của thương hiệu", cô Quỳnh cho biết.
Giải pháp của giới doanh nhân
Mặc dù chưa nhận văn bản chính thức về quy trình bảo mật AI, đội ngũ thiết kế của Ái Quỳnh vẫn được cho phổ biến ra đầy đủ các nguyên tắc sử dụng công cụ mới một cách an toàn.
Theo cô trưởng phòng, các phần mềm được đưa vào quy trình làm việc đều phải trải qua mức kiểm duyệt kỹ càng. Những nội dung mang tính chiến lược như file thiết kế gốc, kịch bản hình ảnh hay tài liệu nội bộ tuyệt đối không được nhập lên nền tảng AI, kể cả trong bước xử lý hay cho thử nghiệm.
"AI chỉ hỗ trợ tạo phần nguyên liệu như background, video ngắn hoặc hình minh họa. Còn phần xử lý chính vẫn được thực hiện trên các phần mềm bản quyền như Adobe. File gốc luôn được lưu trữ cẩn thận và không đưa lên bất cứ nền tảng AI nào cả", cô nhấn mạnh.
Các phương pháp bảo mật cần được đưa ra nhằm khắc phục nguy cơ bị lộ số liệu thông tin nội bộ. (Ảnh minh hoạ: Phương Lâm)
Với trường hợp của Đức Duy, công ty đang cho triển khai chiến lược bảo mật theo hai hướng kỹ thuật và con người.
Về mặt kỹ thuật, toàn bộ hệ thống được thiết lập dựa trên các tiêu chuẩn bảo mật quốc tế, kết hợp nhiều giải pháp chuyên sâu như
NGFW (Next Generation Firewall), DLP (Data Loss Prevention), MFA (Multi-Factor Authentication), WAF (Web Application Firewall), Threat Intelligence và
DBFW (Database Firewall).
Đặc biệt, công ty còn thường xuyên thực hiện các hoạt động
"kiểm tra thử xâm nhập" (penetration testing) và
"giả lập tấn công" (red teaming) nhằm đánh giá hiệu quả của hệ thống phòng thủ bảo vệ
Ở khía cạnh con người, vấn đề đào tạo nhân sự được xem là yếu tố then chốt. Đội ngũ thường xuyên được tham gia các buổi tập huấn
nâng cao nhận thức về bảo mật (Security Awareness Training), kết hợp với các chiến dịch giả lập tấn công qua hình thức
phishing (giả mạo qua email) hay s
ocial engineering (lừa đảo dựa trên hành vi con người) để phơi bày tính thực tế và đưa ra phản ứng kịp thời.
Ngoài ra, những số liệu nhạy cảm như mã lỗi hệ thống, thông tin cá nhân, doanh nghiệp hay tài sản trí tuệ của công ty tuyệt đối không được đưa lên nền tảng AI.
"Không có gì bảo đảm chắc chắn rằng công ty phát minh ra mô hình AI sẽ thực sự bảo vệ thông tin số liệu người dùng. Giải pháp tốt nhất là chủ động kiểm soát số liệu, hiểu rõ úng dụng đang dùng và luôn đặt yếu tố bảo mật lên hàng đầu", Duy có nhận định.
Trong khi đó, Đức Trung nhanh chóng cho triển khai kỹ lưỡng lại quy định bảo mật thông tin với nhân sự. Sau khi rà soát, anh nhận thấy toàn bộ quy định cũ đều chưa đề cập đến mô hình AI, cần phải bổ sung gấp thông tin này.
Tuy nhiên, trên thực tế, công ty chưa thể xây dựng bộ tiêu chuẩn ứng dụng trí tuệ nhân tạo cụ thể, chi tiết. Dù đã làm việc với luật sư và chuyên gia về AI, Trung vẫn nhận thấy còn nhiều vùng xám trong vấn đề này.
Hơn nữa, các úng dụng AI đều cho ra đời tương đối nhanh, đòi hỏi các quy định chặt chẻ cvà bảo đảm bảo tính linh động, dễ thích ứng. Do đó, Đức Trung dự định sẽ ký trước một bản quy định bảo mật căn bản với nhân sự, tiếp tục cho điều chỉnh và tái ký lại trong vòng 3-6 tháng.
Cần sớm xây dựng các quy định cụ thể
Trao đổi với
Znews, bà Thanh Nguyễn cho rằng kiến thức hiểu biết về AI hiện tại vẫn còn hạn chế. Song, một số vấn đề cụ thể có thể được nêu ra.
Trước tiên, vấn đề lớn của AI là
sự sai lệch thông tin. AI thực chất là một cỗ máy chỉ thu thập và xử lý số liệu ngay cả khi thông tin đầu vào không chính xác hoặc có sự thiên lệch nào đó.
"Khi tìm kiếm bất cứ một chủ đề nào, bạn sẽ thấy ra có nhiều quan điểm trái ngược. AI không có khả năng xác định đâu là đúng hay sai, chỉ cho tổng hợp lại số liệu đang có sẵn. Vì thế, người sử dụng cần có suy luận sáng suốt và tĩnh táo để đánh giá các thông tin, đáp án hoặc trả lời thay vì hoàn toàn tin tưởng vào đáp án cuối cùng", bà Thanh Nguyễn nói.
Ngoài ra, khi sử dụng mô hình AI đồng nghĩa với việc cung cấp số liệu cho hệ thống. Vì thế, cá nhân và tổ chức phải đối mặt với nguy cơ thông tin bị lưu trữ lại hoặc bị khai thác.
Trong môi trường kinh doanh làm ăn, điều này đặc biệt quan trọng, vì nhiều thông tin như mức doanh thu hay phần thị trường có tính bảo mật cao. Ở Việt Nam, vấn đề này có thể chưa có phổ biến rộng rãi, nhưng với tốc độ phát triển của mô hình AI, nguy cơ bị tiết lộ ra thông tin ngày càng lớn.
Do đó, nếu công ty nào muốn thực hiện ứng dụng AI rộng rãi, cần phải có các chương trình đào tạo về bảo mật thông tin cho nhân sự.
Bên cạnh đó, AI cũng có thể bị lợi dụng trong các cuộc tấn công thông tin. Trên thực tế, một chiến dịch truyền thông sử dụng tin giả có khả năng gây ra tổn hại nghiêm trọng đến danh tiếng của công ty. Ở châu Âu, nhiều quốc gia đã cho ban hành quy định chặt chẽ về việc sử dụng AI trong tổ chức, đặt trọng tâm vào việc bảo vệ người tiêu dùng và kiểm soát các rủi ro.
Việt Nam có thể sớm đưa ra chính sách tương tự. Các cơ quan quản lý và tổ chức chuyên môn cần nghiên cứu, đánh giá tầm quan trọng của AI, cũng như xác định các rủi ro tiềm ẩn, từ đó xây dựng hướng dẫn cụ thể cho cộng đồng doanh nghiệp.