Sau sự kiện ChatGPT tạo ra thông tin bịa đặt về công ty, giám đốc Đức Trung (TP.HCM) bắt đầu thấy lo lắng về mức dộ bảo mật và hậu quả về mặt pháp lư khi sử dụng mô h́nh AI để hỗ trợ công việc.
Việc ứng dụng AI trong xử lư công việc tiềm ẩn rủi ro lớn. (Ảnh minh hoạ: Phương Lâm)
Dù thường xuyên áp dụng mô h́nh ChatGPT trong công việc, Đức Trung (TP Thủ Đức, TP.HCM), giám đốc một công ty truyền thông với quy mô nhỏ, chưa lường trước t́nh huống AI bịa đặt hàng loạt thông tin dối trá về công ty kinh doanh của ḿnh.
Trước đây, anh chỉ ứng dụng trí tuệ nhân tạo trong việc xây dựng ra ư tưởng, hỗ trợ đọc các báo cáo, thu thập thông tin và nghiên cứu. Khi thử sử dụng AI để xử lư một số vấn đề về giấy tờ, anh nhận thấy công cụ trí tuệ này đưa ra nhiều số liệu sai lệch về công ty.
Đức Trung suy đoán, hệ thống đă dựa trên các thông tin mà anh từng nhập vô, rồi tự động suy diễn, thêm thắt, dẫn đến việc lan truyền ra những nội dung không chính xác về công ty.
Không chỉ Đức Trung, phần lớn nhân sự của anh đều đang thực hiện ứng dụng C
hatGPT, Grok và
MidJourney vào công việc hàng ngày. Một số nhân viên thuộc bộ phận sáng tạo nội dung và thiết kế h́nh ảnh c̣n được cung cấp tài khoản có trả lệ phí hàng tháng.
V́ thế, giám đốc này bắt đầu thấy lo lắng nhiều hơn về vấn đề bảo mật. Bên cạnh các thông tin về doanh nghiệp, Trung cũng sợ làm lộ dữ kiện của khách hàng, đối tác.
"Các hợp đồng kinh doanh đều có ghi rơ các điều khoản bảo mật. Nếu thông tin bị tuồn ra ngoài, chúng tôi đứng trước nguy cơ sẽ phải bị đền bù, gánh chịu thiệt hại lớn về tài chính, thậm chí phải chịu trách nhiệm trước pháp luật", Đức Trung nói.
Theo bà Thanh Nguyễn, Giám đốc Điều hành và Truyền cảm hứng hạnh phúc tại công ty tư vấn thương hiệu tuyển dụng
Anphabe, nhiều người đứng đầu tại Việt Nam lo lắng về vấn đề bảo mật số liệu của công ty. Đó là một trong những lư do dẫn đến việc có nhiều tổ chức tin rằng tuy việc sử dụng trí tuệ nhân tạo là điều quan trọng, nhưng chưa sẵn sàng cho triển khai thực hiện.
Đây không chỉ là t́nh trạng xảy ra ở Việt Nam, mà c̣n ở nhiều quốc gia khác trên thế giới. Theo báo cáo
Tin cậy Số liệu 2025 của nền tảng
Ataccama, 43% các công ty kinh doanh xem vấn đề bảo mật thông tin là rào cản lớn nhất khi cho triển khai mô h́nh AI. 21% các tổ chức không có khung quản trị kiểm tra số liệu, dẫn đến nguy cơ cao về việc vi phạm bảo mật và mất ḷng tin khi áp dụng công cụ trí tuệ nhân tạo trong công việc.
Về biện pháp khắc phục, 51% các người đứng đầu phụ trách xem việc cải thiện chất lượng và mức độ chính xác trong số liệu là ưu tiên hàng đầu, giúp làm giảm rủi ro với ứng dụng AI. Bên cạnh đó, các phương pháp như sử dụng công cụ tự động phát hiện thông tin nhạy cảm hay thiết lập khung quản trị thông tin qua các cấp lănh đạo từ trên xuống dưới cũng được đề cập đến.
Tiềm ẩn nguy cơ bị ṛ rỉ thông tin nội bộ
Bên cạnh công ty truyền thông của Đức Trung, công ty phân phối giải pháp bảo mật, nơi Đức Duy (26 tuổi, quận 7, TP.HCM) giữ vai tṛ phụ trách cấp trung, cũng lo ngại về khả năng bị ṛ rỉ số liệu khi sử dụng mô h́nh AI.
Đức Duy nhận thấy nguy cơ bị ṛ rỉ thông tin doanh nghiệp khi sử dụng trí tuệ nhân tạo(Ảnh minh họa)
Đội ngũ kỹ thuật ở công ty Đức Duy bắt đầu cho kết hợp các ứng dụng trí tuệ nhân tạo như
ChatGPT và
Grok vào quy tŕnh làm việc từ năm ngoái. AI được xem như phụ tá
"ảo", đảm nhiệm những công việc mang tính lặp lại như viết code, tạo file hay tổng hợp các thông tin chuyên ngành.
Việc sử dụng AI giúp tiết kiệm đáng kể thời gian xử trí, nhờ đó các nhân sự khác có thể tập trung nhiều hơn vào các nhiệm vụ đ̣i hỏi chuyên môn sâu như tham vấn kỹ thuật hay phát triển mở rộng kinh doanh.
Tuy nhiên, anh cũng thẳng thắn cảnh cáo rằng hiệu suất luôn đi kèm với rủi ro, đặc biệt là nguy cơ bị ṛ rỉ các thông tin nhạy cảm.
"Chỉ cần một đoạn câu lệnh, một thông báo lỗi hay mă code được đưa lên AI, nguy cơ mất số liệu doanh nghiệp là hoàn toàn có thể xảy ra", anh nhấn mạnh. Những đoạn dối thoại tưởng chừng vô hại có thể vô t́nh để lộ ra các thông tin quan trọng, từ đó trở thành mục tiêu khai thác của bọn hacker hoặc tổ chức tội phạm mạng.
Mối nguy không chỉ đến từ nội bộ. Khi làm việc với đối tác có hệ thống bảo mật kém, rủi ro lại càng gia tăng. Các h́nh thức tấn công phổ biến như
phishing (giả mạo qua email),
social engineering (lừa đảo dựa trên hành vi con người) hay lây nhiễm mă độc qua sự liên kết độc hại có thể gây ra nhiều thiệt hại lớn.
Tương tự, Ái Quỳnh (30 tuổi, quận Phú Nhuận, TP.HCM), trưởng pḥng thiết kế tại một
agency quảng cáo, cũng nhận thấy nhiều công cụ AI miễn phí hiện nay có thể âm thầm thu thập số liệu mà người sử dụng không hay biết.
Tại công ty cô, các buổi workshop đào tạo về AI được tổ chức thường xuyên cho nhiều đội nhóm. Riêng nhóm thiết kế ghi nhận mức cải thiện năng suất lên đến 40% nhờ sử dụng AI trong các khâu như tạo h́nh nền, dựng video ngắn hay xử lư h́nh ảnh.
Tuy vậy, người trưởng pḥng này khẳng định rằng việc sử dụng mô h́nh AI vẫn cần được kiểm soát chặt chẽ.
"Những ư tưởng trong thiết kế, nội dung quảng cáo chưa công bố hay số liệu của khách hàng bị ṛ rỉ qua AI có thể gây ra ảnh hưởng nghiêm trọng đến chiến lược quảng cáo của thương hiệu", cô Quỳnh cho biết.
Giải pháp của giới doanh nhân
Mặc dù chưa nhận văn bản chính thức về quy tŕnh bảo mật AI, đội ngũ thiết kế của Ái Quỳnh vẫn được cho phổ biến ra đầy đủ các nguyên tắc sử dụng công cụ mới một cách an toàn.
Theo cô trưởng pḥng, các phần mềm được đưa vào quy tŕnh làm việc đều phải trải qua mức kiểm duyệt kỹ càng. Những nội dung mang tính chiến lược như file thiết kế gốc, kịch bản h́nh ảnh hay tài liệu nội bộ tuyệt đối không được nhập lên nền tảng AI, kể cả trong bước xử lư hay cho thử nghiệm.
"AI chỉ hỗ trợ tạo phần nguyên liệu như background, video ngắn hoặc h́nh minh họa. C̣n phần xử lư chính vẫn được thực hiện trên các phần mềm bản quyền như Adobe. File gốc luôn được lưu trữ cẩn thận và không đưa lên bất cứ nền tảng AI nào cả", cô nhấn mạnh.
Các phương pháp bảo mật cần được đưa ra nhằm khắc phục nguy cơ bị lộ số liệu thông tin nội bộ. (Ảnh minh hoạ: Phương Lâm)
Với trường hợp của Đức Duy, công ty đang cho triển khai chiến lược bảo mật theo hai hướng kỹ thuật và con người.
Về mặt kỹ thuật, toàn bộ hệ thống được thiết lập dựa trên các tiêu chuẩn bảo mật quốc tế, kết hợp nhiều giải pháp chuyên sâu như
NGFW (Next Generation Firewall), DLP (Data Loss Prevention), MFA (Multi-Factor Authentication), WAF (Web Application Firewall), Threat Intelligence và
DBFW (Database Firewall).
Đặc biệt, công ty c̣n thường xuyên thực hiện các hoạt động
"kiểm tra thử xâm nhập" (penetration testing) và
"giả lập tấn công" (red teaming) nhằm đánh giá hiệu quả của hệ thống pḥng thủ bảo vệ
Ở khía cạnh con người, vấn đề đào tạo nhân sự được xem là yếu tố then chốt. Đội ngũ thường xuyên được tham gia các buổi tập huấn
nâng cao nhận thức về bảo mật (Security Awareness Training), kết hợp với các chiến dịch giả lập tấn công qua h́nh thức
phishing (giả mạo qua email) hay s
ocial engineering (lừa đảo dựa trên hành vi con người) để phơi bày tính thực tế và đưa ra phản ứng kịp thời.
Ngoài ra, những số liệu nhạy cảm như mă lỗi hệ thống, thông tin cá nhân, doanh nghiệp hay tài sản trí tuệ của công ty tuyệt đối không được đưa lên nền tảng AI.
"Không có ǵ bảo đảm chắc chắn rằng công ty phát minh ra mô h́nh AI sẽ thực sự bảo vệ thông tin số liệu người dùng. Giải pháp tốt nhất là chủ động kiểm soát số liệu, hiểu rơ úng dụng đang dùng và luôn đặt yếu tố bảo mật lên hàng đầu", Duy có nhận định.
Trong khi đó, Đức Trung nhanh chóng cho triển khai kỹ lưỡng lại quy định bảo mật thông tin với nhân sự. Sau khi rà soát, anh nhận thấy toàn bộ quy định cũ đều chưa đề cập đến mô h́nh AI, cần phải bổ sung gấp thông tin này.
Tuy nhiên, trên thực tế, công ty chưa thể xây dựng bộ tiêu chuẩn ứng dụng trí tuệ nhân tạo cụ thể, chi tiết. Dù đă làm việc với luật sư và chuyên gia về AI, Trung vẫn nhận thấy c̣n nhiều vùng xám trong vấn đề này.
Hơn nữa, các úng dụng AI đều cho ra đời tương đối nhanh, đ̣i hỏi các quy định chặt chẻ cvà bảo đảm bảo tính linh động, dễ thích ứng. Do đó, Đức Trung dự định sẽ kư trước một bản quy định bảo mật căn bản với nhân sự, tiếp tục cho điều chỉnh và tái kư lại trong ṿng 3-6 tháng.
Cần sớm xây dựng các quy định cụ thể
Trao đổi với
Znews, bà Thanh Nguyễn cho rằng kiến thức hiểu biết về AI hiện tại vẫn c̣n hạn chế. Song, một số vấn đề cụ thể có thể được nêu ra.
Trước tiên, vấn đề lớn của AI là
sự sai lệch thông tin. AI thực chất là một cỗ máy chỉ thu thập và xử lư số liệu ngay cả khi thông tin đầu vào không chính xác hoặc có sự thiên lệch nào đó.
"Khi t́m kiếm bất cứ một chủ đề nào, bạn sẽ thấy ra có nhiều quan điểm trái ngược. AI không có khả năng xác định đâu là đúng hay sai, chỉ cho tổng hợp lại số liệu đang có sẵn. V́ thế, người sử dụng cần có suy luận sáng suốt và tĩnh táo để đánh giá các thông tin, đáp án hoặc trả lời thay v́ hoàn toàn tin tưởng vào đáp án cuối cùng", bà Thanh Nguyễn nói.
Ngoài ra, khi sử dụng mô h́nh AI đồng nghĩa với việc cung cấp số liệu cho hệ thống. V́ thế, cá nhân và tổ chức phải đối mặt với nguy cơ thông tin bị lưu trữ lại hoặc bị khai thác.
Trong môi trường kinh doanh làm ăn, điều này đặc biệt quan trọng, v́ nhiều thông tin như mức doanh thu hay phần thị trường có tính bảo mật cao. Ở Việt Nam, vấn đề này có thể chưa có phổ biến rộng răi, nhưng với tốc độ phát triển của mô h́nh AI, nguy cơ bị tiết lộ ra thông tin ngày càng lớn.
Do đó, nếu công ty nào muốn thực hiện ứng dụng AI rộng răi, cần phải có các chương tŕnh đào tạo về bảo mật thông tin cho nhân sự.
Bên cạnh đó, AI cũng có thể bị lợi dụng trong các cuộc tấn công thông tin. Trên thực tế, một chiến dịch truyền thông sử dụng tin giả có khả năng gây ra tổn hại nghiêm trọng đến danh tiếng của công ty. Ở châu Âu, nhiều quốc gia đă cho ban hành quy định chặt chẽ về việc sử dụng AI trong tổ chức, đặt trọng tâm vào việc bảo vệ người tiêu dùng và kiểm soát các rủi ro.
Việt Nam có thể sớm đưa ra chính sách tương tự. Các cơ quan quản lư và tổ chức chuyên môn cần nghiên cứu, đánh giá tầm quan trọng của AI, cũng như xác định các rủi ro tiềm ẩn, từ đó xây dựng hướng dẫn cụ thể cho cộng đồng doanh nghiệp.