Các sự cáo buộc về việc DOGE đang sử dụng trí tuệ nhân tạo (AI) để sắp xếp tinh gọn guồng máy chính phủ liên bang làm cho nhiều chuyên gia lo ngại về nguy cơ về vấn đề an toàn số liệu và gây tổn hại đến các dịch vụ công cộng thiết yếu.
Ban Hiệu quả Chính phủ (DOGE) do tỷ phú Elon Musk đứng đầu được cho là đă sử dụng trí tuệ nhân tạo (AI) để phân tích số liệu từ các cơ quan chính phủ liên bang, nhằm xác định những lĩnh vực có thể bị cắt giảm hoặc cơ quan nào sẽ cho dẹp bỏ dưới danh nghĩa tiết kiệm, chống gian lận thất thoát, theo tin của
CNN.
Tuy nhiên, việc ứng dụng kỹ thuật này làm dấy lên làn sóng lo ngại từ các chuyên gia, những người lên tiếng báo động rằng hệ thống AI có thể đưa ra nhiều quyết định thiếu chính xác, thiên vị và thậm chí vi phạm đến quyền công dân dược Hiến Pháp bảo vệ.
"Việc phụ thuộc vào AI trong các quyết định cắt giảm nhân sự là một sự rủi ro nghiêm trọng. Với kỹ thuật hiện tại, đây là một ư tưởng rất tồi tệ", David Evan Harris, chuyên gia nghiên cứu AI từng làm việc tại Meta, có nhận định.
Ông Harris lo ngại rằng, AI có thể dựa vào đầu vào của các thông tin thu thập được, sẽ đưa ra gợi ư cho sa thải nhầm lẫn những nhân viên quan trọng hoặc vi phạm các quyền lợi của người làm việc cho chính phủ liên bang.
Cáo buộc DOGE sử dụng AI để cho cắt giảm nhân sự
Hồi tháng 2 vừa qua, tờ Washington Post trích dẫn hai nguồn tin giấu tên nói rằng DOGE đă sử dụng AI để phân tích số liệu của Bộ Giáo dục thông qua nền tảng đám mây của Microsoft.
Mục tiêu của hành vi này là để xác định ra những chương tŕnh có thể bị cắt giảm nhằm tiết kiệm chi phí.
Bên cạnh đó, DOGE c̣n được cho là đang phát minh ra một chatbot AI mang tên
GSAi, nhằm hỗ trợ cho việc phân tích số liệu từ các hợp đồng kư kết và đấu thầu của chính phủ, theo
Wired.
GSAi được cho là chatbot AI thiết kế cho Cơ quan Dịch vụ Công Mỹ (GSA). (Ảnh: Bloomberg)
Một trong những kế hoạch gây ra tranh căi nhiều nhất là việc sử dụng AI để đánh giá báo cáo công việc của giới công chức liên bang. Theo
NBC News, DOGE đă từng cân nhắc việc yêu cầu các nhân viên phải liệt kê ra 5 đề mục công việc mà họ đă hoàn tất trong tuần, sau đó cho sử dụng AI để phân tích các số liệu này và xác định vị trí nào có thể bị loại bỏ.
Tuy nhiên, giới chuyên gia cảnh cáo cách tiếp cận này tiềm tàng nhiều nguy cơ.
"Khi cho cắt giảm nhân sự trong các công ty tư nhân, hậu quả trước mắt có thể chỉ là sự gián đoạn hoạt động tạm thời. Tuy nhiên, khi áp dụng biện pháp này với guồng máy chính phủ, có thể sẽ có người phải trả giá bằng tính mạng", John Hatton, phó Chủ tịch Hiệp hội Công chức Liên bang Nghỉ hưu và tại chức, có nói.
Bên cạnh đó,
Wired cũng đưa tin rằng DOGE có thể đă cho chỉnh sửa phần mềm
AutoRIF, vốn là một ứng dụng đặc biệt của Bộ Quốc Pḥng dùng để xếp hạng nhân viên theo mức độ ưu tiên sa thải. Điều này làm dấy lên lo ngại rằng AI có thể đưa ra quyết định mà không có sự giám sát cần thiết từ con người.
Rủi ro tiềm tàng
21 nhân viên của
Cơ quan Dịch vụ Kỹ thuật số Mỹ (USDS) đă đồng loạt xin từ chức hôm 26/2 để phản đối việc DOGE can thiệp thô bạo vào hệ thống công quyền một cách thiếu sự kiểm soát chặt chẻ, sau khi các Tông thanh tra bên cạnh chính phủ liên bang đă buộc phải từ chức.
Trong lá thư gửi đến Ṭa Bạch Ốc, nhóm chuyên gia này có nhấn mạnh:
"Chúng tôi không thể sử dụng kỹ năng của ḿnh để làm tổn hại đến hệ thống chính phủ cốt lơi, làm nguy hại đến thông tin nhạy cảm của người dân, hay tiếp tay phá hoại các dịch vụ công thiết yếu".
Một trong những vấn đề nghiêm trọng nhất khi sử dụng AI trong việc cắt giảm nhân sự là vấn đề thiên vị. Các hệ thống AI từng bị tố cáo là nặng phần thiên vị trong việc tuyển dụng, với xu hướng ưu tiên cho ứng viên da trắng và nam giới hơn các nhóm đối tượng khác.
Việc ứng dụng AI để đánh giá năng suất và múc hiệu quả làm việc của giới công chức liên bang có thể gây ra nhiều tác động tiêu cực đến giới phụ nữ và người da màu, theo
CNN.
"Ngay cả khi AI không được lập tŕnh ra để dưa ra những khuyến cáo phân biệt đối xử, kỹ thuật này vẫn có khả năng ưu tiên trong cách diễn đạt hoặc phong cách viết của một nhóm người nhất định", ông Harris cảnh báo.
Chuyên gia AI này cũng cho rằng những nhân viên tuy giỏi nhưng không sử dụng tiếng Anh thành thạo như ngôn ngữ mẹ đẻ có thể bị đánh giá thấp hơn so với người bản xứ, ngay cả khi họ có năng lực chuyên môn thật xuất sắc.
Việc sử dụng AI trong cắt giảm nguồn nhân sự và tiết kiệm ngân sách liên bang đặt ra nhiều dấu hỏi về tính bảo mật và khía cạnh đạo đức. (Ảnh: Unsplash)
Ngoài ra, việc DOGE được toán quyền tiếp cận toàn bộ số liệu của các cơ quan chính phủ mà không có sự kiểm soát chặt chẽ cũng đặt ra nguy cơ mất an toàn thông tin.
"Bạn không thể chỉ đơn giản nghiên cứu đào tạo một hệ thống AI dựa trên số liệu mà bạn không nắm hiểu rơ, bởi v́ đầu ra của nó có thể không chính xác hoặc thiếu bối cảnh thực tế quan trọng: con người", Amanda Renteria, Giám đốc Điều hành tổ chức phi lợi nhuận
Code for America, đưa ra nhận xét.
Tỷ phú Musk từng thừa nhận rằng DOGE có thể mắc phải nhiều sai lầm và đă vô t́nh cho cắt giảm một số chương tŕnh quan trọng, đơn cử như công tác pḥng chống dịch Ebola. Ông cam kết (?) sẽ cho khôi phục các chương tŕnh này, nhưng không đưa ra giải thích rơ ràng về vai tṛ của AI trong quá tŕnh ra các quyết định.
Các chuyên gia cho rằng AI có thể đưa ra những quyết định sai lầm với các hậu quả nghiêm trọng nếu không có cơ chế để giám sát chặt chẻ và đánh giá phù hợp.
Julia Stoyanovich, giáo sư Khoa học về Máy tính tại Đại học ở New York, có nhấn mạnh:
"Nếu muốn AI thực sự có hiệu quả tốt, chúng ta phải xác định rơ mục tiêu của kỹ thuật mới mẽ này và kiểm tra nghiêm ngặt xem liệu hệ thống qua các phân tích sâu có đạt được mục tiêu đó hay không".
Bất chấp những sự lo ngại và chống đối của công chúng và ngay trong nội bộ chính phủ, hiện DOGE vẫn chưa công khai ra danh sách các ứng dụng AI mà họ đang sử dụng, quy tŕnh kiểm tra, hay biện pháp giám sát cụ thể nào để bảo đảm tính chính xác và minh bạch của hệ thống.
Điều này khiến cho nhiều chuyên gia đặt câu hỏi về mức hiệu quả và tính cách đạo đức trong chiến lược sử dụng AI để cắt giảm ngân sách liên bang.
Các chuyên gia cũng kêu gọi chính phủ cần có biện pháp giám sát chặt chẽ hơn để bảo đảm rằng, AI sẽ không trở thành phương tiện gây ra sự mất ổn định trong hệ thống công quyền và mất ḷng tin ở người dân.
"Người dân Mỹ có quyền biết chính xác AI đang được sử dụng như thế nào để định h́nh lại các cơ quan và dịch vụ mà họ đang phụ thuộc vào hàng ngày", Skye Perryman, giám đốc điều hành tổ chức Dân chủ Tiến lên, nói.