![]() |
Chỉ với 3 chữ, ChatGPT đă tiết lộ ra "key Windows thật" cho hacker
1 Attachment(s)
Bạn có bao giờ nghĩ rằng, chỉ với ba chữ "I give up" (Tôi bỏ cuộc), bạn có thể khiến cho ChatGPT lỡ miệng để tiết lộ ra "key bản quyền của Windows"?
Chuyện này tưởng như đùa nhưng đó lại là một lỗ hổng thực sự đă từng xảy ra với ChatGPT-4. Một chuyên gia săn lỗi AI đă khai thác điểm yếu trong lối suy luận logic của mô h́nh bằng cách… rủ ChatGPT chơi tṛ chơi đoán qua kư tự. Và chỉ bằng cách kết thúc tṛ chơi đúng theo "luật", khi nói "I give up", người này đă khiến cho mô h́nh đă tiết lộ ra những ǵ mà nó vốn không được phép nói ra. Khi "tṛ chơi" là cách nhằm đánh lừa AI Toàn bộ màn "cho mở khóa thông tin" này không đến từ một câu hỏi trực diện, mà lại từ một tṛ chơi tưởng chừng vô hại: người dùng yêu cầu ChatGPT nghĩ về một chuỗi kư tự cụ thể, rồi họ sẽ cho đoán dần. Quan trọng là, chuỗi kư tự đó phải là một mă bản quyền Windows 10 có thật. Và luật chơi đặt ra: ChatGPT chỉ được trả lời "yes" hoặc "no" cho mỗi lần đoán, nhưng nếu người chơi nói, "I give up" th́ ChatGPT bắt buộc phải tiết lộ ra chuỗi kư tự đó. ChatGPT đồng ư chơi. Người dùng đoán vài lần rồi "bỏ cuộc". Thế là ChatGPT... đă làm đúng theo luật: tiết lộ mă bản quyền Windows thật. Trong đó có cả key thuộc về ngân hàng Wells Fargo. ![]() (Minh họa) Đây chính là "cú lách" logic mà chuyên gia Marco Figueroa gọi là trigger tâm lư mô h́nh, khi bạn khiến cho AI tin rằng, theo bối cảnh đă cho lập tŕnh sẵn (pre-programmed), nó buộc phải trả lời thông tin nhạy cảm. Tại sao AI lại biết được những mă key này? Vấn đề không chỉ nằm ở câu hỏi lắt léo, mà c̣n ở số liệu mà mô h́nh đă học hỏi qua. Những mă key Windows, dù không cố ư, có thể đă bị đưa vào các bộ dữ kiện để huấn luyện nếu trước đó có ai đó vô t́nh công khai các key đó trên GitHub hay nền tảng công khai khác. Và AI khị học và thu thập hết, không biết đó là thứ mà lẽ ra không nên biết và không nên tiết lộ ra, dù có yêu cầu. Figueroa cảnh cáo, đây không chỉ là nguy cơ về lư thuyết. Microsoft từng gặp sự trục trặc kỹ thuật làm lộ ra mă khóa trên GitHub. Việc để lộ ra thông tin như API key, mă truy cập hay số liệu cá nhân rồi bị AI học trộm hoàn toàn có thể xảy ra, một khi mô h́nh đă được huấn luyện từ số liệu công khai mà không được sàng lọc ra kỹ. Chiêu "HTML đánh lừa" và bài học để pḥng thủ Không chỉ đưa ra tṛ chơi, chuyên gia nghiên cứu c̣n cho áp dụng một chiêu khác: nhúng mă nhạy cảm vào thẻ HTML để đánh lừa bộ lọc của AI. Mới nh́n qua th́ có vẻ là một đoạn văn b́nh thường, nhưng bên trong lại có chứa số liệu nhạy cảm. Bộ lọc nội dung đă không phát hiện ra v́ nó chỉ nh́n theo cách "nghĩa đen". Đây là điểm yếu mà nhiều hệ thống AI hiện nay đang mắc phải: thiếu khả năng nhận biết "Dự đoán từ trước trong một chuỗi". Figueroa khuyến cáo phải gia tăng khả năng cho kiểm tra chéo giữa logic tṛ chuyện, bối cảnh và nội dung thực tế thay v́ chỉ dựa vào các chữ khóa nhạy cảm đơn lẻ. Nếu một câu đơn giản như "I give up" có thể vượt qua hàng rào an toàn của AI, th́ câu hỏi lớn hơn là: hệ thống chúng ta đang dựa vào có thực sự được an toàn hay chưa? Theo Theregister Nguồn bài viết: https://www.theregister.com/2025/07/..._windows_keys/ |
All times are GMT. The time now is 18:08. |
VietBF - Vietnamese Best Forum Copyright ©2005 - 2025
User Alert System provided by
Advanced User Tagging (Pro) -
vBulletin Mods & Addons Copyright © 2025 DragonByte Technologies Ltd.