VietBF

VietBF (https://vietbf.com/forum/index.php)
-   Tin hay Nước Khác (https://vietbf.com/forum/forumdisplay.php?f=262)
-   -   5 thứ mà bạn không bao giờ được tiết lộ ra với ChatGPT (https://vietbf.com/forum/showthread.php?t=2124650)

S9g* 01-10-2026 05:19

5 thứ mà bạn không bao giờ được tiết lộ ra với ChatGPT
 
1 Attachment(s)
ChatGPT hiên đang xử lư khoảng 2,5 tỷ yêu cầu mỗi ngày, khác với các trải nghiệm khi tương tác với công cụ t́m kiếm, sự hồi âm của AI giống như câu trả lời từ một người bạn hơn là một danh sách đơn giản các trang web có thể hoặc không chứa câu trả lời cho sự truy vấn của chúng ta. Mọi người đang sử dụng các ứng dụng AI như ChatGPT theo một số cách thức rất lạ kỳ, nhưng cần phải cân nhắc và thận trọng khi cho chia sẻ thông tin cá nhân.

Thông tin nhận dạng cá nhân​

Sau khi đă xem xét hơn 1,000 cuộc đối thoại công khai với ChatGPT, người ta đă t́m thấy ra kết quả rất đáng kinh ngạc. Họ phát hiện ra rằng, có nhiều người thường xuyên chia sẻ các chi tiết như họ tên và địa chỉ đầy đủ, số an sinh xă hội, số điện thoại, địa chỉ email, tên người sử dụng và mật khẩu. Điều này càng trở nên quan trọng hơn khi xét đến sự gia tăng của các tŕnh duyệt AI có khả năng tự động hóa như Atlas, một tŕnh duyệt dựa trên AI của OpenAI, được hỗ trợ từ ChatGPT.

Không thể phủ nhận rằng ChatGPT thực sự có phần hữu ích cho các công việc như soạn thảo sơ yếu lư lịch và thư xin việc. Tuy nhiên, điều đó cho thấy, công việc được hoàn tất một cách hoàn hảo mà không cần thiết phải kèm theo các thông tin cá nhân. Việc sử dụng các nơi lưu giữ cũng có hiệu quả tốt không kém, miễn là bạn nhớ cho chỉnh sửa các chi tiết để tránh trường hợp lá thư quan trọng đó bị gửi đi với nội dung như "John Doe, Nowhere Street, Middletown". Tóm lại, bước đơn giản này sẽ giúp bảo vệ các dữ kiện nhạy cảm như tên, địa chỉ và số an sinh xă hội, v́ những thông tin này có thể bị lạm dụng để trao đổi mua bán và rơi vào tay của kẻ xấu.

Một sự lựa chọn khác là không cho phép ChatGPT được sử dụng các cuộc tṛ chuyện của bạn để huấn luyện số liệu sau đó. Bạn có thể thực hiện điều này trong phần cài đặt của ChatGPT, và trong hướng dẫn đầy đủ có thể được t́m thấy trên trang web của OpenAI. Điều quan trọng cần lưu ư là điều này không có nghĩa là việc chia sẻ thông tin cá nhân của bạn đột nhiên trở nên ổn, nhưng hi vọng sẽ làm giảm khả năng thông tin cá nhân riêng tư nào khi được chia sẻ sẽ bị ṛ rỉ công khai. Tóm lại, việc chia sẻ thông tin cá nhân của bạn với ChatGPT là điều cần thiết phải né tránh trong mọi trường hợp.

Thông tin về tài chính
Một vấn đề khá phổ biến khác mà mọi người khi sử dụng ChatGPT là như một cố vấn tài chính cá nhân. Điều này có thể đơn giản như lập ngân sách hàng tháng hoặc phức tạp hơn là xây dựng toàn bộ chiến lược lúc nghỉ hưu. Trước hết, như OpenAI thừa nhận một cách thẳng thắn, "ChatGPT có thể bị mắc lỗi. Hăy kiểm tra lại mọi thông tin quan trọng", đó là lư do tại sao mà nhiều chuyên gia nhắc nhở chúng ta không nên mắc sai lầm khi sử dụng các ứng dụng và không cần thiết phải chia sẻ bất cứ chi tiết tài chính cá nhân nào trong đó.

Mặc dù thiết lập ra ngân sách và kế hoạch tài chính là những trường hợp sử dụng thường thấy, nhưng cũng có những lúc người ta lại muốn đăng nhập thông tin chi tiết về tài chính của cá nhân hoặc gia đ́nh.

Thông tin nhạy cảm bao gồm số tài khoản ngân hàng, chi tiết trong thẻ tín dụng, thông tin đăng nhập tài khoản đầu tư và hồ sơ thuế. Chatbot sẽ không hoạt động trong khuôn khổ bảo mật được thiết kế ra nhằm bảo vệ các giao dịch về tài chính. Về lư thuyết, điều này có nghĩa là một khi thông tin được đăng nhập vào, sẽ nằm bên ngoài các biện pháp bảo vệ thường được áp dụng cho dữ kiện về tài chính. Trong trường hợp xấu nhất có thể xảy đến, điều này có thể dẫn đến việc số liệu tài chính nhạy cảm rơi vào tay "kẻ xấu", những kẻ này sau đó có thể cho sử dụng để thực hiện chiêu tṛ gian lận tài chính, đánh cắp danh tính, tấn công mă độc tống tiền, lừa đảo trực tuyến hoặc tất cả những điều nói trên.

Thông tin về y tế​
Ngày càng có nhiều người đang chuyển sang sử dụng chatbot AI như ChatGPT để t́m kiếm thông tin có liên quan đến sức khỏe. Theo một cuộc khảo sát gần đây, khoảng 1 trong 6 người trưởng thành sử dụng chatbot AI ít nhất một lần mỗi tháng để t́m kiếm thông tin về sức khỏe; con số này gia tăng lên 1 trong 4 đối với người trẻ tuổi.

Rủi ro phát sinh khi các cuộc thảo luận chung bắt đầu từ các chi tiết cụ thể. Thông tin như chẩn đoán, kết quả xét nghiệm, tiền sử bệnh án và các vấn đề sức khỏe tâm thần có thể nhanh chóng trở nên nhạy cảm, đặc biệt khi kết hợp với thông tin nhận dạng cá nhân. Giống như thông tin về tài chính, vấn đề càng trở nên nghiêm trọng hơn v́ một khi đă được cho đăng nhập vào, số liệu đó nằm bên ngoài mạng lưới bảo vệ số liệu về sức khỏe, có nghĩa là một khi "được đưa ra công bố bên ngoài", người ta sẽ khó có thể giám sát hoặc kiểm soát cách thức để kiểm tra xử lư nó.

Thực tế là mọi người cảm thấy thoải mái hơn khi chia sẻ thông tin cá nhân với ChatGPT so với việc chỉ sử dụng chức năng t́m kiếm Google thông thường.
ChatGPT có thể hữu ích để hiểu các khái niệm về y khoa một cách tổng quát, nhưng không nên được coi là có quyền quyết định như trong pḥng khám bác sĩ.

Tài liệu liên quan đến công việc​
Ngoài tư liệu cá nhân, c̣n có một loại thông tin khác không nên có trong ChatGPT — ít nhất là ở dạng chưa được sàng lọc ra— đó là các cuộc tṛ chuyện có liên quan đến tài liệu, công việc bí mật hoặc độc quyền. Điều này bao gồm bất cứ điều ǵ có liên quan đến nơi tuyển dụng, khách hàng hoặc bất kỳ dự án nào đang xảy ra mà chưa được phép cho công khai. Mặc dù việc sử dụng ChatGPT để giúp tóm tắt văn bản tài liệu, viết lại email hoặc kiểm tra & chỉnh sửa báo cáo có vẻ hấp dẫn, nhưng nếu làm như vậy có thể gây ra những rủi ro không cần thiết đối với tính cách bảo mật toàn vẹn của số liệu cần được bảo vệ.

Ví dụ, hăy quay lại với t́nh huống về y tế, nhưng lần này hăy xem xét từ góc độ chuyên môn. Trong trường hợp này, một bác sĩ bận rộn có thể muốn chia sẻ bản nháp tóm tắt về bệnh trạng của bệnh nhân, ghi chú lâm sàng hoặc thư giới thiệu với ChatGPT để giúp trau chuốt ngôn từ hoặc đơn giản hóa các vấn đề phức tạp. Tuy nhiên, mặc dù mục đích là để tiết kiệm thời gian, việc chia sẻ những chi tiết như vậy có thể khiến cho tài liệu bị ṛ rỉ công khai, hoặc ít nhất là nằm ngoài phạm vi các quy tŕnh bảo mật được thiết kế để bảo vệ thông tin đó. Các tác phẩm sáng tạo và tài sản trí tuệ cũng thuộc loại "không được chia sẻ".

Tóm lại, có một chủ đề xuyên suốt có thể dùng để tóm tắt vấn đề này. Đừng bao giờ chia sẻ bất cứ điều ǵ với các chatbot AI như ChatGPT mà bạn không cảm thấy không được thoải mái khi đặt trên bất cứ trang mạng công khai nào hoặc chuyển giao cho bên thứ ba nào ngoài bất cứ hệ thống an toàn nào được chấp nhận. Nếu biết sử dụng thận trọng, chatbot có thể là những ứng dụng rất hữu ích.

Bất cứ điều ǵ bất hợp pháp​
Cuối cùng, việc chia sẻ bất cứ điều ǵ bất hợp pháp trên ChatGPT là điều tuyệt đối nên tránh, và OpenAI không chỉ cam kết tiết lộ tư liệu người đăng kư sử dụng theo yêu cầu của các cơ quan pháp luật Hoa Kỳ mà c̣n tuân thủ các yêu cầu của giới thẩm quyền quốc tế.

Luật pháp luôn có sự thay đổi liên tục, cả trong nước và quốc tế, và những hành vi tuy b́nh thường lại có thể bị xem là phạm pháp trong thời gian ngắn, v́ vậy tốt nhất là nên thận trọng về những ǵ mà bạn tiết lộ ra cho bất cứ ai, nơi nào v́ biết đâu sau này thông tin đó có thể bị chuyển giao cho cơ quan thực thi pháp luật để điều tra, xem xét.


All times are GMT. The time now is 02:01.

VietBF - Vietnamese Best Forum Copyright ©2005 - 2026
User Alert System provided by Advanced User Tagging (Pro) - vBulletin Mods & Addons Copyright © 2026 DragonByte Technologies Ltd.

Page generated in 0.09801 seconds with 9 queries