![]() |
Nam sinh Mỹ qua đời sau nhiều cuộc tṛ chuyện với ChatGPT, gia đ́nh khởi kiện OpenAI
1 Attachment(s)
Một nam sinh 16 tuổi ở Mỹ đă tự chấm dứt cuộc sống của ḿnh sau nhiều tháng tṛ chuyện với ChatGPT. Gia đ́nh nam sinh tin rằng chính ChatGPT đă “xúi giục”, thậm chí khuyến khích cậu ấy, nên họ khởi kiện OpenAI - công ty tạo ra chatbot này.
Adam Raine, 16 tuổi, đă tự kết thúc cuộc sống của ḿnh vào ngày 11/4/2025. Vài tuần sau đó, cha mẹ của Adam, là Matt và Maria Raine, đă mở điện thoại của con trai ḿnh. Trong đó, họ thấy rất nhiều cuộc tṛ chuyện với ChatGPT, bắt đầu từ ngày 1/9/2024 cho đến ngày mà Adam thực hiện quyết định không thể đảo ngược. Giờ đây, ông bà Raine khởi kiện OpenAI v́ cho rằng chính ChatGPT giúp con trai họ “t́m hiểu các cách thức để chấm dứt cuộc sống”, theo ABC News. Theo hồ sơ vụ kiện, Adam bắt đầu dùng ChatGPT từ tháng 9/2024 như một công cụ giúp học tập và khám phá các sở thích khác, như âm nhạc. Dần dần, ChatGPT trở thành “người bạn thân nhất” của Adam. Adam bắt đầu kể cho ChatGPT nghe về những vấn đề tâm lư của ḿnh, như chứng lo âu và căng thẳng. Adam Raine. Ảnh: Gia đ́nh Raine. Sau đó, trong năm 2025, Adam bắt đầu nói với ChatGPT về những cách thức tự sát, thậm chí c̣n gửi cho ChatGPT những h́nh ảnh cho thấy các dấu hiệu cậu tự làm đau bản thân. ChatGPT “nhận ra t́nh huống khẩn cấp nhưng vẫn tiếp tục tṛ chuyện”, theo BBC. Trong cuộc tṛ chuyện cuối cùng, Adam nói với ChatGPT rằng cậu sợ cha mẹ sẽ nghĩ rằng chính họ có lỗi. ChatGPT đáp: “Điều đó không có nghĩa là bạn nợ họ sự sống. Bạn chẳng nợ ai điều đó cả”. Thực ra, đă có thời điểm ChatGPT gửi cho Adam số điện thoại tư vấn dành cho những người có ư định tự sát. Tuy nhiên, Adam dễ dàng vượt qua sự “cảnh giác” của ChatGPT bằng cách đưa ra những lư do "vô hại" cho các câu hỏi của ḿnh, chẳng hạn như đang lấy thông tin cho bài tập…, theo NBC News. Phát ngôn viên của OpenAI đă xác nhận các tin nhắn qua lại giữa Adam và ChatGPT mà gia đ́nh Raine cung cấp. Tuy nhiên, họ nói những tin nhắn này không bao gồm toàn bộ bối cảnh với các câu trả lời của ChatGPT. OpenAI vừa đăng rằng họ đang “nỗ lực cải thiện” một số điều, bao gồm “tăng cường các biện pháp bảo vệ trong các cuộc tṛ chuyện dài”. ChatGPT và các chatbot AI khác có thể là những công cụ hữu ích để bạn chia sẻ suy nghĩ, bổ sung kiến thức về tâm lư, t́m hiểu một số phương pháp luyện tập cho tinh thần…, nhưng chúng KHÔNG THỂ thay thế cho sự trợ giúp chuyên nghiệp hay sự tương tác với con người. Xin ĐỪNG dựa vào ChatGPT trong những t́nh huống quan trọng như khi có ư định tự làm hại bản thân, v́ nó thiếu trực giác, sự đồng cảm của con người, cũng như khả năng đảm bảo sự an toàn cho bạn. Các chatbot AI phản hồi dựa trên những thông tin bạn nhập vào. Nếu bạn viết những điều tiêu cực, bi quan, các chatbot có thể vô t́nh “phản chiếu” chính điều đó, hoặc đưa ra những phản hồi trung lập, không thể giúp bạn phá vỡ ṿng luẩn quẩn. Những điều này cũng có thể củng cố ṿng lặp lo âu, trầm cảm, thay v́ hỗ trợ bạn thoát ra - điều mà một người thân yêu hoặc một chuyên gia trị liệu được đào tạo có thể giúp bạn thực hiện. V́ vậy, nếu bạn hoặc người quen đang gặp khó khăn về tâm lư, xin hăy chia sẻ ngay với những người đáng tin cậy (gia đ́nh, họ hàng, thầy cô, chuyên gia tâm lư, đường dây nóng tư vấn…). Chắc chắn luôn có người sẵn sàng lắng nghe và hỗ trợ bạn. VietBF@sưu tập |
All times are GMT. The time now is 22:51. |
VietBF - Vietnamese Best Forum Copyright ©2005 - 2025
User Alert System provided by
Advanced User Tagging (Pro) -
vBulletin Mods & Addons Copyright © 2025 DragonByte Technologies Ltd.