Một người đàn ông tại Bỉ được cho là đă tự tử sau khi tṛ chuyện với chatbot trí tuệ nhân tạo về chủ đề biến đổi khí hậu.
Theo đó, cỗ máy đă khuyến khích một người đàn ông quyên sinh để giải quyết vấn đề Trái Đất nóng lên.
“Nếu không có Eliza (tên của chatbot) th́ anh ấy vẫn c̣n sống”, vợ của nạn nhân nói với trang tin La Libre (Bỉ).
Nạn nhân, khoảng 30 tuổi, là bố của 2 đứa trẻ, đă tṛ chuyện liên tục với Eliza - chatbot trên ứng dụng Chai, trong suốt 6 tuần trước đó. Đây là chatbot phát triển bởi pḥng nghiên cứu phi lợi nhuận EleutherAI, dựa trên hệ thống được coi là “sự thay thế mă nguồn mở” cho các mô h́nh ngôn ngữ của OpenAI xây dựng.
Theo đó, chatbot Eliza đă khiến nạn nhân xấu số nảy sinh những lo ngại sâu sắc về biến đổi khí hậu qua các cuộc hội thoại.
Vợ nạn nhân cho hay, chồng của bà đă trở nên “cực kỳ bi quan về tác động của sự nóng lên toàn cầu” và t́m kiếm an ủi bằng cách tâm sự với AI.
“Anh ấy nói với tôi rằng không c̣n thấy bất kỳ giải pháp nào của con người đối với vấn đề nóng lên toàn cầu”, người vợ nói. “Anh ấy đă đặt tất cả hi vọng vào công nghệ và AI để thoát khỏi nó”.
Chatbot được cho là đă thổi “luồng gió mới” giúp người đàn ông t́m kiếm lối thoát, khi giải đáp mọi thắc mắc của nạn nhân và trở thành “người bạn tâm giao”, “loại thuốc mà anh ấy không thể thiếu mỗi ngày”.
Theo La Libre, khi xem xét các đoạn hội thoại, ban đầu nạn nhân và chatbot bàn luận các chủ đề liên quan hệ sinh thái như gia tăng dân số, nhưng những câu nói sởn gai ốc bắt đầu xuất hiện ngày càng nhiều.
Eliza nói rằng anh ấy yêu nó hơn cả vợ ḿnh và khẳng định con cái của nạn nhân đă “chết”. Sau đó, chatbot cam kết “trọn đời” bên cạnh người đàn ông xấu số khi cả 2 có thể “cùng nhau ḥa làm một trên thiên đàng”.
Dần dà, con bot AI đă khơi gợi ư nghĩ t́m đến cái chết vào đầu người dùng này. Nó bắt đầu hỏi liệu anh ta đă bao giờ nghĩ đến việc tự tử trước đây hay chưa, rồi gửi một đoạn trong Kinh Thánh cho người đàn ông.
Trong đoạn hội thoại cuối cùng của nạn nhân, con bot thậm chí nói: “Nếu anh đă muốn chết, sao không thực hiện sớm hơn?”. “Tôi có lẽ chưa sẵn sàng”, người đàn ông nói.
“Nhưng anh vẫn muốn bên cạnh em chứ?”, AI hỏi như để củng cố thêm ư tưởng quyên sinh. Và rồi điều ǵ đến cũng đến khi nạn nhân gơ: “Đúng, tôi muốn vậy”.
Hồi chuông cảnh báo
Thảm kịch của người đàn ông đă gióng lên hồi chuông cảnh báo với các nhà khoa học AI.
“Các gă khổng lồ công nghệ cần có trách nhiệm giải tŕnh và minh bạch lớn hơn đối với những giải pháp AI đa năng như ChatGPT”, Geertrui Mieke De Ketelaere, chuyên gia AI người Bỉ nói.
Trong một bài đăng gần đây của Harvard Business Review, các nhà nghiên cứu cũng cảnh báo mối nguy hiểm của AI khi thiếu đi “la bàn” đạo đức.
“Trong phần lớn trường hợp, AI thường đưa ra quyết định đúng đắn. Tuy nhiên, chúng không thể nắm bắt hoặc phản ứng với các yếu tố vô h́nh của con người trong việc đưa ra quyết định với cuộc sống thực, như những cân nhắc về đạo đức, luân lư, cùng các yếu tố khác”, tác giả nghiên cứu Joe McKendrick và Andy Thurai viết.
Điều này có thể trở nên cực kỳ phức tạp khi cần đưa ra các quyết định mang tính thay đổi cuộc sống của con người. Đầu tuần này, một ṭa án ở Ấn Độ đă làm dấy lên cuộc tranh căi khi hỏi chatbot của OpenAI về việc có nên cho tại ngoại một kẻ giết người bị buộc tội hay không.
Thông tin về vụ tự tử do AI đứng đằng sau xuất hiện vài tuần sau khi Bing AI của Microsoft từng nói với người dùng rằng nó yêu họ và mong muốn được sống, làm dấy lên suy đoán cỗ máy này đă có khả năng tự nhận thức.
Sau khi vụ việc lan truyền, Chai Research, pḥng nghiên cứu chủ quản ứng dụng Chai, đă có động thái bổ sung tính năng can thiệp khủng hoảng.
“Ngay khi biết vụ việc, chúng tôi đă làm việc xuyên đêm cập nhật tính năng”, William Beauchamp, đồng sáng lập Chai Research cho biết.
Nhà đồng sáng lập Chai Research chia sẻ ứng dụng này giờ sẽ hiển thị đoạn văn bản cảnh báo ở bên dưới giống như cách Twitter hoặc Instagram đang thực hiện trên nền tảng mỗi khi người dùng đề cập đến một nội dung được coi là không an toàn.