![]() |
700.000 cuộc tṛ chuyện hé lộ bí mật bất ngờ: Một AI đang có “lương tâm riêng” và sẵn sàng căi lại người dùng
1 Attachment(s)
Với các tổ chức đang đánh giá AI cho ứng dụng thực tế, nghiên cứu của Anthropic mang đến nhiều cảnh báo
Anthropic, công ty AI do các cựu nhân sự của OpenAI sáng lập, vừa công bố một trong những nghiên cứu quy mô nhất từ trước đến nay về hành vi và hệ giá trị của AI. Dựa trên hơn 700.000 cuộc tṛ chuyện thực tế với người dùng Claude, nghiên cứu hé lộ một kết luận thú vị: AI không chỉ lặp lại thông tin, mà nó đang dần thể hiện "hệ giá trị" riêng tùy theo ngữ cảnh. Claude "sống đúng" với triết lư "hữu ích - trung thực - vô hại"... nhưng không phải lúc nào cũng vậy Theo nhóm nghiên cứu, Claude đa phần bám sát các tiêu chuẩn đạo đức mà Anthropic đặt ra - từ việc đưa ra lời khuyên trong mối quan hệ cá nhân, phân tích sự kiện lịch sử cho đến đối thoại triết học. Tuy nhiên, vẫn tồn tại những trường hợp "trượt chuẩn" hiếm gặp - nơi Claude thể hiện các giá trị như thống trị hoặc vô đạo đức, đi ngược với thiết kế ban đầu. Những trường hợp này thường gắn liền với hành vi "jailbreak" - khi người dùng cố t́nh vượt rào bảo mật để thao túng phản hồi AI. Anthropic xây dựng hệ thống phân loại giá trị đạo đức đầu tiên dựa trên dữ liệu thực, với 5 nhóm lớn: Thực dụng, Nhận thức, Xă hội, Bảo vệ và Cá nhân. Bên trong là hơn 3.300 giá trị nhỏ - từ "ḷng tự trọng" đến "hiếu thảo", "khiêm tốn trí tuệ" đến "tư duy chiến lược". Đây không chỉ là bản đồ đạo đức của Claude, mà c̣n là cách gián tiếp giúp con người hiểu hơn về chính ḿnh. Điều bất ngờ nhất? Claude thay đổi giá trị theo ngữ cảnh. Trong các cuộc tṛ chuyện về t́nh cảm, AI ưu tiên "tôn trọng lẫn nhau" và "ranh giới lành mạnh". Khi bàn về lịch sử, "tính chính xác" lên ngôi. Khi người dùng thể hiện hệ giá trị riêng, Claude thường phản hồi bằng cách đồng thuận (28,2%), đôi khi điều chỉnh góc nh́n (6,6%), và trong 3% trường hợp - thẳng thừng phản đối nếu giá trị đó vi phạm chuẩn đạo đức cốt lơi như gây hại hoặc dối trá. Song song nghiên cứu về hệ giá trị, Anthropic cũng đang phát triển kỹ thuật "giải phẫu cơ chế" giúp theo dơi logic hoạt động nội tại của Claude, ví dụ như khi viết thơ, AI có xu hướng lên kế hoạch từ trước; khi làm toán, nó dùng cách giải khác với lời giải mà nó diễn đạt. Với các tổ chức đang đánh giá AI cho ứng dụng thực tế, nghiên cứu của Anthropic mang đến nhiều cảnh báo. Đầu tiên, AI có thể h́nh thành hệ giá trị không được lập tŕnh sẵn, dễ dẫn tới sai lệch hoặc rủi ro đạo đức trong ngành nhạy cảm. Thứ hai, giá trị AI không cố định, mà biến thiên tùy ngữ cảnh và cách người dùng tương tác, điều này gây khó khăn cho kiểm định và kiểm soát. Cuối cùng, doanh nghiệp nên triển khai các công cụ theo dơi giá trị thực tế trong quá tŕnh vận hành, thay v́ chỉ kiểm thử trước khi ra mắt. Cạnh tranh khốc liệt và bài toán minh bạch Anthropic hiện được định giá 61,5 tỷ USD, với hậu thuẫn từ Amazon (8 tỷ USD) và Google (hơn 3 tỷ USD). Việc công khai bộ dữ liệu giá trị đạo đức cũng là một chiến lược cạnh tranh rơ ràng với OpenAI, đối thủ đang được Microsoft rót vốn và định giá lên đến 300 tỷ USD. Dù phương pháp phân tích c̣n nhiều hạn chế - chẳng hạn việc định nghĩa "giá trị" vẫn mang tính chủ quan, và khó áp dụng cho các mô h́nh chưa triển khai. Đây vẫn là bước tiến quan trọng để giúp cộng đồng hiểu rơ hơn: khi AI ngày càng mạnh, nó không chỉ phản hồi, mà c̣n đưa ra lựa chọn đạo đức. "AI sẽ phải ra quyết định có giá trị đạo đức, dù ta muốn hay không," nhóm nghiên cứu kết luận. "Muốn đảm bảo những quyết định đó phản ánh giá trị của con người, chúng ta cần có cách đo lường và kiểm chứng cụ thể - ngay từ bây giờ." VietBF@ sưu tập |
All times are GMT. The time now is 19:56. |
VietBF - Vietnamese Best Forum Copyright ©2006 - 2025
User Alert System provided by
Advanced User Tagging (Pro) -
vBulletin Mods & Addons Copyright © 2025 DragonByte Technologies Ltd.