Một trong những nhà khoa học đặt nền móng cho lĩnh vực trí tuệ nhân tạo nói rằng đã đến lúc chúng ta nên lo lắng về mối nguy hiểm của AI.
Nhà khoa học tiên phong trong lĩnh vực nghiên cứu trí tuệ nhân tạo cảnh báo nguy cơ từ các AI biết tự suy nghĩ. Ảnh: Depositphoto.
Trả lời phỏng vấn với CBS News, nhà khoa học máy tính người Anh Geoffrey Hinton chia sẻ suy nghĩ của mình về tình trạng hiện tại của lĩnh vực phát triển AI, điều mà ông cho là ở "thời điểm quan trọng".
Thời điểm ra đời trí tuệ nhân tạo tổng quát (Artificial General Intelligence - AGI) đang đến gần hơn tưởng tượng của chúng ta.
Lo ngại về AGI
"Cho đến gần đây, tôi nghĩ rằng sẽ phải từ 20 đến 50 năm nữa chúng ta mới có AI dành cho mục đích tổng quát. Và bây giờ tôi nghĩ có thể là 20 năm hoặc ít hơn", Hinton cho biết.
Geoff Hinton có nhiều đóng góp trong lĩnh vực mạng thần kinh. Ảnh: Wired.
Geoffrey Hinton được mệnh danh là "cha đỡ đầu của trí tuệ nhân tạo". Công trình quan trọng của ông về mạng thần kinh đã phá vỡ khuôn mẫu bằng cách bắt chước quá trình nhận thức của con người và hình thành nền tảng của các mô hình học máy ngày nay.
AGI là thuật ngữ mô tả một dạng AI tiềm năng, có thể đạt mức độ thông minh của con người hoặc cao hơn. Thay vì cần được huấn luyện trong từng lĩnh vực cụ thể, AGI có khả năng tự học hỏi, tự cải tiến để hiểu và giải quyết các tình huống mới.
Hiện tại, những suy đoán về AGI thường được dùng để nâng cao khả năng của các mô hình đang vận hành.
Mặc dù có rất nhiều lời đồn đoán và cường điệu, cũng như phải mất thêm thời gian dài trước khi AGI thật sự xuất hiện, Hinton tin rằng điều quan trọng là phải xem xét các nguy cơ tiềm ẩn của công nghệ này, bao gồm cả khả năng nó được dùng để gây hại, thậm chí xóa sổ loài người.
"Đó không phải là điều không tưởng", Hinton nói với CBS.
Nguy cơ trước mắt
Tuy nhiên, Hinton cho rằng vấn đề cấp thiết hiện nay với AI (cho dù có AGI hay không) là làm thế nào để tránh bị các quốc gia và tập đoàn thèm khát quyền lực nắm giữ độc quyền.
Các AI hiện tại chưa có quan điểm riêng, chỉ cố dung hòa thông tin đối lập có trong dữ liệu huấn luyện. Ảnh: Shutterstock.
"Tôi nghĩ việc mọi người lo lắng về những vấn đề này hiện tại là điều rất hợp lý, mặc dù sẽ không xảy ra trong một hoặc 2 năm tới. Mọi người nên suy nghĩ về nó", ông nhận định.
May mắn, theo quan điểm của Hinton, nhân loại vẫn còn cơ hội để hành động trước khi mọi thứ hoàn toàn vượt khỏi tầm kiểm soát vì các mô hình hiện nay đều "ngu ngốc".
"Hiện tại chúng ta đang ở thời điểm chuyển tiếp, nơi ChatGPT là một loại bác học ngu ngốc và nó cũng không thực sự hiểu về sự thật", Hinton nói với CBS.
Ông cho rằng chatbot này chỉ cố gắng dung hòa các ý kiến khác biệt và đối lập nhau trong dữ liệu huấn luyện của mình. "Điều đó rất khác với một người cố gắng có một thế giới quan nhất quán", Hinton nhận xét thêm.
Nhưng Hinton dự đoán chúng ta sẽ tiến tới các hệ thống có thể hiểu thế giới quan theo những hướng khác nhau. Viễn cảnh thật đáng sợ bởi bất kỳ ai đều có thể đưa quan điểm của riêng họ vào AI.
"Bạn sẽ không muốn một số công ty khổng lồ, hoạt động vì lợi nhuận, quyết định đâu là sự thật", cha đẻ của AI cảnh báo.