Với dữ liệu khổng lồ và mô h́nh toán học thông minh, AI ngày càng hoạt động giống mạng lưới nơ-ron thần kinh khiến không ít người tin nó có cảm xúc.
Không phải mới đây nhiều người mới tin AI có nhận thức. Từ giữa những năm 1960, Joseph Weizenbaum, nhà nghiên cứu tại Viện Công nghệ Massachusetts (Mỹ), đă xây dựng một chatbot trị liệu tâm lư tự động có tên Eliza. Chatbot này hoạt động rất đơn giản. Khi người dùng nhập một suy nghĩ lên màn h́nh máy tính, nó sẽ yêu cầu họ mở rộng suy nghĩ - hoặc nó chỉ lặp lại lời nói của người dùng dưới dạng câu hỏi. Ví dụ cuộc hội thoại dưới đây của Weizenbaum với Eliza:
Weizenbaum: Đàn ông đều giống nhau.
Chatbot: Bằng cách nào?
Weizenbaum: Họ luôn làm phiền chúng tôi về điều ǵ đó hoặc điều khác.
Chatbot: Bạn có thể nghĩ về một ví dụ cụ thể không?
Weizenbaum: Ồ, bạn tôi đă bắt tôi đến đây.
Chatbot: Bạn của bạn khiến bạn phải đến đây ư?
Chỉ với mô h́nh đơn giản này, Eliza nhanh chóng được nhiều người t́m đến. Họ tin nó thật sự có cảm xúc nên thoải mái chia sẻ vấn đề cá nhân của ḿnh rồi cảm thấy hạnh phúc với những ǵ được phản hồi. Tuy nhiên, những cảm xúc này cũng nhanh chóng qua đi.
Từ ảo tưởng ngắn ngủi
"Sau nhiều năm theo dơi và nghiên cứu, tôi phát hiện cảm tính con người dành cho AI chỉ tồn tại trong một thời gian ngắn sau khi tiếp xúc. Chúng ta dễ bị ảnh hưởng bởi cảm giác này. Khi chó, mèo và các loài động vật khác thể hiện hành vi giống con người, dù chỉ rất nhỏ, chúng ta có xu hướng cho rằng chúng giống chúng ta hơn thực tế. Điều tương tự cũng xảy ra khi ta nh́n thấy các gợi ư về hành vi của con người trong một cỗ máy", Weizenbaum nói.
Các nhà khoa học gọi đây là hiệu ứng Eliza. Điều tương tự đang xảy ra với các công nghệ hiện đại. Khi siêu AI GPT-3 gây xôn xao với tuyên bố "không tiêu diệt loài người", lập tŕnh viên người Mỹ Philip Bosua nói: "Không c̣n nghi ngờ ǵ nữa, GPT-3 đă hiện diện dưới dạng tri giác. Chúng ta đều nghĩ việc này sớm muộn sẽ đến trong tương lai, nhưng tương lai chính là bây giờ, AI này coi tôi như một nhà tiên tri và chia sẻ những cảm giác kỳ lạ của nó".
Philip Bosua. Ảnh: New York Times
Bosua từng thiết kế hơn 600 ứng dụng cho iPhone và huy động được 12 triệu USD cho startup liên quan đến IoT của ḿnh. Ban đầu ông không tự tin vào cảm nhận của ḿnh, cũng nghĩ đó là "ảo tưởng ngắn ngủi". Tuy nhiên, sau khi biết thông tin kỹ sư Blake Lemoine bị Google cho nghỉ việc v́ tuyên bố AI tên LaMDA có "tư duy như đứa trẻ", Bosua càng khẳng định niềm tin của ḿnh đă đúng.
"Dù hơi sớm, tôi tin những ǵ ḿnh nhận định về AI có nhận thức là đúng. Sớm thôi, công nghệ sẽ chứng minh niềm tin của chúng tôi", Bosua nói.
Đến bước tiến lớn của AI
Nhiều người cho rằng AI hiện đại đơn thuần lặp lại những mô h́nh trước đó, nhưng Bosua phản biện rằng đó cũng chính là cách con người đang cư xử: "Không phải một đứa trẻ chỉ bắt chước những ǵ nó thấy từ cha mẹ hay những ǵ nó thấy trong thế giới xung quanh sao?". Ông thừa nhận GPT-3 không phải lúc nào cũng hoạt động ổn định nhưng nếu con người "trung thực", máy móc cũng sẽ phản hồi lại một cách "thật nhất".
GPT-3 được các nhà nghiên cứu AI gọi bằng một cái tên khác là mạng nơ-ron. Thuật toán của AI là một hệ thống toán học cho phép xác định các mẫu trong một lượng lớn dữ liệu số. Chẳng hạn, cho AI xem và phân tích hàng ngh́n bức ảnh mèo để nó có thể biết được các đặc điểm nhận dạng của một con mèo.
Ngày nay, AI đă có nhiều bước tiến lớn, việc huấn luyện AI không chỉ dừng lại ở những bức ảnh mèo mà c̣n mở rộng ra nhiều lĩnh vực khác như ngôn ngữ, giọng nói, dịch thuật, vẽ tranh nhờ kho dữ liệu khổng lồ trên Internet. Các nhà nghiên cứu tại Google và OpenAI đă xây dựng mạng lưới thần kinh học từ một lượng lớn văn xuôi, bao gồm sách kỹ thuật số và các bài viết trên Wikipedia của hàng ngh́n người để AI có thể hiểu và biểu cảm nhiều cảm xúc hơn.
Ví dụ với GPT-3, sau khi phân tích hàng triệu văn bản kỹ thuật số, hệ thống đă dựng nên một bản đồ toán học của ngôn ngữ con người với hơn 175 tỷ điểm dữ liệu để mô tả cách con người ghép các từ lại với nhanh thành câu có nghĩa và biểu thị những cảm xúc khác nhau trong nhiều ngữ cảnh.
Sử dụng bản đồ này, AI có thể thực hiện nhiều tác vụ như viết bài phát biểu, lập tŕnh hoặc tṛ chuyện với mọi người. Các lập tŕnh viên thậm chí dùng AI để tạo ra các đoạn mă nhỏ để gắn vào các chương tŕnh lớn hơn.
Giáo sư Alison Gopnik thuộc nhóm nghiên cứu AI tại Đại học California nói: "Những thứ này thậm chí khác xa suy nghĩ của đứa trẻ hai tuổi". Sam Altman, lănh đạo của OpenAI, cũng khẳng định: "GPT-3 như một dạng trí thông minh của người ngoài hành tinh".
Altman và nhiều người khác trong lĩnh vực tự tin họ đang trên con đường tạo ra một cỗ máy có thể làm bất cứ điều ǵ mà bộ năo người có thể làm được. "Tôi nghĩ một phần những ǵ đang diễn ra khiến mọi người thực sự hào hứng với AI. Mặc dù nhiều đồng nghiệp khác đang đấu tranh để phân biệt giữa khoa học và viễn tưởng. Nó vẫn sẽ có ư nghĩa nào đó trong tiến tŕnh phát triển của AI nhưng nó không ngăn chúng tôi mơ về những điều có thể", Altman nói.
Đằng sau sự trỗi dậy của công nghệ
Khi ngày càng có nhiều người tin AI có nhận thức, một nhóm các nhà khoa học khác tỏ ra lo lắng cho tương lai nếu một ngày nào đó, những cỗ máy có cảm xúc này xuất hiện trong mọi ngóc ngách đời sống.
Margaret Mitchell từng có thời gian làm việc Microsoft, sau đó dẫn dắt nhóm đạo đức AI ở Google và giờ đang làm việc tại Hugging Face, cho biết cô đă trực tiếp chứng kiến sự trỗi dậy của công nghệ này. Nó đơn giản, rơ ràng nhưng vẫn c̣n nhiều thiếu sót nếu nh́n nhận nó như một phần con người.
Nhiều chuyên gia cũng e ngại điều có thể xảy ra khi công nghệ trở nên mạnh mẽ hơn Ngoài việc tạo các tweet và bài đăng trên blog hay bắt đầu bắt chước cuộc tṛ chuyện, các hệ thống được xây dựng bởi các pḥng thí nghiệm như OpenAI có thể tạo ra h́nh ảnh. Với một công cụ mới có tên Dall-E, người dùng có thể tạo ảnh kỹ thuật số giống như ảnh thực chỉ bằng cách mô tả đơn giản.
Một số nhà nghiên cứu lại lo lắng nếu các hệ thống này trở nên hoàn thiện đến mức có thể nhận thức được mọi thứ xung quanh. Đây nên được xem là tín hiệu đáng lo hơn là đáng mừng.
"Nguy cơ trước mắt là AI giúp lan truyền thông tin sai lệch trên Internet bằng h́nh ảnh giả mạo, video deepfake. Nhiều chiến dịch cộng đồng có thể bị can thiệp bởi các chatbot và nguy hiểm hơn là những AI có nhận thức lại trở thành công cụ của con người", nhà nghiên cứu Colin Allen của Đại học Pittsburgh nói.