Thậm chí có nhiều câu phát biểu của
ChatGPT trong bài viết vẫn được các tác giả cho copy-paste nguyên văn, không buồn chỉnh sửa lại.
Một cuộc nghiên cứu dạng
"bom tấn" vừa được cho công bố trên tạp chí
Science Advances đă làm rung chuyển cộng đồng khoa học trên toàn cầu khi đă phát hiện ra rằng, có thể có đến hàng trăm ngàn bài báo nghiên cứu về khoa học đă được viết ra bằng AI mỗi năm mà không được ai chịu công khai thừa nhận.
Nhóm chuyên gia nghiên cứu này từ Đại học Tübingen, Đức, đă cho sử dụng phương pháp độc đáo để
"bắt quả tang" các khoa học gia đang sử dụng AI. Họ phát hiện ra rằng, giống như những người viết văn kém chất lượng, các
chatbot AI có xu hướng lạm dụng một số từ ngữ cụ thể, và đây chính là manh mối để khám phá ra việc gian lận tày trời này.
Cụ thể hơn, các chuyên gia nghiên cứu đă xác định ra được 454 từ ngữ mà các mô h́nh ngôn ngữ lớn thường sử dụng với số lần bất thường, như
"delves" (đi sâu), "crucial" (quan trọng), "potential" (tiềm năng), "garnered" (thu được), "encompassing" (bao gồm) và "burgeoning" (đang phát triển). Thông qua việc phân tích số lần thấy xuất hiện ra của những từ ngữ này, họ đưa ra kết luận gây sốc rằng, có đến từ 13,5% đến 40% các bản tóm tắt bài báo về y sinh học đă được viết ra hoàn toàn do AI thực hiện ra hoặc có sự hỗ trợ từ AI.
Danh sách hơn 400 từ ngữ thường được AI sử dụng quá mức trong các tài liệu nghiên cứu về khoa học (Minh họa)
Với khoảng 1,5 triệu bài báo được thiết lập ra danh mục hàng năm trên cơ sở dữ kiện
PubMed, con số này có nghĩa là ít nhất có đến 200,000 bài báo mỗi năm có thể đă được viết với sự trợ giúp của AI. Điều đặc biệt đáng lo ngại là con số thực tế có thể c̣n cao hơn nhiều khi tính đến những trường hợp tác giả đă cố ư chỉnh sửa để che giấu dấu vết.
Trong khi một số tác giả cố gắng che giấu việc sử dụng AI, những người khác lại tỏ ra hoàn toàn thờ ơ. Một ví dụ điển h́nh cho thấy các
"tác giả" của một tạp chí y học đă để lại nguyên câu văn:
"Tôi rất xin lỗi, nhưng tôi không có quyền truy cập thông tin thời gian thực tế v́ tôi là một mô h́nh về ngôn ngữ AI."
T́nh h́nh đă trở nên phức tạp nhiều hơn khi các học giả đang nỗ lực để che giấu việc cho sử dụng AI. Theo chuyên gia Subbarao Kambhampati từ Đại học ở tiểu bang Arizona, giới học thuật thậm chí đă bắt đầu cho thay đổi cách viết, tránh sử dụng những từ như
"delve" để không bị nghi ngờ đă cho sử dụng AI.
Những trường hợp lộ liễu khác cũng không phải là hiếm gặp. Đă có những bài báo với tài liệu tham khảo thuộc dạng "hoàn toàn bịa đặt", thấy xuất hiện ra cụm từ ngữ
"regenerate response" từ
ChatGPT, và thậm chí có bài báo chứa đứng các h́nh ảnh do AI tạo ra về con chuột với bộ phận sinh dục khổng lồ một cách hài hước.
H́nh ảnh minh họa trong bài báo do ChatGPT tạo ra (Minh họa)
Một trường hợp đáng chú ư khác được ông Keith Humphreys, giáo sư tại ĐH Stanford, chia sẻ về việc ông đă từng nhận được thư hồi âm từ các
"tác giả TQ". Sau khi cho kiểm tra lại, ông đă phát hiện ra những người này đă cho xuất bản hàng chục bài trong nhiều chuyên ngành khác nhau chỉ trong ṿng có 6 tháng, từ vấn đề tim mạch đến phẫu thuật.
"Họ đă thành thạo trong mọi lĩnh vực", ông Humphreys nói,
"Nhưng rơ ràng đây là dấu hiệu của việc sử dụng AI để ngụy tạo hàng loạt nội dung".
Cộng đồng trong giới khoa học hiện đang có sự chia rẽ lớn về vấn đề này. Một cuộc khảo sát của tạp chí
Nature với hơn 5,000 chuyên gia nghiên cứu cho thấy, không thấy có sự đồng thuận: chỉ 23% trong đó cho rằng việc sử dụng AI để viết tóm tắt mà không thừa nhận là có thể được chấp nhận, 45% cho rằng chỉ chấp nhận nếu cho công khai ra việc đă sử dụng AI, và 33% cho rằng không bao giờ chấp nhận được điều này.
"Mọi thứ hiện tại đều rất mơ hồ. Chúng ta đang ở trong vùng xám này. Đó là miền Tây hoang dă", tiến sĩ Jonathan H. Chen, giám đốc giáo dục y khoa về AI tại ĐH Stanford, đưa ra nhận xét về t́nh trạng hiện tại.
Nhiều bằng chứng lộ liễu cho thấy các bài báo về khoa học này do AI ngụy tạo ra
(Minh họa)
Vấn đề đạo đức cốt lơi được ông Humphreys vạch rơ ra:
"Lư do mà tôi quan tâm đến một bài xă luận là tên tuổi ở trên đó. Một chuyên gia nghiên cứu hàng đầu sẵn sàng chấp nhận các rủi ro về nghề nghiệp. Nhưng AI không có ư nghĩa, không có danh tiếng nào cả. Tôi không tin tưởng vào nó. Nó không có trọng lượng nào về đạo đức".
Ông Dmitry Kobak, người đồng tác giả cuộc nghiên cứu, bày tỏ sự ngạc nhiên:
"Tôi nghĩ rằng đối với một việc quan trọng như viết tóm tắt bài báo, bạn sẽ không cần phải làm điều đó." Tuy nhiên, thực tế cho thấy có nhiều chuyên gia nghiên cứu đă và đang làm điều này một cách âm thầm với một ư đồ nào đó.
Các chuyên gia nghiên cứu c̣n cho rằng, việc sử dụng AI rộng răi này trong các tạp chí học thuật có thể tạo ra
"tác động xấu chưa từng có đến việc viết ra một cách đúng đắn về giá trị khoa học trong nghiên cứu y sinh học, vượt qua cả tác động của đại dịch COVID-19".
Hiện tại, cộng đồng trong giới khoa học đang đứng trước một thách thức lớn: làm thế nào để cho cân bằng giữa việc tận dụng lợi ích của AI và duy tŕ tính toàn vẹn, minh bạch trong các cuộc nghiên cứu về khoa học. Câu hỏi đặt ra không phải là có nên sử dụng AI hay không, mà là làm thế nào để sử dụng một cách có trách nhiệm để bảo đảm rằng, kiến thức khoa học cần phải tiếp tục được xây dựng trên nền tảng đáng tin cậy.
(Theo Futurism)