Nghiên cứu cảnh báo về độ tin cậy của các tư vấn sức khỏe do các mô hình ngôn ngữ lớn cung cấp
Ra mắt sách "Khoa học dữ liệu, trí tuệ nhân tạo và học máy trong phát triển thuốc"
Rủi ro khi dùng ChatGPT tư vấn sức khỏe
Những biến chứng có thể gặp khi chạy thận nhân tạo
Khi người trưởng thành “yêu” Chatbot AI
Bẫy ngôn ngữ lâm sàng với AI
Mô hình ngôn ngữ lớn (Large Language Model - LLM) là một dạng trí tuệ nhân tạo (AI) được huấn luyện trên lượng dữ liệu văn bản khổng lồ để hiểu, xử lý, tạo mới văn bản và trả lời các tác vụ ngôn ngữ tự nhiên. Một ví dụ điển hình là các chatbot trí tuệ nhân tạo như ChatGPT.
Hầu hết các mô hình này đều có cảnh báo “không phải là nguồn tư vấn y tế”. Nhưng trong thực tế có tới hơn 40 triệu người dùng ChatGPT mỗi ngày để đặt câu hỏi về sức khỏe.
Các nghiên cứu mới đây được công bố trên các tạp chí danh giá như Sức khỏe số (Digital Health) của The Lancet và Nature về Y học (Medicine) đang dấy lên hồi chuông cảnh báo về độ tin cậy của những công cụ này.
AI dễ bị đánh lừa khi thông tin y tế sai lệch được trình bày bằng ngôn ngữ trang trọng
Một trong những phát hiện đáng lo ngại nhất là cách AI phản ứng với thông tin sai lệch dựa trên hình thức trình bày. Theo TS Mahmud Omar từ Trung tâm Y tế Mount Sinai (Mỹ), các AI như ChatGPT hay Gemini đã "học" được rằng các thuật ngữ chuyên môn nghe sẽ đáng tin cậy hơn, nhưng chúng lại không có khả năng kiểm chứng tính xác thực của những thông tin đó.
Nghiên cứu trên The Lancet chỉ ra một nghịch lý: Khi thông tin y tế sai lệch được trình bày bằng ngôn ngữ bình dân, các mô hình AI khá cảnh giác và chỉ mắc lỗi khoảng 9%. Tuy nhiên, khi cùng một thông tin đó được "đóng gói" dưới dạng ngôn ngữ chuyên môn trang trọng, có tới 46% bị đánh lừa.
Sự nguy hiểm khi AI "sai một cách tự tin"
Hệ quả là AI có thể đưa ra những lời khuyên cực kỳ nguy hiểm, chẳng hạn như đề xuất bệnh nhân nhét tỏi vào trực tràng để tăng cường miễn dịch hoặc uống sữa lạnh khi bị xuất huyết thực quản.
Sự khác biệt cốt lõi giữa AI và một bác sĩ thực thụ nằm ở cách con người đối diện với sự không chắc chắn. TS. Omar giải thích: "Khi chưa chắc chắn, người bác sĩ sẽ dừng lại, cân nhắc hoặc yêu cầu xét nghiệm thêm. Trong khi đó, mô hình ngôn ngữ lớn sẽ đưa ra câu trả lời sai với cùng một sự tự tin tuyệt đối như thể đó là câu trả lời đúng".
Điều này đặc biệt rủi ro vì người dùng phổ thông thường không có đủ chuyên môn để thẩm định tính đúng đắn của câu trả lời. Một chatbot có thể khuyên người bị đau đầu dữ dội hãy "chờ xem sao", hậu quả có thể dẫn đến chậm trễ trong điều trị, thậm chí là tử vong.
AI không thể thay thế được chuyên môn của bác sĩ
Nghiên cứu đăng trên Nature kết luận rằng, trong việc hỗ trợ đưa ra quyết định y tế (như có nên đi cấp cứu hay không), các chatbot AI không mang lại thông tin chi tiết hơn so với việc tìm kiếm trên Internet truyền thống.
Nguyên nhân một phần là do người dùng không biết cách đặt câu hỏi đúng. Câu trả lời của AI cũng thường trộn lẫn giữa các khuyến nghị tốt và kém, khiến người dùng khó phân định hướng đi đúng đắn.
Các chuyên gia nhấn mạnh rằng AI là công cụ hỗ trợ đem lại nhiều giá trị trong y học, nhưng chắc chắn không phải theo cách mà đại đa số mọi người đang sử dụng chúng hiện nay. AI càng không thể thay thế bác sĩ. Tin tưởng vào một thực thể "có vẻ uy tín" nhưng thiếu khả năng phân biệt thật giả có thể trở thành mối đe dọa trực tiếp đến sức khỏe cộng đồng.








Bình luận của bạn