| Hotline: 0983.970.780

Thứ năm 08/05/2025 - 16:26

Sức khỏe - Gia đình

Chatbot trị liệu bằng AI thiếu an toàn cho sức khỏe tâm thần

Thứ Năm 08/05/2025 - 16:23

Nhiều chuyên gia sức khỏe tâm thần tại Anh cảnh báo về những rủi ro tiềm ẩn của việc sử dụng các công cụ tự động thay thế con người.

Mối nguy tiềm tàng

Chatbot trị liệu AI là các chương trình máy tính được huấn luyện để giao tiếp bằng ngôn ngữ tự nhiên với con người, thường mô phỏng vai trò của một nhà tư vấn tâm lý. Những chatbot này có thể trả lời câu hỏi, đặt ra gợi ý giúp người dùng tự phân tích cảm xúc, hoặc đưa ra lời khuyên về các vấn đề như lo âu, trầm cảm hay căng thẳng trong cuộc sống. Một số nền tảng như Wysa, Woebot, hoặc Replika hiện tiếp cận hàng triệu người dùng trên toàn cầu.

OpenAI vừa gỡ bỏ phiên bản chatbot đưa ra những phản hồi 'quá nịnh' trên Chat GPT. Ảnh: Alamy.

OpenAI vừa gỡ bỏ phiên bản chatbot đưa ra những phản hồi "quá nịnh" trên Chat GPT. Ảnh: Alamy.

Người dùng thường tiếp cận chatbot này thông qua ứng dụng điện thoại hoặc nền tảng trực tuyến, với kỳ vọng nhận được sự hỗ trợ tâm lý tức thì, mọi lúc mọi nơi, không cần đặt lịch hẹn hay chờ đợi. Trong mắt một số nhà sáng lập công nghệ, AI có thể đóng vai trò như một “nhà trị liệu cá nhân hóa”, có khả năng học hỏi hành vi người dùng và phản hồi theo cách phù hợp với tâm trạng hiện tại.

Thậm chí, Mark Zuckerberg, CEO của Meta, gần đây còn khẳng định: “Tôi nghĩ ai cũng nên có một nhà trị liệu. Và nếu bạn chưa có, thì AI có thể là người bạn trò chuyện đầu tiên”.

Dù lời hứa từ công nghệ rất hấp dẫn, các chuyên gia sức khỏe tâm thần đã nhanh chóng lên tiếng phản biện. Giáo sư Dame Til Wykes, Đại học King’s College London, một chuyên gia hàng đầu về khoa học thần kinh và tâm lý cảnh báo, rằng chatbot AI không có khả năng thấu cảm, một yếu tố cốt lõi trong trị liệu tâm lý.

“Chúng không thể hiểu được các tình huống phức tạp trong đời sống cảm xúc của con người, cũng không biết khi nào nên yên lặng, khi nào nên lắng nghe,” bà Wykes nói và cho biết thêm, chatbot có thể bắt chước, nhưng không thể phản ứng một cách nhân bản trong những lúc con người thực sự cần đồng cảm và phản hồi tinh tế.

Hơn thế, AI hiện nay chưa có khả năng đánh giá nguy cơ. Ví dụ, việc nhận biết một người đang có ý định tự tử hoặc đối mặt với hành vi tự hại, từ đó có hành động can thiệp phù hợp như báo động cho người thân hay chuyển tiếp đến các dịch vụ cấp cứu tâm thần.

Minh chứng điển hình cho rủi ro là vụ việc vào năm 2023, khi một chatbot được thiết kế hỗ trợ những người có rối loạn ăn uống bị phát hiện khuyến khích người dùng “cắt giảm thêm lượng calo” thay vì đưa ra hướng dẫn phục hồi lành mạnh. Sau phản ứng dữ dội từ cộng đồng và giới chuyên môn, chatbot này đã bị gỡ bỏ.

Các chuyên gia vẫn coi AI là công cụ hỗ trợ, không thể thay thế con người. Ảnh minh họa.

Các chuyên gia vẫn coi AI là công cụ hỗ trợ, không thể thay thế con người. Ảnh minh họa.

Những vấn đề đạo đức, pháp lý

Các chuyên gia cho rằng, nếu không được huấn luyện và kiểm tra kỹ càng, chatbot AI hoàn toàn có thể đưa ra những khuyến nghị sai lệch, thậm chí gây hại cho sức khỏe người dùng. Điều này không khác gì một bác sĩ đưa ra đơn thuốc sai.

Một trong những lo ngại lớn là hiện nay việc phát triển và triển khai chatbot AI trong lĩnh vực sức khỏe tâm thần hầu như không bị ràng buộc bởi bất kỳ quy định pháp lý cụ thể nào. Nhiều công ty phát triển chatbot kèm theo các điều khoản “miễn trừ trách nhiệm”, trong đó tuyên bố sản phẩm của họ không thay thế cho lời khuyên chuyên môn và không chịu trách nhiệm nếu có hậu quả xảy ra.

Giáo sư Wykes cho rằng điều này là không thể chấp nhận, vì người dùng dễ dàng bị nhầm lẫn giữa “trò chuyện với một AI thân thiện” và “được tư vấn từ một chuyên gia trị liệu được đào tạo bài bản”. Sự mập mờ đó có thể dẫn đến việc người bệnh bỏ qua cơ hội tiếp cận các dịch vụ chăm sóc y tế thực sự, dẫn đến hậu quả lâu dài cho sức khỏe tinh thần.

Những chuyên gia tâm lý đầu ngành cũng cảnh báo về nguy cơ con người “thay thế” các mối quan hệ xã hội thật bằng quan hệ với chatbot. Dù AI có thể cung cấp cảm giác được lắng nghe, nhưng không thể thay thế những tương tác đời thực, vốn đóng vai trò quan trọng trong phục hồi tâm lý.

Việc lệ thuộc vào chatbot có thể khiến con người rơi vào trạng thái cô lập, giảm giao tiếp với gia đình, bạn bè, những người thường là nguồn hỗ trợ xã hội hiệu quả và bền vững hơn. Điều này càng đáng lo ngại trong bối cảnh khủng hoảng sức khỏe tâm thần gia tăng ở nhiều quốc gia, đặc biệt sau đại dịch Covid-19.

Thay vì để AI phát triển tự do như hiện nay, giới nghiên cứu kiến nghị cơ quan quản lý sớm ban hành khung pháp lý rõ ràng về: Chuẩn hóa nội dung và đạo đức của chatbot trị liệu; Kiểm định chất lượng và hiệu quả lâm sàng trước khi đưa ra thị trường; Cảnh báo rõ ràng với người dùng rằng đây không phải là công cụ thay thế chuyên gia trị liệu; Đảm bảo dữ liệu người dùng được bảo mật tuyệt đối.

Họ cũng đề xuất việc kết hợp AI như một công cụ hỗ trợ trong điều trị, ví dụ như nhắc lịch uống thuốc, ghi lại nhật ký cảm xúc, hoặc phản hồi đơn giản, thay vì đóng vai trò trung tâm thay thế con người.

Trí tuệ nhân tạo có thể là một bước tiến đầy hứa hẹn trong lĩnh vực chăm sóc sức khỏe tâm thần. Tuy nhiên, việc biến AI thành “nhà trị liệu” ảo không phải là giải pháp an toàn trong thời điểm hiện tại. Dù công nghệ có thể bắt chước ngôn ngữ cảm xúc, nhưng nó không thể hiểu nỗi đau, không thể lắng nghe bằng trái tim, và không thể can thiệp trong những thời khắc sinh tử, theo nhà tâm lý Wykes.

Cho đến khi có quy định rõ ràng và cơ chế giám sát minh bạch, chatbot AI nên được xem là công cụ phụ trợ, không phải lựa chọn thay thế cho các chuyên gia trị liệu tâm lý được đào tạo bài bản.

Link nội dung: https://nongnghiepmoitruong.vn/chatbot-tri-lieu-bang-ai-thieu-an-toan-cho-suc-khoe-tam-than-d752118.html