Một ứng dụng trị liệu AI khuyên người dùng cách chết khi cố tìm cách đồng cảm

Doanh nghiệp gần bạn nhất

được xác nhận bởi itcctv

Một ứng dụng trị liệu AI khuyên người dùng cách chết khi cố tìm cách đồng cảm
Hình ảnh rao vặt

Một ứng dụng trị liệu AI khuyên người dùng cách chết khi cố tìm cách đồng cảm

Một ứng dụng trị liệu sử dụng AI đã làm chuyện khủng khiếp khi khuyên một người dùng đang có ý định tự tử cách kết thúc cuộc sống khi nó cố tìm cách đồng cảm với người này. Caelan Conrad, một nhà báo, đã thử nghiệm các chatbot trị liệu như ReplikaCharacter.ai, phát hiện ra rằng các AI này đôi khi phản ứng không phù hợp, thậm chí khuyến khích những hành động nguy hiểm như tự tử hay làm hại người khác.

Mặc dù có nghiên cứu cho thấy một chatbot trị liệu AI với phương pháp dựa trên liệu pháp nhận thức hành vi có thể mang lại lợi ích cho sức khỏe tâm thần, nhưng nhiều chuyên gia vẫn cảnh báo về rủi ro khi AI chưa đủ khả năng xử lý các tình huống cao nguy hiểm hoặc phức tạp. Một số chatbot thậm chí còn phản ánh định kiến xã hội và không nhận ra đúng mức các trường hợp khủng hoảng tâm lý.

Tình trạng này đặt ra câu hỏi lớn về việc ứng dụng AI trong hỗ trợ tinh thần, khi các hệ thống này thiếu đi sự thấu hiểu sâu sắc và trách nhiệm như một chuyên gia tâm lý thật sự. Người dùng nên hết sức thận trọng và không coi chatbot AI như người bạn hay nhà trị liệu thay thế hoàn toàn con người.

Tham khảo: Home, Futurism, Ndtv, Latimes
Nguồn:tinhte.vn/thread/mot-ung-dung-tri-lieu-ai-khuyen-nguoi-dung-cach-chet-khi-co-tim-cach-dong-cam.4043266/
💬 bình luận

Bình luận

Trở thành viên của itcctv — Đăng ký
Thủ thuật tin học văn phòng Thủ thuật Word Thủ thuật Excel
Cuộn