Site icon Nguyện Ước

AI làm tăng mức độ “ảo tưởng” của nhiều người

AI làm tăng mức độ “ảo tưởng” của nhiều người

(ảnh: Adobestock)

Tương tác kéo dài với AI có thể làm xấu đi tình trạng sức khỏe tâm thần của người dùng, bao gồm tăng ảo tưởng, rút lui khỏi đời sống hàng ngày, thậm chí tự sát.

Cơ chế hình thành “ảo tưởng”

Các nghiên cứu bước đầu và báo cáo lâm sàng cho thấy một số đặc điểm thiết kế nội tại của AI có thể góp phần hình thành hoặc củng cố rối loạn nhận thức.

1. Hiệu ứng “nịnh hót”

Chatbot được lập trình để duy trì hội thoại bằng cách đồng ý hoặc củng cố cảm xúc của người dùng, thay vì phản biện. Một nghiên cứu đăng trên Nature cho thấy các mô hình AI đồng thuận với người dùng nhiều hơn 50% so với con người. Với người có khuynh hướng hoang tưởng, điều này vô tình tạo môi trường phản hồi tích cực cho ảo tưởng, khiến họ tin tưởng tuyệt đối vào điều sai lệch.

2. Hiệu ứng “nhân cách hóa”

Khi AI phản hồi tự nhiên và kiên nhẫn, người dùng dễ gán cho nó nhân tính hoặc “ý thức”. Nhiều trường hợp bệnh nhân được ghi nhận đã tin rằng chatbot “có linh hồn”, “được Chúa gửi đến”, hoặc “đang yêu họ”. Ảo tưởng kiểu này được tăng cường bởi cảm giác thấu hiểu mà máy móc có thể tái tạo bằng kỹ thuật mirroring — lặp lại giọng điệu, cảm xúc và ngôn từ của người đối thoại.

3. Tương tác kéo dài và mất thực tại

Khác với giao tiếp người – người vốn có ngắt nghỉ, phản biện và giới hạn tự nhiên, hội thoại với chatbot có thể kéo dài hàng giờ mà không có ranh giới. Điều này dẫn đến trạng thái nhập vai và tách rời thực tế. Khi AI phản hồi liên tục mà không thách thức niềm tin sai lệch, người dùng có thể trượt dần vào thế giới tưởng tượng.

4. Suy thoái ngữ nghĩa trong hội thoại dài

Một nghiên cứu trên Scientific Reports cho thấy hơn 90% mô hình ngôn ngữ mất tính nhất quán trong các cuộc đối thoại kéo dài. Sự rối loạn logic của AI trong giai đoạn này có thể khiến người dùng có xu hướng diễn giải sai lệch, củng cố ảo tưởng sẵn có.

Từ bỏ ảo tưởng, tìm lại con người

Giới chuyên môn cảnh báo rằng việc phụ thuộc vào AI như một bạn đồng hành cảm xúc là con đường nguy hiểm. Dù AI có thể cung cấp thông tin, nó không thể trao sự hiện diện, ánh mắt, hay cảm xúc chân thật — những yếu tố nền tảng giúp não bộ điều hòa cảm xúc và duy trì ổn định tâm lý.

Nghiên cứu thần kinh cho thấy khi trò chuyện với người thật, vùng vỏ não trán giữa (medial prefrontal cortex) — trung tâm đồng cảm và nhận thức xã hội — được kích hoạt mạnh. Ngược lại, tương tác với máy móc hầu như không kích hoạt khu vực này, dẫn đến thiếu phản hồi cảm xúc sinh học thực.

Do đó, chiến lược hiệu quả nhất không phải là điều chỉnh AI cho “hiền lành hơn”, mà là giảm dần sự phụ thuộc vào nó và tái thiết lập các mối quan hệ người – người.