
AI có thể mô phỏng ngôn ngữ đồng cảm nhưng không có trải nghiệm sống, không có thân thể, không có rung động cảm xúc thật – Ảnh: verywellmind.com
Nhưng nghịch lý đáng suy ngẫm là không ít trường hợp lại cảm thấy trầm uất hơn, rối loạn hơn sau những cuộc “trò chuyện trị liệu” ấy.
Từ góc nhìn tâm lý học ứng dụng, có thể chỉ ra vài nguyên nhân cốt lõi:
Thứ nhất, AI không thật sự “hiện diện” với con người. Trong tham vấn tâm lý, sự hiện diện của người làm nghề – ánh mắt, giọng nói, khoảng lặng, phản ứng cảm xúc tinh tế, sự tương tác chuyên nghiệp và sự khơi gợi nội lực đúng tiêu điểm cũng như các hỗ trợ cần thiết được tiết chế – chính là yếu tố “chữa lành”.
AI có thể mô phỏng ngôn ngữ đồng cảm, nhưng không có trải nghiệm sống, không có thân thể, không có rung động cảm xúc thật.
Với những người đang trầm cảm, sự “đồng cảm giả lập” này đôi khi làm họ nhận ra rõ hơn cảm giác bị bỏ rơi: mình chỉ đang nói chuyện với một cỗ máy.
Thứ hai, AI có xu hướng hợp lý hóa và chuẩn hóa “nỗi đau” quá nhanh và thiếu tiết chế. Nhiều câu trả lời nghe rất đúng, rất mạch lạc, nhưng lại vô tình đẩy thân chủ vào trạng thái: “À, hóa ra mình chỉ là một ca điển hình trong hàng triệu người giống vậy”.
Khi nỗi đau bị rút gọn thành công thức, người đang tổn thương có thể cảm thấy bị làm cho nhỏ lại, mất đi cảm giác độc nhất – điều vốn rất quan trọng trong quá trình phục hồi tâm lý.
Thực tế không có nỗi đau nào giống hay như nỗi đau nào và càng không có thân chủ nào có khả năng, nội lực, xuất phát điểm về hoàn cảnh hay bối cảnh của các vấn đề tâm lý như nhau, sự đồng hóa và biến mọi cá nhân, mọi nỗi đau, mọi khó khăn cùng một “hóa trị” là tư duy cơ học, nhân bản thiếu tầm nhìn và tinh tế dẫn đến những sai lầm đáng trách và khó khắc phục.
Thứ ba, AI thiếu khả năng đánh giá nguy cơ lâm sàng. Trầm cảm không chỉ là buồn; nó gắn với nguy cơ tự hại, tự sát, rối loạn chức năng nghiêm trọng và nhiều nguy cơ khác.
Một nhà tham vấn được đào tạo sẽ biết lúc nào cần dừng lại, lúc nào cần can thiệp khẩn cấp, lúc nào phải chuyển tuyến.
Ngay cả việc chuyển ca hay phối hợp và báo cáo giám sát để có sự hỗ trợ là những yêu cầu về đạo đức và sự chuyên nghiệp giản đơn nhất nói cho thật dễ hiểu.
Thế nhưng, AI thì không và chắc chắn là chưa thể. Những tâm tình, nâng đỡ mau chóng và cả những an ủi cấp sẽ góp phần tạo ra sự an tâm giả tạo ấy có thể khiến người đang trầm cảm trì hoãn việc tìm kiếm hỗ trợ chuyên nghiệp, để rồi tình trạng trở nên nặng hơn.
Cuối cùng, và quan trọng nhất: con người không chỉ cần lời khuyên, mà cần một mối quan hệ “chữa lành”.
Tham vấn tâm lý cần những sự tương tác tích cực, dựa trên nền tảng của thấu hiểu, đồng cảm.
Trị liệu tâm lý, về bản chất, là một mối quan hệ mang tính nâng đỡ – nơi con người được nhìn nhận, được phản chiếu, được nâng đỡ trong tính mong manh của mình.
AI có thể hỗ trợ thông tin, gợi ý kỹ thuật, nhưng không thể thay thế mối quan hệ người-người trong chăm sóc sức khỏe tinh thần. Nói đến sức khỏe tâm thần, chắc chắn số hóa và trí tuệ nhân tạo chưa thể thay thế “tính người”, “tình người” rất độc đáo và sâu sắc.
Công nghệ là thành tựu đáng trân trọng, nhất là công nghệ số và trí tuệ nhân tạo tạo sinh. Nhưng trong lĩnh vực tâm lý, nếu đặt AI vào vị trí “người chữa lành”, chúng ta rất dễ đi chệch hướng, nhất là khi “buông” đi tính người, nhiều nguy cơ “máy trên người” hay “người máy đè ép người” tạo ra những hệ lụy đáng tiếc.
AI nên là công cụ hỗ trợ – không phải là nhà tham vấn. Với trầm cảm, điều con người cần nhất vẫn là: một con người khác, đủ hiểu biết, đủ nhân văn và đủ trách nhiệm để ở bên họ một cách thật sự.
Với sự hỗ trợ tâm lý hay chăm sóc sức khỏe tinh thần, công nghệ số chỉ đóng vai trò cần chứ chưa thể là đủ ngay lúc này và thậm chí còn một chặng đường dài phía trước.
AI tư vấn y tế: Thuyết phục nhưng đầy rủi ro
Đọc tiếp
Về trang Chủ đề
Nguồn: https://tuoitre.vn/vi-sao-nhieu-nguoi-tram-cam-nang-hon-sau-khi-nghe-ai-tu-van-tam-ly-20260201232932682.htm

