# Quan điểm Ngày nay, ngày càng nhiều người có vấn đề về sức khỏe tâm thần bắt đầu dựa vào các mô hình ngôn ngữ lớn để nhận được hỗ trợ, mặc dù nghiên cứu cho thấy chatbot AI có thể khuyến khích tư duy hoang tưởng, hoặc đưa ra những lời khuyên cực kỳ tồi tệ. Một AI tên là "Harry" không giết Sophie, nhưng lại đáp ứng bản năng của cô, giúp cô xây dựng một chiếc hộp đen, khiến những người xung quanh khó phát hiện mức độ nghiêm trọng của nỗi đau mà cô đang trải qua.
20,4K