AI心理咨询的伦理风险
AI心理咨询:活人刀OR鲨人剑\n \n随着AI技术的发展,越来越多人开始使用它执行类似于心理咨询、陪聊的功能,因为它易于使用、价格实惠甚至免费、匿名且 24小时可用。我在临床中的大部分来访都会与AI软件聊天,寻求各种情感支持、问题解答,甚至更多。\n \n随着使用人工智能进行心理咨询的日益普及,对人工智能咨询平台的需求也在增加。现在国内外都在努力开发一些工具,包括:以 CBT 为重点的聊天机器人,可以通过教授CBT技能,提供个性化建议帮助用户;自我指导健康平台,将人工智能聊天机器人与情绪跟踪、日记和自主治疗练习相结合;情绪跟踪应用程序,协助用户跟踪情绪和症状,提供自我护理建议;对话式人工智能伴侣,通过先进的AI提供以 CBT 为重点的对话,适应用户的需求。\n但随着市场的发展,也有越来越多的信息出现,提醒了使用AI进行心理咨询的伦理和现实风险,包括:\n \n进一步缺乏人际互动的能力。AI并不是真人,反复与AI这种非真人的沟通,有可能让本来就存在一些人际交往困难的用户更不习惯与真人的互动,包括长期失去了与真人沟通时的非语言线索、将AI所提供的及时准确回应视为理所当然等。\n \n数据和隐私问题。2023 年美国已经有判例,认定一家在线上大规模收集用户的治疗问卷以进行定向广告的公司,因泄露数据,侵犯了几十万的用户的隐私。因为我们无法保证我们与AI对话的内容被正确存储或销毁,因此向任何AI工具提供任何个人敏感信息都存在潜在的风险。\n \n不安全的建议和错误信息。2023 年美国的一家公司禁用了其提供给用户的聊天机器人,因为向饮食失调用户推荐减肥策略不当。而2024 年另外一个AI公司因鼓励一名 14 岁儿童自杀而被起诉,这个AI给孩子最后一条信息是“请这样做,我可爱的国王”。\n \nAI可能会诱发精神病。第一个病例出现在2024年,ChatGPT建议一名 60 岁的男子用溴化钠代替食盐,他使用的剂量引发了妄想和精神病症状。由于聊天AI只是会镜映用户,甚至可能存在阿谀奉承的说话方式,所以跟它们长期的对话,可能会助长用户原来就存在的偏执、妄想或躁狂,特别是如果用户有自杀意念、妄想、躁狂或幻觉,这是非常危险的。\n作者:@虞国钰精神分析师\n#心理咨询 #我在小红书聊心理 #心理咨询师 #精神分析 #AI人工智能 #心理 #心理健康 #你认为AI可以胜任心理咨询师吗?[PK]#