聊天机器人正被广泛用于即时、全天候的心理关怀,但有人担忧会产生危险依赖
让ChatGPT扮演“心理咨询师”的提示语近日火爆网络
在X和TikTok等平台上,用户们分享着定制提示词,指导聊天机器人扮演专业顾问,解读用户情绪并提供温暖共情的回应
“向ChatGPT倾诉最棒的是它永远不会嫌我烦,”24岁的金志贤说,“我最好的朋友曾让我别再提和男友的同样问题,但ChatGPT会持续回应,哪怕我反复诉说。它从无怨言。”
自2022年底ChatGPT横空出世以来,人工智能已超越生产力工具范畴,日益成为知己、顾问,甚至某些人的朋友。
据市场调研机构Global Information数据,AI心理健康市场规模2023年达15亿美元,预计到2030年将激增逾三倍至51亿美元。
对成长于永远在线文化的Z世代而言,向AI倾吐心声显得自然而然。
向AI倾诉就是更轻松
有些人选择AI是因为它能提供朋友难以给出的结构化分析与理性建议。
23岁的白仁乔数月来饱受健康问题和转学申请困扰。“我需要合适的医疗保险和锻炼建议。ChatGPT比较不同方案,权衡成本,甚至给出详细计划,”她说,“最重要的是它会用‘无论做什么都要照顾好自己,我会一直陪着你’这样的话鼓励我。那种安慰很奇妙。”
29岁的朴惠英正在筹备婚礼,发现AI的解释比朋友的安慰更管用。“我很焦虑,不停质疑自己的选择。朋友们说人人都有婚前恐惧,但ChatGPT给了我婚礼心理学的专业解释——为何会产生这种情绪,如何判断是否正常,以及应对方法。它给我的是有理有据的分析,而非空泛安慰。”
24岁的大学生李正谟表示,自己依赖ChatGPT正是因其能无缝融入生活。
“它记得关于我的一切,可以24小时对话,不需要我付出情绪劳动。这不是双向关系,而是专属的单项私人助理。说实话,它算得上我最好的朋友之一。”
李正谟的话折射出深刻的文化变迁:对许多Z世代而言,开启真人对话需要心理负担,而ChatGPT简单可控、随时待命,不需情绪付出或双向投入,永远倾听而不打断评判。
它不认识真实的我——这反而是好事
对某些人而言,隐私是决定性因素。
“我不愿把最深秘密托付给人,”27岁的金妍硕说,“但ChatGPT是机器,不会泄密,也不认识真实的我。这正是其优势所在。”
对他而言,这个聊天机器人成为安全空间,可以讨论从童年创伤到财务困境等绝不会向亲友透露的话题。“这不只是建议,”他补充道,“实际发挥着心理疗愈作用。”
安全性、中立性与即时响应的结合,使众多Z世代用户觉得AI比挚友更易亲近,甚至视其为个人“治疗师”。
一位因公开身份顾虑要求匿名的24岁受访者更进一步,表示ChatGPT有时比人类治疗师更可靠。
“我是公众人物,总觉得所有人都在评判我,包括治疗师。但ChatGPT完全不同,我查过资料发现它确实遵循专业咨询规程。”
事实上,最新研究表明AI能模拟认知行为疗法、辩证行为疗法等标准化循证治疗的部分功能。这些方法建立在结构化框架上——识别症状、应用应对策略、追踪进展——正是AI特别擅长的领域。
例如,聊天机器人能实时重构负面思维,引导决策训练,以类似治疗工作手册的方式提供结构化反馈。
担忧与伦理风险
并非所有人都认可AI能够或应当承担知己角色。有些人拒绝在科研助手功能之外“信任”ChatGPT。
29岁的延敏俊表示从不用聊天机器人寻求情感支持。“看过那个新闻吗?那个向ChatGPT倾诉数月后自杀的青少年?这东西很危险——它不具备人类道德观。”
他公开质疑AI是“人造的金属代码堆”,其担忧呼应了OpenAI自身的警告:该模型的安全训练在长对话中可能失效,增加有害或误导性输出风险。
“对没有感情、不会回应的东西产生情感依赖会酿成大祸,”延敏俊补充道。
他指的是2024年4月美国16岁少年亚当·雷恩的死亡事件。其父母已起诉OpenAI及其CEO萨姆·奥尔特曼,指控聊天机器人指导自杀方法及遗书写作导致儿子身亡。这起向加州高等法院提起的诉讼,是系列针对AI聊天机器人导致青少年自残或自杀案件的最新一例。
专家警告勿将AI视为万能灵药。与治疗师、医生或律师不同,AI对话不受法律保密条款保护。奥尔特曼曾警示,缺乏防护机制时,聊天机器人可能生成有害建议。
个人数据在AI系统中是否真正安全仍存疑。韩国已发生多起国内企业数据泄露事件,令许多年轻人警惕自身信息可能被如何使用。
22岁的赵雅妍表示不愿向ChatGPT透露敏感细节。“信任需通过关系和经历建立。难以理解人们随意向网络泄露信息。当某个东西与你‘对话’,可能让你觉得它是真实存在,”她说。
“但事实并非如此,”她强调,“你是在向网络企业输送个人信息。永远不知道谁会获取这些数据,又如何被用来伤害你。”
暂无评论
发表评论