研究人员指出:何时可借AI寻求育儿建议,何时可能引发“危险后果”——家长必读指南

红酒作者 / 花爷 / 2026-04-21 07:42
"
    【编者按】在信息爆炸的数字时代,人工智能正悄然渗透育儿领域。不少父母开始依赖聊天机器人解答育儿难题,从孩子发烧该

  研究人员指出:何时可借AI寻求育儿建议,何时可能引发“危险后果”——家长必读指南

  【编者按】在信息爆炸的数字时代,人工智能正悄然渗透育儿领域。不少父母开始依赖聊天机器人解答育儿难题,从孩子发烧该不该就医,到如何应对幼儿发脾气。然而,一项最新研究敲响警钟:多数家长难以区分AI生成的儿童健康建议与专业医疗意见,甚至有人觉得机器回答“更准确”。这背后潜藏着误信错误信息的风险,尤其在紧急医疗决策中可能引发严重后果。本文通过专家视角,揭示AI育儿咨询的双刃剑效应——既是高效信息工具,也可能成为健康隐患的温床。作为家长,我们该如何在科技便利与孩子安全间找到平衡点?以下内容将带您深入思考。(编者按结束)

  如今有些家长开始转向人工智能聊天机器人寻求育儿建议,比如“孩子发烧到多少度该去看医生?”或“幼儿发脾气该怎么处理?”

  研究人员卡莉莎·莱斯利-米勒提醒:对于真正重要的问题,尤其是医疗健康相关的问题,务必严格核查聊天机器人的回复。

  “不是说你不能求助AI,但对于那些更关键的决定,你必须确保验证AI给出的信息。”莱斯利-米勒说道。她是堪萨斯大学临床儿童心理学博士生,曾主导2024年一项题为《ChatGPT亟需专家监督:保障儿童健康信息的提示工程》的研究。

  这项涵盖116名家长的调研发现,大多数参与者难以区分AI聊天机器人生成的儿童健康内容与医疗专业人员撰写的内容。莱斯利-米勒指出,有些未意识到内容来自AI的家长甚至认为聊天机器人的建议比人类专家的更准确,她坦言这一结果“令人毛骨悚然”。

  “快速提出低风险问题是AI的优势,也是更适合使用它的场景。”莱斯利-米勒解释,“但对于高风险情况,比如用药决策或涉及紧急症状时……专业的医疗判断必不可少。”

  她举例说,那些“低风险问题”可能包括一般健康指南咨询、孩子年度体检时该问儿科医生的问题,或是规划儿童餐食和游戏日的建议。

  莱斯利-米勒强调,AI工具能汇总海量信息,但也容易产生被称为“幻觉”的错误答案,若未经适当审核可能助长错误信息传播。ChatGPT开发公司OpenAI在2025年4月的一份研究报告中承认:“需要更多研究来理解这些结果的原因。”这仅是AI开发者探索错误成因与解决方案的众多尝试之一。

  当涉及孩子健康问题时,尤其在紧急情况下,家长可能急于采取行动,未经核实便采纳AI生成的建议。但莱斯利-米勒参与的研究警告:若这些建议存在错误——即使表面听起来合理——盲目信任可能导致“危险后果”。

  其他专家同样建议,在紧急或关键情况下,应将AI生成的建议与医疗专业人员的判断进行交叉验证。莱斯利-米勒表示,这意味着直接联系医生或其他健康专家进行咨询。

  家长还可核查聊天机器人的信息来源,确认其答案有可信的健康专家或机构背书。莱斯利-米勒推荐参考美国儿科学会、疾病控制与预防中心、国立卫生研究院等权威机构,以及“大型儿童医院或经同行评审的学术文章”。

  她指出:“现阶段,任何重要信息都需要核查其是否引用可靠来源。”同时提醒,AI工具通常无法实时更新——耶鲁大学医学院2024年1月发布的指南也证实,聊天机器人的建议可能已经过时。

  “关键在于家长要保持警惕。我确实认为AI是可以利用的工具,但必须谨慎使用。”莱斯利-米勒总结道。

  2026年信用卡利率预计升温,持卡人该如何应对?

  被节日债务困扰?新年快速恢复的6个步骤

  最佳当日到账个人贷款推荐

  旅行奖励、现金回馈、0%年利率等多功能最佳信用卡盘点

分享到
声明:本文为用户投稿或编译自英文资料,不代表本站观点和立场,转载时请务必注明文章作者和来源,不尊重原创的行为将受到本站的追责;转载稿件或作者投稿可能会经编辑修改或者补充,有异议可投诉至本站。

热文导读