

ta charset="UTF-8" />
过去几周,社交平台X上的用户一直在向该平台的人工智能聊天机器人Grok提交X光片、核磁共振成像、CT扫描和其他医学图像,要求诊断。原因是:X的老板埃隆·马斯克(Elon Musk)建议这么做。
马斯克在一篇帖子中说:“这仍处于早期阶段,但它已经相当准确,而且会变得非常好。”他们希望,如果有足够多的用户向人工智能提供他们的扫描结果,它最终将能够准确地解读这些扫描结果。患者可以在不等待门户消息或使用Grok作为第二意见的情况下获得更快的结果。
一些用户分享了Grok的失误,比如锁骨骨折被误认为是肩膀脱臼。另一些人则称赞它:“让它检查我的脑瘤,一点也不坏,”一位用户在脑部扫描图旁写道。一些医生甚至参与其中,好奇地想测试一下聊天机器人是否能证实他们的发现。
虽然b谷歌的Gemini或OpenAI的ChatGPT没有类似的公开号召,但人们也可以向这些工具提交医学图像。
与人工智能聊天机器人分享像结肠镜检查结果这样敏感的信息的决定,让一些医疗隐私专家感到震惊。
范德比尔特大学(Vanderbilt University)研究医疗领域机器学习的生物医学信息学教授布拉德利·马林(Bradley Malin)说,“这是非常私人的信息,你并不确切知道Grok会用它做什么。”
潜在的共享健康信息的后果
当美国人与医生或在病人门户网站上分享他们的医疗信息时,这些信息受到《美国健康保险流通与责任法案》(HIPAA)的保护。HIPAA是一部联邦法律,旨在保护他们的个人健康信息在未经他们同意的情况下不被分享。但它只适用于某些实体,如医生办公室、医院和健康保险公司,以及与他们合作的一些公司。
换句话说,你在社交媒体账户或其他地方发布的内容不受HIPAA的约束。这就像告诉你的律师你犯了罪,而不是告诉你的遛狗人;一个受律师-当事人保密特权的约束,另一个可以通知整个邻居。
Malin说,相比之下,当科技公司与医院合作获取数据时,会就如何存储、共享和使用数据达成详细协议。
“在Grok上发布个人信息更像是,‘嘿!让我们把这些数据公布出来,希望公司能按照我的意愿行事。”马林说。
X没有回应置评请求。该公司在其隐私政策中表示,不会将用户数据出售给第三方,但会与“相关公司”共享。(尽管马斯克邀请X分享医疗图片,但该政策还表示,X的目的不是收集敏感的个人信息,包括健康数据。)
宾夕法尼亚大学(University of Pennsylvania)医学伦理与卫生政策助理教授马修·麦考伊(Matthew McCoy)指出,对于上传到Grok的健康信息,可能有非常明确的保护措施,而该公司尚未公开描述这些信息。“但作为个人用户,我愿意提供健康数据吗?”绝对不是。”
重要的是要记住,你的网络足迹会被分享和出售——例如,你买了哪些书,或者你在一个网站上花了多长时间。这些都是拼图的一部分,充实了你的形象,公司可以将其用于各种目的,比如目标营销。
考虑一下,显示阿尔茨海默病早期迹象的PET扫描成为你网上足迹的一部分,未来的雇主、保险公司甚至房主协会都能找到它。
像《美国残疾人法案》和《遗传信息非歧视法案》这样的美国法律可以提供保护,防止基于某些健康因素的歧视,但也有一些实体例外,比如长期护理保险和人寿保险计划。专家指出,其他形式的与健康相关的歧视仍然存在,即使它们不合法。
结果不准确的风险
不完美的答案对于纯粹使用该工具进行实验的人来说可能是可以接受的。但是,约翰霍普金斯大学机器学习和医疗保健实验室主任苏奇·萨里亚(Suchi Saria)说,获得错误的健康信息可能会导致你进行不必要的检查或其他昂贵的护理。
萨里亚说,训练一个人工智能模型来产生关于一个人的健康的准确结果,需要高质量和多样化的数据,以及在医学、技术、产品设计等方面的深厚专业知识。萨里亚也是贝叶斯健康公司的创始人,该公司为医疗保健机构开发人工智能工具。她说,任何低于这个标准的东西,“就有点像一个业余化学家在厨房的水槽里混合各种成分。”
尽管如此,人工智能在改善患者体验和医疗保健结果方面仍有希望。人工智能模型已经能够读取乳房x光片并分析患者数据,以寻找临床试验的候选人。
一些好奇的人可能知道隐私风险,但仍然放心上传他们的数据来支持这项任务。马林称这种做法为“信息利他主义”。
他说:“如果你坚信这些信息应该公开,即使你没有任何保护措施,也要公开。”但买家要小心了。“ ta charset=”UTF-8" /> - ta charset="UTF-8" />?2024纽约时报公司
×