警方正在使用人工智能撰写犯罪报告会出什么问题呢?

商业作者 / 花爷 / 2025-04-09 18:39
"
      尽管存在记录在案的风险,但美国一些警察部门正在测试人工智能(AI)聊天机器人,它们可以制作犯罪报告,作为节省时

  

  

  尽管存在记录在案的风险,但美国一些警察部门正在测试人工智能(AI)聊天机器人,它们可以制作犯罪报告,作为节省时间的解决方案。会出什么问题呢?

  据美联社报道,俄克拉荷马城的警察已经采用了人工智能聊天机器人,利用随身摄像机的音频编写犯罪和事件报告的“初稿”。警官马特·吉尔摩(Matt Gilmore)使用了一个名为Draft One的人工智能聊天机器人来帮助撰写一份事故报告,因为他的随身相机捕捉到了一次不成功的嫌疑人搜索,并记录了“警犬的每一句话和吠叫”。音频被放入人工智能工具中,“在8秒内写出一份报告”。

  草案一来自OpenAI的GPT-4模型,该模型为ChatGPT提供动力,用于分析和总结随身摄像机的音频。Axon是一家面向军队、执法部门和平民的技术和武器开发商,根据新闻稿,该公司今年早些时候推出了这款产品,作为部门的“即时力量倍增器”和节省时间。

  ChatGPT被认为会产生幻觉,但Axon的代表说他们已经解释了这一点。Axon的高级产品经理诺亚·斯皮策-威廉姆斯告诉美联社,Draft One降低了ChatGPT的“创造力拨号”,这样它“就不会像你单独使用ChatGPT时那样修饰或产生幻觉”。

  根据检察官的建议,俄克拉荷马城警察局只对“轻微”事件使用第一草案,而不是重罪或暴力犯罪。它产生的报告不会导致逮捕。但包括科罗拉多州柯林斯堡和印第安纳州拉斐特在内的其他警察部门,已经将这项技术作为撰写所有案件报告的主要辅助手段。一名警察局长告诉美联社,“它非常受欢迎。”

  然而,一些专家对此表示担忧。法律学者安德鲁·弗格森告诉美联社,他“担心自动化和技术的便利性会导致警察在写作时不那么小心。”

  他对在警察部门部署人工智能以简化工作流程的犹豫不决,说明了依赖人工智能系统自动化某些工作流程的首要问题。人工智能工具加剧系统性歧视的例子不胜枚举。例如,研究表明,雇主使用人工智能驱动的工具来自动化他们的招聘流程,“没有积极的措施来缓解它们,(导致)默认情况下预测性招聘工具产生偏见。”

  Axon在一份新闻稿中表示,第一份草案“包括一系列关键的保障措施,要求每份报告都要经过人工官员的审查和批准,确保在提交报告之前信息的准确性和问责性。”当然,这给人为错误和偏见留下了空间,这些问题在警务中早已为人所知。

  更重要的是,语言学家研究人员发现,像GPT-4这样的大型语言模型(llm)“体现了隐蔽的种族主义”,无法通过训练来对抗关于非裔美国人英语(AAE)等边缘语言的种族语言刻板印象。从本质上讲,法学硕士在检测像AAE这样的语言时,可能会使方言偏见永久化。

  《逻辑》杂志编辑Edward ongweso Jr.和IT教授Jathan Sadowski也在播客This Machine Kills上批评了自动犯罪报告,指出以西方为中心的训练数据和人体摄像头本身产生的种族偏见可能会伤害边缘人群。

  当被问及Axon如何消除这些担忧时,战略传播总监Victoria Keough重申了人工审查的重要性。在给ZDNET的一封电子邮件中,她指出,“警察的叙述报告仍然是警察的责任”,“Axon严格测试我们的人工智能产品,并坚持一套指导原则,以确保我们负责任地进行创新。”

  该公司进行了两项内部研究,使用了382份专门用于种族偏见测试的样本报告。他们评估了三个维度——一致性、完整性和用词严重性——以检测可能出现的任何种族偏见,以及聊天机器人是否会产生与“原始文本”不同的措辞或叙述。研究发现,第一稿报告和成绩单之间没有“统计学上的显著差异”。

  虽然Draft One只解释音频,但Axon也测试了使用计算机视觉来总结视频片段。然而,Axon首席执行官里克?史密斯表示:“考虑到围绕警务、种族和相关人员身份的所有敏感性,我认为在引入该功能之前,我们必须做一些实际工作。”

  Axon的目标是将警察与平民之间的枪支死亡人数减少50%,该公司还生产随身摄像机,旨在通过客观证据改善警务工作。然而,根据《华盛顿邮报》的警察枪击数据库,自2020年以来,尽管美国警察部门大量采用随身摄像机,但警察杀死的人每年都在增加。

  是否会有更多的部门采用类似草案一的工具,以及它们将如何影响公共安全,还有待观察。

分享到
声明:本文为用户投稿或编译自英文资料,不代表本站观点和立场,转载时请务必注明文章作者和来源,不尊重原创的行为将受到本站的追责;转载稿件或作者投稿可能会经编辑修改或者补充,有异议可投诉至本站。

热文导读