警务部门通常是技术行业中 新产品(如无人机、面部识别、预测软件)的首批采用者,现在则是 人工智能。在 采用 AI 音频转录程序 后,一些部门现在正在测试一种新的、更全面的工具——该工具利用类似于 ChatGPT 的技术来自动生成警报。据《美联社》8 月 26 日的报道,许多警官已经对这款声称能为日常文书工作节省 30-45 分钟的生成式 AI 工具“感到兴奋”。
Axon 于 4 月份 首次宣布 了 Draft One,称其为“实现减少警察与公众之间枪支相关死亡的‘登月’目标的最新一次巨大飞跃”。该公司——以 Tasers 和执法部门最受欢迎的执法记录仪系列而闻名——声称其初步试用每天为用户节省了一个小时的文书工作。
Axon 在发布会上表示:“当警官可以将更多时间花在与社区联系以及身心健康方面时,他们就能做出更好的决定,从而取得更成功的降级结果。”
该公司当时表示,Draft One 是在 Microsoft Azure OpenAI 平台 上构建的,可以自动转录执法记录仪的音频,然后“利用 AI 快速创建草稿叙述”。报告“严格根据音频转录稿起草”,遵循 Draft One 的“底层模型……以防止猜测或夸大”。在添加了其他关键信息后,警官必须在报告准确性上签字,然后才能进行下一轮人工审核。每份报告还会被标记,说明是否涉及 AI 编写。
[相关:ChatGPT 正在生成奇怪的胡言乱语(比往常更多)。]
周一在接受《美联社》采访时,Axon 的 AI 产品经理 Noah Spitzer-Williams 声称 Draft One 使用“与 ChatGPT 相同的底层技术”。由 OpenAI 设计的 ChatGPT 的基线生成式大型语言模型经常因其提供误导性或 虚假信息 的倾向而受到批评。然而,Spitzer-Williams 将 Axon 的能力比作“比普通 ChatGPT 用户拥有更多的控制旋钮和按钮”。据称,调整其“创造力拨盘”有助于 Draft One 保持警报的事实性,并避免生成式 AI 的 持续幻觉问题。
Draft One 的范围目前因部门而异。俄克拉荷马城警长 Jason Bussert 声称,他拥有 1170 名警官的部门目前仅将 Draft One 用于“不涉及逮捕的轻微事件报告”。但在印第安纳州的拉斐特,《美联社》报道称,为该镇近 71,000 名居民服务的警官可以自由使用 Draft One “处理任何类型的案件”。与此同时,拉斐特邻近的普渡大学的教职员工认为,生成式 AI 在处理可能影响生活的局面(如与警察的遭遇)时根本不可靠。
“支撑 ChatGPT 等工具的大型语言模型并非旨在生成真相。相反,它们根据预测算法将听起来似乎合理的话连在一起,”专注于数字和技术伦理的普渡大学临床副教授 Lindsay Weinberg 在发给《流行科学》的声明中说。
[相关:研究显示 ChatGPT 的准确性有所下降。]
Weinberg 兼任 Tech Justice Lab 的主任,他还认为“几乎所有你能想到的算法工具一次又一次地被证明会复制和放大现有的种族不公正”。专家们 记录 了多年来在 大型语言模型 中 基于种族和性别 的 偏见 的许多实例。
Weinberg 说:“在当前支持和制裁大规模监禁 [边缘化群体] 的法律体系背景下,使用那些使生成警报‘更容易’的工具,应该让那些关心隐私、公民权利和正义的人深感担忧。”
在一封发送给《流行科学》的电子邮件中,一位 OpenAI 代表建议将咨询转交给微软。在撰写本文时,Axon、微软和拉斐特警察局均未对置评请求作出回应。