

Meta,即 Facebook 的新母公司,本周宣布将改变其社交媒体平台的部分广告投放方式。该公司表示,从 1 月份开始,他们将取消针对“敏感”主题的 详细定位 选项,这些主题可能与“与健康、种族或民族、政治归属、宗教或性取向相关的议题、组织或公众人物”有关。
在这种情况下,健康主题可能指糖尿病或肺癌的宣传;性取向可能指同性婚姻和 LGBT 文化;宗教可能指天主教会或犹太节日等习俗和群体。
根据 Facebook Business 帮助中心的数据,详细定位允许组织根据用户的年龄、兴趣和行为“细化”Facebook 向他们展示广告的受众。
这紧随 Meta 最近一项与隐私相关的变更之后,该公司 上周宣布 将删除 Facebook 庞大的用户面部打印数据库,该数据库曾用于在照片中建议用户标签。
[相关:Facebook 存档了超过十亿张用户面部数据。现在它要删除它们。]
关于这项最新更新,Meta 广告产品营销副总裁 Graham Mudd 在周二的 新闻稿 中表示:“需要注意的是,我们正在移除的兴趣定位选项并非基于人们的身体特征或个人属性,而是基于人们在我们平台上的互动内容等事物。”
此外,他声称个性化广告体验“使人们能够发现小型企业的产品和服务,这些企业可能没有能力在广播电视或其他媒体上进行营销。”
Mudd 警告说,即使修改了广告定位,用户仍可能看到他们不感兴趣的广告内容,因此该团队正在同时扩展用户控制选项,允许人们选择少看某些类型的内容的广告。目前,用户可以选择少看与政治、育儿、酒精和宠物相关的广告。明年,他们将把这些类别扩展到包括赌博和减肥等内容。
Mudd 写道,这项决定是为了回应专家们提出的担忧,他们担心这类广告定位可能会伤害代表性不足的群体。
牛津大学牛津互联网研究所的副教授 Sandra Wachter 在 2019 年发表于 Berkeley Technology Law Journal 的一篇论文中写道,使用“行为”广告的在线平台提供商“可以推断出个人非常敏感的信息,从而定位或排除某些群体购买产品和服务,或者提供不同的价格。” 她称这一概念为“关联歧视”。例如,她在论文中指出,“狗主人”这个看似无害的群体类别,可能被贷款机构用作代理特征来决定谁有资格获得贷款申请。
在 ProPublica 从 2016 年开始的一系列 调查 发现某些公司利用定向广告以种族和其他类别排除用户后,Facebook 在 2019 年表示,在与多个民权组织达成和解后,将不再允许雇主、贷款人或房东歧视受保护的群体。
《纽约时报》报道称,“Meta 每年 860 亿美元的收入中,大部分依赖于定向广告。” Mudd 指出,这些新变化可能会影响其平台上的小型企业、非营利组织和倡导团体,但建议了替代广告选项,例如基于性别和年龄的广泛 定位,以及使用 互动自定义受众 来触达那些点赞了他们主页或在动态消息中与他们内容互动过的人。