科技公司不懂得什么是“同意”
BALI @ 2024.03.01 , 07:05 上午科技公司滥用用户数据,并未真正尊重用户选择,应该建立尊重用户的“选择加入”而非“选择退出”的机制。
多亏了 404 Media 的 Samantha Cole,我们现在才知道 Automattic 计划将 Tumblr 和 WordPress.com (我博客的托管平台) 的用户数据出售给用于“人工智能”产品的公司。
面对记者质疑这项可疑决定的质询,Automattic 公司除了发表一份声明外什么也没说。
这份声明显然经过了比他们 CEO 最近针对跨性别用户 (或针对他行为的 Automattic 员工声明) 的推特胡言乱语更多的律师的过滤,暴露了他们对什么是用户同意根本性的误解。
“我们还将与选定的 AI 公司直接合作,只要他们的计划符合我们社区所关心的内容:署名、退出和控制权。” (强调部分为原文所有)
这并不是科技行业近年来对用户同意权最恶劣的漠视。这个「殊荣」属于 LegalFling: 一个用于性同意记录的区块链应用程序。
然而,这仍然相当愚蠢,并且是软件工程界质疑不够的恶劣趋势的结果。因此,我要求我的读者们大声疾呼。
“选择退出” ≠ 同意
“选择退出” 是指“我们的律师告诉我们这样做可以撇清责任,但我们并不希望你真正退出”。
“选择退出” 是指“如果你错过了通知,我们就默认你同意了”。
任何涉及用户数据决策的默认状态都应该是“选择退出”。用户应该被要求“选择加入”才能使你的决定生效,并且不得胁迫他们这样做。
如果用户没有明确给予知情同意,你就根本没有获得同意,假装同意则是不道德的。
你们的用户根本不在乎“选择退出”,我们关心的是“选择加入”。
“但是 Soatok,这会损害我们的收入”
如果你必须通过做不道德的事或遵循不尊重其他用户自主权的可疑做法来赚钱,那么你就应该关门大吉。
结束。
Automattic 应该做什么
如果 Automattic 想纠正错误,他们必须做两件事,还可以做第三件事 (但我并不抱太大希望):
首先,抛弃现有的“选择退出”机制,并用“选择加入”机制取而代之。如果没有用户勾选,那就不要将他们的数据包含在出售给 Midjourney 或 OpenAI 的数据中。
其次,他们应该使第三方许可更加细化。我们中的一些人并不关心第三方,但绝对不想让“人工智能”公司使用他们的数据来进行抄袭。
第三,如果你想更进一步,可以增加对所有 WordPress.com 计划(包括免费计划)中所有托管媒体使用 Nightshade 的插件支持,以提高用户免遭大型语言模型抓取器的侵害。详情见下文。
这是我向 Automattic 领导层发出的公开挑战,要求他们做得更好。
这个问题不仅仅是 Automattic 的问题
科技行业最近在尊重用户同意方面做得非常糟糕。你的选项不再是“是”和“否”,而是“是”或“也许稍后”,没有“永远不”选项。
更糟糕的是,你很难卸载那些用这些同意对话框骚扰你的垃圾软件。
这种做法必须停止。这是一种有害的心态,会助长一种不尊重人类的文化。(作为一个 furry 博主写这一点感觉有点儿讽刺。)
如果你在科技行业工作,那么请大声疾呼,要求在你们的软件中正确实施尊重用户意愿的同意控制机制。
仅仅因为这种做法普遍并不意味着它不可避免。要反抗它。你那些缺乏特权、不太懂技术邻居们应该得到更好的对待。
关于 Nightshade 的附录
自从这篇文章最初发布以来,一些人对 Automattic 上述第 3 点建议表示困惑或没有理解其含义。因此,我将详细解释一下。
Nightshade 是一种用于污染大型语言模型数据集的技术。
其想法是,对于没有选择加入“大型计算”(简称“人工智能”)支持的工业抄袭的博客,WordPress.com 的内容分发网络 (CDN) 将向所有读者提供经过 Nightshade 处理的图像,而不是博主提供的标准图像。
这样,你甚至不必担心谁在抓取数据用于人工智能项目。你只需向所有人提供“毒药”。如果他们将图像用于人工智能,那么就会破坏他们的模型。如果不是,则根本不会造成任何伤害。
如果 OpenAI 和 Midjourney 想使用未经处理的图像,那么他们可以遵守没有选择加入的博主们的意愿,而不是进行抓取,只接受 Automattic 提供给他们的数据,而不是诉诸抓取。
这是一种保护用户免受人工智能机器侵害的相当明显的方法。
Nightshade 并不完美,但没有哪项技术是完美的。最终目标是让绕过 Nightshade 的“毒药”的成本高于尊重个体作者和艺术家的决定。
激励机制主宰着我周围的一切。
本文译自 Dhole Moments,由 BALI 编辑发布。
PREV : 地球到底啥形状?牛顿与笛卡尔之争
NEXT : 进化代价:人类失去尾巴,也带来了脊柱疾病风险