名叫Yannic Kilcher的YouTuber,利用4chan的 政治不正确 版块(也称为 /pol/)的内容训练AI,引发了争议。

/pol/是 4chan 最受欢迎和臭名昭著的版块。里面充斥着种族主义、厌恶女性和反犹太主义,机器人——基于OpenAI的GPT语言模型——学习并掌握了该版用户的语言风格。

Kilcher让多个机器人账号在 /pol/ 上发布了数万条信息,用于检验机器学习的成果。

“这个模型很好。但从某种意义上说,”Kilcher在 YouTube视频中说道,“它完美地概括了 /pol/ 上大多数帖子中的攻击性、虚无主义、钓鱼行为和对任何信息的深度不信任。”

在接受The Verge采访时,Kilcher 将该项目描述为“恶作剧”,他认为,鉴于4chan本身的性质, “那里的人们并没有受到影响,只是想知道为什么塞舌尔的用户为经常打不出连贯的英语句子。”

(Kilcher 使用 VPN 使机器人看起来是来自印度洋的岛国塞舌尔。4chan 使用这个地理来源来识别机器人,他们称之为“塞舌尔”匿名者。)

Kilcher 指出,他没有分享机器人本身的代码。但他确实将底层 AI 模型发布到 AI 社区 Hugging Face 供其他人下载。这将允许其他具有足够知识的人重建自己的机器人,Hugging Face决定限制对该项目的访问。

许多人工智能研究人员,尤其是人工智能伦理领域的研究人员,批评 Kilcher 的项目是哗众取宠的噱头。

其他研究人员在测试中,输入一段关于气候的新闻,机器人就把一句话扩充成罗斯柴尔德家族和犹太人的阴谋论。

在Twitter上,其他研究人员讨论了该项目的意义。数据科学研究生 Kathryn Cramer 在针对 Kilcher 的推文中说:“这是挑衅性的行为艺术,目的是反抗你熟悉的规则和道德标准。”

人工智能出版物 Skynet Today 和 The Gradient的制作者、计算机科学博士Andrey Kurenkov问道:“老实说,你这样做的理由是什么?是你预见到它会得到很好的应用,还是为了引起戏剧性的冲突和‘激怒觉醒的人群’?”

Kilcher为该项目辩护,辩称机器人本身没有造成伤害(反正那里是4chan),并且在 YouTube 上分享该项目也是良性的(因为创建机器人而非AI模型本身,才是困难的部分)。

比较Kilcher的作品与过去有名的bots-gone-bad的案例,是很有趣的:微软的Tay。2016年,微软上线了Tay,在互联网用户连续24小时向Tay连续灌输各种种族主义和煽动性言论后,项目被迫下线。

但是,在2016年,创建这样的机器人还是大型科技公司的领域,Kilcher的项目则表明,现在任何一个人都可以使用更先进的工具,做到2016年微软团队做到的事。

Kilcher 坚称他只是一名 YouTuber,这意味着适用不同的道德规则。 2016年的问题是,公司的研发部门可能会在没有适当监督的情况下启动攻击性AI机器人。到 2022 年,也许问题是你根本不需要研发部门。

https://www.theverge.com/2022/6/8/23159465/youtuber-ai-bot-pol-gpt-4chan-yannic-kilcher-ethics

[ 广告 ]

支付宝打赏 [x]
您的大名: 打赏金额:

赞一个 (21)

PREV :
NEXT :