[-]

Objective Revision Evaluation Service(“客观评价与修正服务”,以下简称 ORES)是由维基百科编辑“训练”出来的一套软件,每次词条内容被修改,ORES 都会根据修改语言,内容和上下文判断此次修改的质量,防止恶意篡改。

每天,维基百科上的词条都会经历平均50万次的编辑,而维基的编辑和词条贡献者并不总是能够在第一时间检查编辑——有的编辑是善意的优化变更,有的则是恶意的。

维基基金会在博客中说道,启用 ORES 能将编辑们从繁重的审核工作中解放出来,信息爆炸的今天每天被编辑的词条越来越多,而恶意篡改也变得越来越隐蔽,比如之前的好几次软文丑闻都因为没有被及时发现(和维基内部略显官僚的体制也有关)而对维基百科的声誉和中立性造成了破坏;编辑们需要仔细阅读每次修改的每一个字才能判断这次修改是否中立。

之前维基百科也尝试过用 AI 进行词条更改的审核,但不论编辑还是读者都并不买账。例如,其中一种会自动对新编辑的修改降级,这在那些抱着善意加入团队的新编辑们严重显然是十分不友好的举动。

ORES 与之前的系统不同之处就在于,完全靠修改内容来判断修改是否得当,不再将编辑的等级纳入考量。

英国萨塞克斯大学的计算机语言学家 John Carroll 博士认为,需要指出的一点是系统并不会去判断新修改中的内容是否属实——要判断“是否属实”实在是一个浩大的工程,该 AI 系统还未能发展到具有中立的价值观并且判断搜索到的数据是否有偏颇的程度,它能做的是检查修改内容质量。ORES 被认为可以大大提升维基百科词条的权威性。

[keep_beating via bbc]

[ 广告 ]
赞一个 (12)

PREV :
NEXT :