维基百科最近披露其已采用人工智能(AI)来检测和排除涉嫌垃圾与恶意虚假信息的文章编辑行为。这套系统被称作“对象修订评估服务”(简称ORES),它不仅可以帮助长期从事编辑工作的志愿者们的生活变得更加轻松(消除虚假更新),也能够吸引和鼓励更多的新贡献者。维基媒体基金会称ORES就像是“一副能够扫描新修订的X光”,并通过机器学习算法(某些模式)来检测可疑的编辑条目。
如果一篇文章被其所标记,就会被发送到某个人类编辑者那里进行二次检查,然后告知贡献者其修订是否被移除。
这一实践显然可以砍掉许多垃圾内容,但也能够让那些或许没有恶意的贡献者们,更清楚地知道为何其修订未获得通过,因为当前的系统会直接删除编辑而不给出解释。
维基百科解释到, ORES与其它AI相比的主要不同,在于新工具能够分辨人们的“诚实错误”(honest error)或“恶意破坏”。