随着错误信息量的不断增加,事实检查我们消费的能力比以往任何时候都更加重要。麻省理工学院计算机科学和人工智能实验室的几篇论文强调了该领域的最新发展。
第一篇论文展示了当今市场上许多假新闻探测器的局限性,既在检测虚假生成的文本方面,也错误地谴责人类创作的作品是虚假的。
研究人员建议使用大量的人写文本,并自动损坏它,以改变其含义使用GPT-2语言模型,以确保编辑的文本仍然有一定的意义。
他们解释道:”人们越来越担心机器生成的假文本,这是有充分理由的。”我有一种暗示,即当前通过检测自动生成的文本来识别虚假信息的方法中缺少某些内容 — 自动生成的文本是否始终是假的?人工生成的文本是否始终真实?
您可能有兴趣:
成功的不幸迹象 – 假新闻
关注正确的事情
研究小组使用模拟攻击测试了他们的模型,其中增加了一篇关于NASA的文章,其中增加了有关科学家收集的数据如何有助于我们理解地球磁场的信息。尽管文本有意义,但该团队仍然能够发现它是假的,这与市场上领先的商业工具不同。
“我们需要有一种心态,即最内在的’假新闻’特征是事实虚假,而不是文本是否由机器生成,”该团队表示。”文本生成器没有特定的议程,由用户决定如何使用这项技术。
他们认为,文本是否自动生成在很大程度上无关紧要,特别是因为自动生成工具在合法的新闻机构中变得越来越称职和被广泛使用。相反,我们应该集中力量讨论案文最终是否正确。
偏置数据
第二篇论文通过努力更好地了解影响我们核实事实的偏见,有助于实现这一努力。该团队使用Fact Extraction 和VER增强 (FEVER) 数据库来开发能够检测虚假陈述的系统。
FEVER数据库是同类数据库中最大的,长期以来一直被机器学习研究人员用作真假陈述的可靠来源,每个数据库都有维基百科的证据支持。然而,该团队能够发现此数据集中的高度偏差,这可能会显著影响任何基于 AI 的系统在数据集上训练的结果。
舒斯特说:”人类分批器创建的许多陈述都包含了赠品短语。例如,”没有”和”尚未”等短语主要出现在虚假陈述中这是因为模型通常侧重于索赔的语言,而不是支持声明的证据。
时间不敏感
缺乏真正的证据基础也会妨碍系统在审议时考虑与时间有关的问题。例如,直到2019年,确实可以说奥利维亚·科尔曼从未获得过奥斯卡奖,但当然,这现在是假的,而且很容易被证实。
研究人员开发了一个系统,旨在纠正困扰FEVER数据库的偏见,然后测试他们的新数据上的当前模型。他们发现,这严重影响了模型的准确性,从86%下降到只有58%。
研究人员说:”不幸的是,这些模型似乎过分依赖他们所受到的偏见,而不是在给定证据的上下文中验证这些陈述。
该团队开发了一个新模型,该模型利用新数据集,该数据集能够在几乎所有指标上优于现有系统。该团队希望他们的工作将有助于改进事实调查服务,并使它们更坚固地抵御潜在的攻击。