本篇文章574字,读完约1分钟

研究人员通过构建基于-2开源小型模型的交互工具测试了他们的想法。 向工具提供副本时,每个单词会高亮显示不同的颜色,表明从绿色到黄色,预测概率逐渐下降。 如果语言模型完全没有预测单词,则会以紫色强调。 所以理论上红色和紫色的字越多,复制品被人类书写的概率就越高。 绿色和黄色单词的份额越大,语言模型生成副本的概率就越高。

“假信息ai也可用于检测消息真假,你信吗?”

事实上,gpt-2的小模型和完整版上写的段落几乎都是绿色和黄色的,发现人类写的科学摘要复印件和美国标准化入学考试阅读理解段落有多处红色和紫色。

美国标准化入学考试阅读理解短文是人类写的。 (来源:)

但是事件并不像想象的那么简单。 她是经营博客的研究员。 她没有参与上述研究。 她使用该工具进行了更严格的测试,除了gpt 2号生成的文案外,还使用其他语言模型生成的文案,如亚马逊评论( amazon review )培训的模式和“龙与地下城”语料库培训的模式

“假信息ai也可用于检测消息真假,你信吗?”

她发现这个工具无法预测所有副本的大部分,所以工具认为这些副本是人类写的。 这提出了一个重要的观点

语言模型可能擅长检测自己的输出,但未必擅长检测其他语言模型的输出。

-结束-

:李根

-ai-for - fake-news -也是-帮助-检测- it /

技术招聘深度:技术/记者、实习生

坐标:

联系新闻:

hr@mittrchina

标签: #信息事件检测模型

标题:“假信息ai也可用于检测消息真假,你信吗?”

地址:http://www.hongyupm.com/gnyw/5886.html