9月11日 消息:上个月,一篇发表在Physica Scripta期刊上的论文因为一位计算机科学家和诚信调查员Guillaume Cabanac的发现而引发了争议。他注意到ChatGPT查询短语“Regenerate Response”不慎被复制到了文章中,看似出于意外。
如今,论文的作者已经坦白承认他们使用聊天机器人来起草文章,成为了生成式AI对学术界的最新示例,引发了学术伦理问题。IOP Publishing的同行评审和研究诚信主管Kim Eggleton表示:“这违反了我们的伦理政策。”
2015年以来,Cabanac一直致力于揭示其他未公开声明用人工智能技术的已发表论文,当时AI技术还只是一种好奇。随着计算机能够生成更加逼真、类似人类的作品,这一斗争变得更加艰巨。但这仅加强了Cabanac的决心,他已经帮助揭示了数百份由AI生成的手稿。
一些小心掩盖痕迹的作者不会留下明显的线索,但幸运的是,像Cabanac这样的侦探仍然可以找到很多迹象。他最近还揭发了另一篇发表在《Resources Policy》期刊上的论文,其中包含了几个明显的痕迹。该期刊表示已经“意识到了这个问题”,并正在调查此事件。
此外,AI模型经常会混淆事实,并且可能太愚蠢,无法准确地复述科学论文中涉及的数学和技术术语,就像《Resources Policy》的研究中包含的毫无意义的方程式一样。
ChatGPT还可能会凭空制造虚假主张,这种现象或许过于宽容地被描述为“幻觉”。一个丹麦教授最近发现,一篇预印论文部分由AI生成,因为它引用了他名下不存在的论文。
考虑到同行评审过程的严格性,AI制作的伪造论文竟然能够过关,这实在令人震惊。
【来源:站长之家】