最近,风靡全球的人工智能(AI)聊天机器人ChatGPT正在颠覆包括学术界在内的许多行业,并且在科学文献中ChatGPT也获得正式亮相——在已发表的论文和预印本上至少获得了四份作者署名。
2022年11月,加州旧金山的科技公司OpenAI作为一款免费工具发布了聊天机器人ChatGPT。期刊编辑、研究人员和出版商现在正在讨论这类人工智能工具在已发表文献中的地位,以及将机器人作为作者引用是否合适。出版商们正在为人工智能的合理使用制定政策。
ChatGPT是一个大型语言模型(LLM),它通过模仿从互联网上整理的巨大文本数据库中的语言统计模式来生成符合逻辑的文字和语言。ChatGPT正在颠覆包括学术界在内的多个领域,尤其在学术论文和研究成果的应用方面,科学家们对此提出了质疑。
《自然》出版商和预印本服务器的新闻团队一致认为,ChatGPT等人工智能不符合研究作者的标准,因为它们无法对科学论文的内容和完整性负责,例如,一位编辑告诉《自然》杂志,ChatGPT被错误地引用为合著者,该杂志将纠正这一错误。但有些出版商却表示,人工智能对论文写作的贡献可以在作者列表以外的地方得到承认。
ChatGPT是2022年12月发布在医学数据库medRxiv上的一篇关于使用该工具进行医学教育的预印本论文的12位作者之一。纽约冷泉港实验室出版社(Cold Spring Harbor Laboratory press)副主任、联合创始人理查德·塞弗(Richard Sever)表示,该信息库及其姐妹网站bioRxiv背后的团队正在讨论在撰写研究报告时使用和信任ChatGPT等人工智能工具是否合适。
file:///C:/Users/87665/AppData/Local/Temp/msohtmlclip1/01/clip_image006.jpg 理查德·塞弗说:“我们需要区分学术手稿作者的正式作者和一般作者的概念。”作者应对他们的作品承担法律责任,所以只有人应该被列为作者。但人们可能会试图悄悄地把人工智能写进来——这已经在medRxiv上发生过了——就像人们在过去的期刊文章中把宠物、虚构的人物等列为作者一样,但这是一个检查问题,而不是政策问题。(这篇预印本的通讯作者、加州山景城Ansible Health的医疗总监维克多·曾森(Victor Tseng)没有回应置评请求。) 本月发表在《护士教育实践》(Nurse Education in Practice)杂志上的一篇社论将ChatGPT与英国曼彻斯特大学的健康技术研究员西沃恩·奥康纳(Siobhan O 'Connor)列为合著者。该杂志的主编罗杰·沃森说:“这是错误的,应该得到纠正。”他认为,社论与研究论文的管理系统不同。 file:///C:/Users/87665/AppData/Local/Temp/msohtmlclip1/01/clip_image008.jpg
香港一家人工智能药物研发公司Insilico Medicine的首席执行官亚历克斯·扎沃龙科夫(Alex Zhavoronkov)称赞ChatGPT成为上个月发表在《肿瘤科学》(Oncoscience)杂志上一篇观点文章的合著者。他表示,他的公司已经发表了80多篇由人工智能工具生成的论文。这篇最新的论文讨论了服用雷帕霉素的利与弊。Zhavoronkov说,ChatGPT写的文章比前几代人工智能工具要好得多。他表示,在他要求编辑这样做之后,Oncoscience的同行审查了这篇论文。该杂志没有回应《自然》杂志的置评请求。 file:///C:/Users/87665/AppData/Local/Temp/msohtmlclip1/01/clip_image010.gif
瑞典哥德堡Sahlgrenska大学医院的神经生物学家Almira Osmanovic说,第四篇文章是由早期的聊天机器人gbt -3共同撰写的,并于2022年6月发布在法国预印本服务器HAL上,很快将在同行评审期刊上发表。她说,有一家期刊在审查后拒绝了这篇论文,但另一家期刊在她应审稿人要求重写了这篇文章后,以GPT-3作为作者接受了这篇论文。
出版商的政策 《自然》和《科学》的主编告诉《自然》的新闻团队,ChatGPT不符合作者的标准。伦敦《自然》杂志主编Magdalena Skipper说:“作者身份意味着对工作负责,这不能有效地适用于语言模型。” Nature列出两项原则: (1)任何大型语言模型工具(比如 ChatGPT)都不能成为论文作者; (2)如在论文创作中用过相关工具,作者应在“方法”或“致谢”或适当的部分明确说明。
file:///C:/Users/87665/AppData/Local/Temp/msohtmlclip1/01/clip_image011.gif 华盛顿特区《科学》(Science)期刊家族主编霍尔顿·索普(Holden Thorp)说:“我们不会允许人工智能在我们发表的论文中被列为作者,而使用人工智能生成的文本没有适当的引用可能会被视为抄袭。”
伦敦的Taylor & Francis出版社出版伦理和诚信主管Sabina Alam说,他们正在重新审视自己的政策。她同意作者对其工作的有效性和完整性负责,并且应该在致谢部分引用语言模型LLM的任何使用情况。Taylor & Francis目前还没有收到任何将ChatGPT列为合著者的意见书。
物理科学预印本服务器arXiv的董事会已经进行了内部讨论,并开始在使用人工智能的方法上达成一致。位于大学公园的宾夕法尼亚州立大学的天文学家、科学总监斯坦恩·西于尔兹松(Steinn Sigurdsson)说,他同意软件工具不能成为提交内容的作者,部分原因是它不具有同意使用条款和发布内容的权利。Sigurdsson并不知道arXiv有任何将ChatGPT列为合著者的预印本,并表示新的作者指南即将出台。
AI的伦理 伦敦英国研究诚信办公室(UK Research Integrity Office)的主任马特·霍奇金森(Matt Hodgkinson)说,现在他们已经有了明确的作者准则,意味着ChatGPT不应该被视为合著者。他说,合著者需要对文章做出“重大的学术贡献”。如果ChatGPT等工具能够实现,那么它也必须对研究承担责任——或者,至少是它贡献的部分。
SCI论文写作对很多任务繁重的科研工作者来说都是一项耗费心力的大工程,借助ChatGPT等人工智能工具生成论文可以大大提高效率,却也存在诸多问题。Zhavoronkov说,当他试图让ChatGPT写出更具有技术性的论文时,它并不具备这个能力。它经常会返回不正确的语句,而且如果你多次问它同一个问题,它会给你不同的答案。所以,ChatGPT在学术界的广泛使用很可能会产生学术伦理问题,而美捷登在符合科研伦理的情况下能够帮助科研人员完美解决这些难题!
ChatGPT成为论文作者,行还是不行? |