热点资讯 大咖专访 求职招聘

人物专访 | 中华医学会杂志社社长兼总编辑魏均民:明确AI论文写作界限至关重要

2024-01-26 10:44:18来源:中华医学会杂志社阅读:159次

近日,中华医学会杂志社发布关于在论文写作和评审过程中使用生成式人工智能(GenAI)技术的有关规定,引发行业热议。

 

该规定指出,在论文写作中,作者应谨慎使用生成式人工智能技术。如选择使用,应在约定边界内使用。

目前,学术界使用生成式人工智能技术进行论文写作的现状如何?各方是如何应对的?新规有哪些重要意义?就上述问题,中华医学会杂志社社长兼总编辑魏均民进行了详细解答。

 

 

“好的技术应该为科研赋能,而不是让研究者走了弯路,误了科研成果发布。”

 

问:现阶段,作者使用生成式人工智能技术进行论文写作的情况如何?是个别行为还是普遍行为?这样做会导致怎样的后果?

 

魏均民:当前,有些作者选择在科研工作的某些环节,如文献检索、选题确立、科研设计、基金课题申报、统计和分析数据、图表制作、论文撰写、语言润色、文献著录规范化和格式化、期刊投稿匹配推荐等使用生成式人工智能技术。

 

2023年7月,中华医学会杂志社学术期刊出版服务平台正式上线,该系统整合了人工智能写作识别功能,是国内首个具有人工智能写作识别检测能力的投审稿系统。

 

从平台近半年的数据来看,目前,使用生成式人工智能技术的稿件数量占总投稿的比例不大。

 

平台检测出人工智能写作内容占全文30%以上的论文稿件200多篇(涉及29种期刊),预计这一数据还会持续增长。上述稿件中,新闻和科普类稿件占58%,学术稿件占42%。

 

人工智能技术确实是人类发展史中的里程碑式进步,但也是一把“双刃剑”,存在生成虚假信息、违背科研伦理、侵犯隐私、侵犯知识产权等风险。好的技术应该为科研赋能,而不是让研究者走了弯路,误了科研成果发布。

 

事实上,使用生成式人工智能技术最大的问题是可能产生学术不端问题。

 

第一,该技术可能对研究资料、研究过程无中生有或随意篡改,导致研究结果出现严重错误,甚至违背科研伦理。

 

第二,该技术的原理是对数据库中的海量信息进行学习和输出,其中当然也有错误信息,一旦使用了错误信息,就会将初始错误扩大,引发一系列连锁反应。

 

第三,该技术还能模拟研究过程、操纵数据和图像,导致学术不端行为检测难度增加;

 

第四,还可能对知识产权保护、资料和数据的安全性、保密性、隐私保护等方面产生威胁。

 

“虽然人工智能技术可生成结构完整、语法正确的文章,但在表达观点、提供独特见解和创新思维方面,仍难以与人类作者媲美,给人比较刻板、僵化的感觉。”

 

问:当前,国内外对使用人工智能技术撰写文章的行为是如何规定的?学术期刊编辑部是应对人工智能论文写作挑战的前站,那么,编辑部能否真正有效地识别出不合规的人工智能写作行为呢?

 

魏均民:确实,为应对新形势,全球知名出版集团和国内相关机构纷纷出台了关于生成式人工智能技术在论文写作应用的规定。

 

国际相关机构的应对——

 

《自然》(Nature)、《科学》(Science)、《美国医学会杂志》(JAMA)等知名期刊规定人工智能技术不能作为作者署名,也不允许在图像和视频制作中使用人工智能技术。

 

《自然》杂志还要求作者在论文的方法或志谢部分注明使用的大语言模型工具,并提供人工智能协助下产生的数据来源等。

 

《科学》杂志更为严格,不允许将人工智能技术用于生成文本。

 

国际出版集团约翰威立公司在《科研诚信和出版道德最佳实践指南》中明确:

 

1.人工智能不能作为作者署名;

2.如作者使用人工智能工具撰写稿件,必须在方法或志谢部分进行公开、透明、详细的描述;

3.作者要对人工智能工具提供的信息的准确性负责,也要对工具生成信息所基于的任何支持性工作进行正确引用。

 

此外,国际科学、技术与医学出版商协会(STM)和国际医学期刊编辑委员会(ICMJE)也制订了相应规定。

 

国内相关机构的应对——

 

2023年7月,我国国家网信办、国家发展改革委等多部门联合发布《生成式人工智能服务管理暂行办法》。

 

2023年9月,由科技部科技监督与诚信建设司指导,中国科学技术信息研究所联合爱思唯尔、施普林格·自然、约翰威立等国际出版集团共同完成的《学术出版中AIGC使用边界指南》正式发布。

 

该指南基于透明和问责制、质量和诚信、隐私和安全、公平性、可持续发展等原则,规范了人工智能在学术出版领域的使用边界。

 

2023年12月20日,中国音像与数字出版协会发布《出版业生成式人工智能技术应用指南》团体标准,规定了出版业应用生成式人工智能技术的基本原则、主要应用场景和相应的保障措施。

 

编辑部的应对——

 

对于学术期刊编辑部而言,准确、高效地识别出由人工智能生成的内容并非易事。目前拥有人工智能内容识别检测条件的编辑部或整合了人工智能识别功能的审稿系统还很少。

 

由于涉及版权、隐私、信息保密等,编辑又无法将文稿上传至公开可用的生成式人工智能平台(GenAI平台),因此,对于大部分的编辑部而言,很难做到人工智能生成内容的技术识别。

 

此外,人工智能技术发展日新月异。2022年11月,ChatGPT(一种生成式人工智能技术)横空出世;2023年12月,谷歌公司推出“Gemini Pro”多模态人工智能模型,具备跨文本、图像、音频、视频和代码推理能力。

 

技术的不断更新让编辑部识别和判定不合规的人工智能写作行为难上加难。

 

不过,虽然人工智能技术可生成结构完整、语法正确的文章,但在表达观点、提供独特见解和创新思维方面,仍难以与人类作者媲美,给人比较刻板、僵化的感觉。

 

我认为,在上述新形势和新挑战下,期刊编辑部更需要规模化、集群化发展,依托大型科技出版集群,与人工智能技术公司进行跨领域技术合作。只有不断创新技术,才能有效地应对新技术带来的挑战。

 

“我们希望新规的发布能起到抛砖引玉的效果,并期待和更多的学术出版集群共同迎接挑战。”

 

问:您认为杂志社此次发布的新规对学术期刊界甚至整个学术界有怎样的影响和意义?

 

魏均民:生成式人工智能是一项新技术,被应用于学术出版的时间还不长。作为大型学术期刊集群,中华医学会杂志社从论文写作、信息披露、论文评审、行为查处等方面,对生成式人工智能技术的使用边界进行了规范。

 

我认为,新规的发布对规范科研领域和学术出版领域的人工智能技术使用,具有一定的指导价值。

 

对科研领域而言,新规有助于提高研究人员的学术诚信意识和学术不端防范意识。

 

新规强调,作者如违反使用规定,编辑部将直接退稿或撤稿。情节严重者,将被列入作者学术失信名单。这一规定将促使科研人员更加重视科研诚信问题,并提高对人工智能技术应用的警惕性。

 

同时,新规也会促使期刊编辑部更加注重学术质量把控,严格审查论文的真实性和可靠性。这些均有利于建立更加诚实、透明和负责任的学术环境,维护科学研究的公正性和可信度。

 

对学术出版集群而言,新规能引导期刊自身进行技术创新。新规对生成式人工智能技术在学术出版领域中的应用持开放和审慎的态度,这也对期刊出版集群的发展提出更高要求。

 

中华医学会杂志社作为国内医学期刊界的“排头兵”,只有不断拥抱新技术,迎接新挑战,才能实现高质量发展,培育出一批高水平的世界一流科技期刊。

 

当然,新规实施本身仍需要摸索和完善。

 

我们希望新规的发布能起到抛砖引玉的效果,并期待和更多的学术出版集群共同迎接挑战,发挥科研诚信建设工作的引导把关作用,维护学术出版风清气正的良好氛围。

备案号:京ICP备11011505号-33 版权:北京美迪康信息咨询有限公司
An error has occurred. This application may no longer respond until reloaded. Reload 🗙