图片来源@视觉中国
文|追求NextQuestion
OpenAI 人工智能的开发(AI)ChatGPT驱动的聊天机器人 在所有职业领域迅速引起轰动。基于它的生成性预约束转换器,ChatGPT的名称来源(Generative Pre-trained Transformer,GPT)语言模型最前沿的特点是,它可以通过深度学习技术对输入的文本做出类似的人类反应,其智能水平远远高于其他人工智能模型。
ChatGPT包括175 1亿参数使其成为当今最大、最强大的人工智能处理模型之一,由于其反应更加人性化,因此在越来越多的不同职业场景中使用,不难想象它将在未来扩展到临床和转化医学中。
ChatGPT 新兴的应用在科学界引发了巨大的变化,围绕使用人工智能撰写科学出版物的伦理问题引发了辩论,这可能会影响医生、研究人员和政策制定者的决策。
ChatGPT :提供的并不总是对的
ChatGPT 最明显的缺点是它编译的信息并不总是准确的,这在学术出版中尤其不利——毕竟,进步取决于分享适当的信息。不正确的数据呈现在科学环境中具有很大的危害性和风险性。
此外,对于知识提升、干预加强、循证政策制定的高度及时的领域,不断扩大的信息差是一个不容忽视的障碍。若学者使用 ChatGPT 内容创作可能包含虚假或过时的论文信息,这将损害作者在同行中的声誉。
ChatGPT :隐藏使用
ChatGPT是一把双刃剑的原因还在于:学者很难找到其他专业人士是否使用过它,以及何时使用过它。西北大学(Northwestern University)研究人员的要求 ChatGPT 根据医学期刊上发表的一系列文章撰写 50 一组医学研究人员随后被要求找出这些捏造的摘要——读者只能正确识别 68%的 ChatGPT 产生的摘要和86%的真实摘要。这一结果证实了ChatGPT写出了可信(尽管可能不准确)的科学摘要。
这项研究的结果是有意使用的 ChatGPT 促进写作的人无疑是个好消息,因为由此创作的作品可能不会被认为是人工智能生成的。
然而,无法识别有效信息的问题也会随之而来。科学家可能会遵循有缺陷的研究路线,导致研究资金的浪费和误导性的结果;对于政策制定者来说,基于错误信息的决策将对社会产生巨大的影响。
由于这些影响,在未来,学术界和科学出版界可能很快就会有禁止人工智能生成内容的政策,任何使用ChatGPT的人都需要知道这些授权。
第四十届国际机器学习会议禁止人工智能工具撰写的论文,包括ChatGPT;Science该系列期刊也在更新其许可和编辑政策,明确反对ChatGPT的文稿。他们在一篇社论中阐明了自己的立场,指出科学不端行为的案例大多来自人类注意力不足,允许ChatGPT生成的内容将显著增加这一风险。
ChatGPT :小助手科研创新
并非所有与ChatGPT相关的问题都会引起科研领域的关注。2023年2月Nature该杂志的一篇文章描述了计算生物学家使用ChatGPT来改进已完成的研究论文。在短短五分钟内,生物学家们对他们的手稿进行了审查,这不仅提高了手稿的可读性,而且还发现了方程错误。在测试三个手稿的过程中,虽然团队对ChatGPT的使用并不总是一帆风顺,但最终还是得到了一篇更好的润色文章。
使用ChatGPT的目的避免了科学界对人工智能使用不准确或过时信息的主要担忧,因为根据计算生物学家最初撰写的手稿,信息是准确和最新的。ChatGPT有助于提高研究人员的生产力和内容质量。如果科学家可以在文章编辑上花更少的时间,他们可以投入更多的时间来促进医学领域的科学研究。
不难看出,ChatGPT 对那些想要验证答案或发现工作中问题的研究人员非常有益。但到目前为止,由于ChatGPT还没有接受过足够的专业内容培训,因此无法对技术进行事实检验。
ChatGPT :应用于科研挑战和机遇
专家预计,集成ChatGPT的技术和项目将成为人工智能系统的先驱。同时,这样的聊天机器人可以帮助手稿编辑,在学术和科学出版领域发挥积极作用。即便如此,ChatGPT 用户必须意识到它的局限性。
正如Nature Machine Intelligence杂志1月份发表的一篇社论说,目前,我们不能指望ChatGPT提供正确的事实或可靠的参考,接受ChatGPT的局限性,并允许研究人员将枯燥的工作(如手稿编辑)委托给人工智能模型,同时,要避免发布虚假信息等灾难性后果。
随着 ChatGPT 调整对其能力的期望,接受它不能承担每一项工作将至关重要。
随着 ChatGPT 调整对其能力的期望,接受它不能承担每一项工作将至关重要。特别是在学术研究领域,
任何需要专业知识或创新思想和观点的任务,仍然需要人工智能不可替代的真正人性化。
ChatGPT :不是作家由于ChatGPT在提供可靠信息方面的局限性和潜力,在迭代ChatGPT时必须非常谨慎:人工智能取代人工输入吗?
在此,H. Holden Thorp教授对ChatGPT的看法可能更准确:
“ChatGPT很有趣,但不是作家”。
科学家可以使用成熟的人工智能工具来校对和手稿审查,以提高工作效率。未来,人工智能工具的使用可能有助于他们在科研领域取得更广泛的突破和更高的认可,但他们需要根据自己的能力进行人工输入。
伦理与道德界限的讨论需要进一步推进,人工智能在卫生研究中的应用也需要进一步探索和建立指导方针。所有研究人员和参与者都必须了解人工智能的安全和禁止范围。因此,编辑和编辑委员会成员应继续监督ChatGPT在学术研究中的应用,起草期刊政策,让作者了解人工智能的最佳实践方法——
毕竟,优秀的研究需要用道德和诚信来衡量。
参考文献:
[1]Agüera y Arcas, B. (2022). Can machines learn how to behave? Medium. https://medium.com/@blaisea/can-machines-learn-how-to-behave-42a02a57fadbad.
[2]Churchland, P. S. (2019). Conscience: The origins of moral intuition. Norton.
[3]Rowling, J. K. (1997). Harry Potter and the sorcerer’s stone, Bloomsbury.
[4]Hofstadter, D. (2022). Artificial neural networks are making strides towards consciousness. Economist (June 9).
[5]Lemoine, B. (2022). Is LaMDA sentient?: An interview. Medium. https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917.
[6]van Dis E, Bollen J, Zuidema W, van Rooij R, Bockting C. Chat-GPT: five priorities for research.Nature. 2023;614(7947):224-226.https://doi.org/10.1038/d41586-023-00288-7.
[7]Stokel-WalkerC,VanNoordenR.WhatChatGPTandgenerativeAI mean for science.Nature. 2023;614(7947):214-216.https://doi.org/10.1038/d41586-023-00340-6.
[8]The AI writing on the wall.Nat Mach.2023;5(1):1.https://doi.org/10.1038/s42256-023-00613-9
[9]Seyhan, A. Lost in translation: the valley of death across pre-clinical and clinical divide – identification of problems andovercoming obstacles.Transl Med Commun. 2019;4.https://doi.org/10.1186/s41231-019-0050-7[10]Samuel G, Chubb J, Derrick G. Boundaries between researchethics and ethical research use in artificial intelligence healthresearch.JEmpirResHum. 2021;16(3):325-337.https://doi.org/10.177/1562666210024 to cite this article:Wen J, Wang W. Thefuture of ChatGPT in academic research andpublishing: A commentary forclinical andtranslational medicine.Clin Transl Med.2023;13:e1207.https://doi.org10.1002/ctm2.1207
免责声明: 文章源于会员发布,不作为任何投资建议
如有侵权请联系我们删除,本文链接:https://www.sws100.com/%e8%a1%8c%e4%b8%9a%e5%8a%a8%e6%80%81/364886.html