据中国科学院之声官方微博介绍,新书9月11日消息,中国科学院科研道德委员会近日公开发布了《关于规范科研活动中人工智能技术使用的诚信提醒》(以下简称《诚信提醒》),提醒中国科学院科技人员和学生。
近年来,人工智能技术的快速发展和广泛应用给科学研究带来了新的变化和创新,也对现有支持科学研究诚信的实践提出了严峻挑战。
例如,使用人工智能算法伪造数据,生成欺骗性研究论文,很容易导致新形式的学术不当行为,如论文写作、抄袭、稿件清洗等,极大地损害了科学研究的可信度。
《诚信提醒》由中国科学院科研道德委员会组织,重点关注人工智能技术在科研活动全过程中可能存在的问题和挑战。经过深入讨论、研究和广泛征求意见,共形成了8个问题。
这是自2018年以来,中国科学院科研道德委员会连续第七年发布诚信提醒,重点关注学术评价、科技奖励推荐、学术成果发布、原始科研记录、科研伦理、论文签名等关键环节,倡导和呼吁科研人员诚实守信,引起积极响应。
以下是《诚信提醒》全文:
关于在科研活动中规范使用人工智能技术的诚信提醒
中国科学院科研道德委员会
(2024年9月10日发布)
为规范人工智能技术在科研活动中的使用,避免误用和滥用人工智能技术造成的科研诚信风险,遵循诚实、透明、负责任的原则,中国科学院科研道德委员会根据科研活动全过程诚信管理要求,提醒我院科技人员和学生如下:
提醒一:在主题选择研究、文献检索和数据整理中,借助人工智能技术跟踪研究动态,收集整理参考文献,识别人工智能生成信息的真实性、准确性和可靠性;反对直接使用未经核实的研究报告、主题选择建议、文献综述等。
提醒二:在撰写申请材料时,如果使用人工智能生成的内容,应对内容负责,并全面如实地说明使用情况;反对未经核实直接使用人工智能生成的申请材料。
提醒三:在收集和使用数据时,如使用人工智能生成的模拟数据和测试数据,或使用人工智能技术对原始数据进行统计分析,应全面如实地说明使用情况;反对将人工智能生成的数据作为实验数据。
提醒四:在制作音视频和图表时,可以使用人工智能技术来识别生成的内容,并全面如实地说明使用情况;反对使用人工智能直接生成音视频和图表。
提醒五:在撰写成果时,可以利用人工智能技术协助整理现有的理论、材料和方法,进行语言润色、翻译和标准化检查;反对以人工智能生成内容为核心创新成果,反对使用人工智能生成整个成果和参考文献。
提醒六:在同行评审中,反对使用人工智能技术撰写同行评审意见,未经评审组织者认可,不得将评审信息上传至工具平台。
提醒七:在科研活动中,如果使用人工智能技术,应声明工具的名称、版本、日期和使用过程,如注释、感谢、参考文献或附录;反对无声明直接使用。
提醒八:在选择人工智能技术时,应使用国家登记的服务工具;反对滥用人工智能技术危害数据安全、侵犯知识产权、泄露个人隐私等。
根据上述提醒,结合本单位的学科特点和学术实践,开展必要的教育培训,引导科技人员和学生透明、标准化、负责任地使用人工智能技术。
[本文结尾]如需转载,请务必注明出处:新书
责任编辑:建佳
文章内容报告
还没有评论,来说两句吧...