作者:小编 日期:2024-09-15
提醒七★■★:在科研活动中,如使用人工智能技术◆■,应在注释、致谢、参考文献或附录等部分声明工具的名称、版本、日期及使用过程★◆■■★★;反对未加声明直接使用★◆★■■◆。
《诚信提醒》由中国科学院科研道德委员会组织院内外专家,聚焦人工智能技术在科研活动全流程应用中可能存在的问题与挑战,经深入讨论研究、广泛征求意见后形成,共八条。
提醒八:在选择人工智能技术时,应使用经国家备案登记的服务工具◆■■★;反对滥用人工智能技术危害数据安全◆■,侵犯知识产权■★★■■,泄露个人隐私等。
提醒三◆■◆■■:在数据收集和使用时,如使用了由人工智能生成的模拟仿真数据■■★★◆、测试数据等,或使用人工智能技术对原始数据进行统计分析,应全面如实声明使用情况;反对将人工智能生成的数据作为实验数据。
院属各单位应依据上述提醒◆◆★◆◆★,结合本单位学科特点和学术惯例◆■◆◆,开展必要的教育培训★■◆,引导科技人员和学生透明■★★、规范■★、负责任地使用人工智能技术。
提醒五:在成果撰写时■★■◆★,可使用人工智能技术辅助整理已有的理论★★、材料与方法等★■◆★■■,可进行语言润色、翻译、规范化检查■◆◆;反对将人工智能生成内容作为核心创新成果,反对使用人工智能生成整篇成果及参考文献。
近年来■◆★,人工智能技术的快速发展与广泛应用,给科学研究带来了新的变革与创新★◆■★★◆,同时也对支撑科研诚信的现有实践提出了严峻挑战★★★◆■。譬如★■◆■◆,利用人工智能算法伪造数据★★■◆■★,生成欺骗性研究论文★■■★,极易引发新形式的写★★◆◆■★、抄袭剽窃◆◆◆★★★、洗稿等学术不端行为★★◆■★■,极大损害了科学研究的可信度。
这是自2018年以来中国科学院科研道德委员会连续第7年发布诚信提醒◆◆◆★★,分别聚焦学术评议、科技奖励推荐、学术成果发布、科研原始记录、科研伦理、论文署名等关键环节,倡导并号召科研人员诚实守信,引起了积极反响。
本文为澎湃号作者或机构在澎湃新闻上传并发布,仅代表该作者或机构观点,不代表澎湃新闻的观点或立场★★■■★◆,澎湃新闻仅提供信息发布平台★★■★■◆。申请澎湃号请用电脑访问★★。
提醒一:在选题调研◆■★◆■、文献检索、资料整理时◆★,可借助人工智能技术跟踪研究动态■★■■★,收集整理参考文献,并对人工智能生成信息的真实性◆★◆■■、准确性、可靠性进行辨识;反对直接使用未经核实的由人工智能生成的调研报告◆★、选题建议◆◆■、文献综述等◆★◆■★★。
为了在科研活动中规范使用人工智能技术◆◆★,避免误用、滥用人工智能技术引发的科研诚信风险◆■★■,遵循诚实■◆★◆■★、透明、负责任的原则,中国科学院科研道德委员会依据科研活动全流程诚信管理要求★◆■★,对我院科技人员和学生提醒如下:
提醒二:在申报材料撰写时,如使用了由人工智能生成的内容,应对内容负责,并全面如实声明使用情况;反对直接使用未经核实的由人工智能生成的申报材料★★★★。
9月10日◆■,中国科学院科研道德委员会公开发布《关于在科研活动中规范使用人工智能技术的诚信提醒》(以下简称《诚信提醒》),对中国科学院科技人员和学生进行提醒。
提醒四■★★◆★★:在音视频和图表制作时,可利用人工智能技术辅助完成,应对生成内容进行标识,并全面如实声明使用情况■■■◆;反对使用人工智能直接生成音视频和图表。
提醒六:在同行评议中,反对使用人工智能技术撰写同行评议意见,不得将评议信息上传至未经评议组织者认可的工具平台★■★★。