2026-01-27 09:22:24 浏览数量:次
科研诚信是科技创新的基石。随着科研活动日益频繁与科研范式的与时俱进,科研诚信问题逐渐成为焦点。党的二十届三中全会审议通过《中共中央关于进一步全面深化改革 推进中国式现代化的决定》,明确指出要加强科研诚信建设,严肃整治学术不端行为,营造风清气正的科研环境。随着人工智能(AI)技术的迅猛发展,以DeepSeek、ChatGPT为代表的AI大模型技术及工具的涌现,颠覆了传统的科研范式,上述AI大模型所具备的开源、高效、低廉的特性使其成为重要的科研工具,极大地推动了第五科学研究范式——人工智能驱动的科学研究(AI for Science,以下简称“AI4S”)范式的发展,从而提升科研活动效率。以此为契机,2023年3月,国家科技部会同自然科学基金委员会启动“人工智能驱动的科学研究”专项部署工作,开展“人工智能驱动的科学研究”前沿科技研发。与此同时,基于AI4S新范式下的科研主体与知识生产流程的变化为科研诚信治理带来了巨大挑战,例如,深度推理会带来虚假内容,催生学术灰色产业链并导致潜在的道德伦理风险等。为此,本文分析了AI4S范式下的科研诚信治理挑战与结构性矛盾,探索了AI4S范式变革下的科研诚信治理方式,提出构建政策制度、技术工具与教育培训相关的治理框架。
/ / 研究背景 近年来,学界对AI4S范式进行了较为深入的研究,特别是在其核心机制与特征、应用实践、方法工具创新及治理挑战方面取得了部分研究成果。一是在AI4S概念内涵与核心特征方面,学界普遍将AI4S视为继经验范式、理论范式、计算范式和数据密集型范式后的第五科研范式。李国杰认为,AI4S范式以人机智能融合为核心特征,强调知识自动化、跨学科协作及大模型平台的应用,能够解决传统方法难以应对的组合爆炸问题。鄂维南认为,AI通过将机器学习与科学问题深度融合,推动了科研从“作坊模式”向平台化、系统性研究模式转型。二是在学科应用与实践探索方面,AI4S在多个学科领域展现出了颠覆性潜力。李鑫等以蛋白质结构预测和基因研究为例,说明AI通过高维数据处理,加速了生命科学的发现进程。在社会科学领域,庞珣提出生成式AI可作为“硅代理人”,重构社会因果分析与决策模式。王彦雨等揭示了AI与物理学、天文学等基础科学深度交叉的趋势。三是在技术路径与工具创新方面,大语言模型(large language model,LLM)和生成式AI成为推动科研范式变革的关键技术。张越等认为,GPT类模型通过语义理解与多模态处理,革新了科研中的逻辑推理与知识生成方式。蒲清平等提出,LLM不仅替代传统数据库,还通过智能代理直接输出研究结果,重塑了情报工作的流程。四是在风险挑战与治理需求方面,仍面临潜在的危机。高洁等提出,数据隐私、算法透明性及模型可控性是制约AI赋能决策咨询的核心问题。李伦等认为,人机权责边界模糊可能引发科研伦理危机。此外,王中叶也认为,过度依赖AI可能导致科研人员理论建构能力的退化,需要平衡工具效率与学术创新。 当前对AI4S范式变革的研究更偏向于理论研究与技术工具层面,对于所面临的风险挑战,仅局限于对广义科研伦理的讨论,缺少对科研诚信治理方式与具体路径的探讨与研究。因此,本文旨在通过分析AI4S范式变革的特征及该变革对科研诚信治理造成的挑战,为服务国家科研诚信治理体系建设提供相关政策建议。
/ / AI4S范式变革的历史沿革及影响 2.1 概念内涵 AI4S以机器学习、深度学习和自然语言处理等AI技术为核心支撑,结合高性能计算与大数据处理能力,构建跨模态、跨尺度的智能分析工具。技术内核在于通过算法模型对复杂科学数据进行自动化解析,突破传统科研中高维度计算、非线性关系分析等瓶颈,形成“数据—模型—决策”的闭环研究链路。AI4S的本质特征体现在以下3个方面。 (1)数据与知识的双向赋能:不仅依赖数据驱动发现规律,还通过知识图谱和符号逻辑等技术将领域知识嵌入模型,提升科学假设的生成与验证效率。 (2)跨层级协同创新:打通从微观(如分子、基因)到宏观(如生态系统、气候)的多尺度研究,推动物理学、生物学和化学等学科的交叉融合。 (3)科研流程重构:从实验设计、仿真模拟到结果分析的全流程智能化,实现“机器猜想—实验验证—迭代优化”的自动化科研闭环。 2.2 历史沿革 2.2.1 萌芽期(2007—2012年):数据驱动的科研范式奠基 2007年,图灵奖得主吉姆·格雷提出“第四科研范式”,强调数据密集型科学的重要性。在这一阶段,全球科研数据量以年均40%的速度增长,但传统方法难以处理海量数据。2010年,美国国家科学基金会(National Science Foundation,NSF)启动“大数据研究计划”,首次将机器学习列为数据科学的核心工具。此时,AI与科研的结合仍局限于数据分析辅助,尚未形成系统性方法论。 2.2.2 技术突破期(2013—2018年):深度学习驱动范式革新 2012年,AlexNet在ImageNet竞赛中的突破标志着深度学习技术进入实用化阶段。2016年,DeepMind的AlphaGo击败围棋冠军,验证了AI在复杂问题求解中的潜力。2017年,斯坦福大学首次将神经网络应用于量子化学计算,开辟了AI4S在基础科学领域的新赛道。 2.2.3 快速发展期(2019—2022年):跨学科融合与平台化建设 2019年,科技部印发《国家新一代人工智能开放创新平台建设工作指引》,奠定了AI开放创新平台建设框架基础,推动了AI技术资源与开放共享的整合,为后续AI4S实践提供了政策指引。2020年,美国谷歌公司旗下DeepMind团队研发的AlphaFold2,在蛋白质结构预测领域实现了原子级精度,被《自然》杂志评为“年度技术突破”。2022年,微软宣布成立AI4S研发团队,致力于将AI4S范式变为现实。 2.2.4 全球化拓展期(2023年至今):大模型驱动范式重构 2023年,GPT-4等大语言模型的出现,推动科研流程智能化变革。同年中国启动“人工智能驱动的科学研究”专项部署,重点布局药物研发等重点领域。2024年,欧盟推出“科研大模型计划”,投资50亿欧元建设欧洲科学云。2025年,DeepSeek-R1开源模型在算法创新、工程优化和架构重构等方面取得突破性成就,使得普通科研团队无须具备专业算力即可定制领域专用工具,加速了智能科研技术的普惠化进程,实现了科研工具的平民化。全球已有数十个国家制定了AI4S发展战略,形成“技术—数据—算力”三位一体的发展格局。 2.3 对科研创新生态的影响 2.3.1 范式变革促进科研效率的提升 AI4S通过整合机器学习、数据挖掘与高性能计算技术,推动科研从传统经验驱动向数据智能驱动转变,形成AI4S范式。例如,AlphaFold2通过深度学习预测蛋白质结构,其预测精确度达到原子级别,中值误差小于1Å,与实验验证的结果精确度相当。微软研究院开发的基于AI的从头算生物分子动力学系统AI2BMD(artificial intelligence based ab initio biomolecular dynamics system)已在量子化学领域实现分子动力学模拟精度的大幅提升。中国也在这个领域谋求变革,国内公司已推出全球首个通过自回归下一个可计算序列的抽象单元(token)预测任务将3D结构生成与理解统一起来的科学大模型Uni-3DAR。该模型创新性地解决了3D建模领域数据表示不统一和建模任务不统一两大核心问题。同时,这种范式变革不仅重构了科研方法论,更催生了“平台科研”新形态。例如,国家超算互联网充分发挥其平台优势,助力国内企业优化相关软件和大模型的运行效能,在提升科研效率的同时,有效降低了算力成本。 这种效率提升主要依赖AI技术的数据整合能力。当前AI算法能够统一处理不同学科的数据格式,将物理、化学和生物学等各领域的实验数据转化为标准化的数字表征。这种数据层面的互通,使得原本孤立的研究方法可以被重新组合,为跨学科协作提供了技术支撑。 2.3.2 跨学科融合加速协同创新 AI4S突破学科壁垒,推动数学、物理和生命科学等基础学科与计算机科学深度融合。以药学为例,基于生物学机制、疾病和用药相关数据以及药物的药学性质等建立的AI模型,不仅可以减少研发中人力、物力和时间成本的投入,还可以预测新药的安全性和有效性,辅助提高药物研发成功率。在生命科学领域,AI在蛋白质结构预测,以及传染病预测、演变和控制等领域有广泛应用。此外,在“数字+社会科学”等跨学科研究领域,还出现了如计算法学、计算政治学、计算社会学和智能考古等新兴研究方向。 2.3.3 资源开放共享重塑科研生态 AI4S推动科研基础设施向“智能算力+数据中台”转型,形成开放共享的创新生态。这种平台化趋势催生了新型科研组织模式,例如,北京深势科技公司提出了革命性的“多尺度建模+机器学习+高性能计算”的科学研究新范式,自主研发的计算平台为药物、材料领域带来突破性的计算模拟及设计工具。在数据资源的开放共享方面,开放科学数据平台如Zenodo,通过多格式支持、元数据标准化和数字对象标识符(digital object identifier,DOI)分配机制,推动科研数据的跨域共享与引用。自2013年上线以来,Zenodo累计托管超过50万项研究成果,加速了全球知识流动,推动形成新型科研协作生态。 综上所述,当科研活动日益依赖智能算法生成研究假设、优化实验设计甚至撰写论文时,技术工具的中立性与科研主体的责任性之间产生了一定的张力:一方面,AI生成内容的不可解释性可能导致发生“无意识的”学术不端行为;另一方面,AI4S开源模型的易获取性使得数据造假、论文代写等传统学术不端行为愈演愈烈。因此,AI4S带来的科研范式变革在重构科研创新生态的同时,由技术嵌入性和方法颠覆性引发的科研诚信风险成为AI4S时代科研诚信治理必须应对的元问题。
/ / AI4S范式下的科研诚信治理面临的挑战 根据2010年世界科研诚信大会(World Conferenceon Research Integrity,WCRI)发布的《科研诚信新加坡声明》,科研诚信主要指研究者遵循真实性、负责任、专业性与公平性等原则开展学术活动的职业规范。核心要求包括学术真实性、数据可追溯性和成果归属明确性等。随着AI、基因编辑等技术引发的伦理争议加剧,国际学界逐步将科研伦理纳入科研诚信范畴,形成“FFP+E(Ethics)”框架。综合来看,AI4S范式的发展势必对新框架下的科研诚信治理带来一定的挑战。 3.1 科研贡献模糊 AI4S正逐步改变传统科研活动中“人类中心主义”的贡献认定体系。在AI深度介入科研流程的背景下,实验设计、数据分析和论文撰写等核心环节可完全由AI算法自主完成,人类研究者与机器系统的权责边界日趋模糊。AI模型通过强化学习自主优化实验参数时,其决策逻辑会超出开发者预设的范围,导致难以明确科研成果的创新性归属于算法设计者还是数据提供者。这种模糊性在跨学科团队协作中更为突出,当生物学家、计算机专家与AI系统共同完成基因编辑研究时,各方贡献权重缺乏量化标准。学术论文的“署名权争夺”已愈演愈烈,部分学术期刊已出现AI作为“共同作者”的案例,暴露出现行学术规范与AI技术发展的结构性矛盾。 3.2 知识可信度危机 AI4S范式下的知识生产过程存在显著的可解释性缺陷,严重威胁科学结论的可验证性。深度学习模型的“黑箱”问题使得从海量数据中挖掘的规律缺乏因果逻辑支撑,这种矛盾的深层机制体现在人工神经网络通过分布式表征学习建立的关系,本质上是对数据统计特征的拟合,并非对因果机制的揭示。即便预测结果准确,其科学价值仍存疑。例如,AlphaFold2预测蛋白质结构时,虽然结果精确到原子级别,但科学家发现它无法说明这些结构形成的物理原因(如氢键如何连接)。此外,数据污染风险加剧了可信度危机,即训练数据中的隐性偏差可能被算法放大,导致出现系统性错误结论。同时,生成式AI具备批量生产“看似合理但实则谬误”的学术文本的能力,若这类内容渗入文献数据库,将引发错误的链式反应。当虚假知识通过AI驱动的文献推荐系统广泛传播时,整个学术体系的自我纠错机制可能陷入瘫痪。 3.3 学术灰色产业链 AI技术的“平民化”应用正在重塑学术不端行为的实施模式与技术门槛。自动论文生成工具的出现,使得批量生产符合格式规范但缺乏创新价值的“学术垃圾”成为可能。由于模仿了高水平期刊的行文风格,造假内容的检测难度极大。在实验数据方面,利用生成对抗网络(generative adversarial networks,GAN)可创建逼真的虚假数据集,甚至模拟特定仪器设备的误差特征,以通过审稿审查。甚至某些第三方服务机构利用AI开展“定制化”学术造假,即根据用户需求自动调整论文重复率和创新点表述,形成从代写到发表的完整学术灰色产业链。这种技术赋能的学术不端行为已呈现全球化、平台化趋势,传统基于文本比对的反剽窃手段面临彻底失效的风险。 3.4 道德与伦理风险 AI技术在科研领域的深度应用可能会引发道德伦理等风险。以生物医学为例,搭载自主学习模块的实验装置可在伦理委员会未发现时,或避开伦理委员会监督,进行高风险基因操作或药物测试。当AI根据优化算法自动选择实验方案时,对科研中的“价值理性”进行定义将变得十分困难。同理,在进行社会科学研究时,基于大数据的AI模型可能无意识放大种族、性别等敏感属性的偏见,导致研究成果沦为系统性歧视的“科学背书”。此外,需要十分警惕资本与技术联合催生的知识垄断,这将导致科学研究资源逐步集中于应用研究或产业化研究领域,从而忽视基础性、前瞻性的重大科学问题,最终可能改变科研活动的“公共属性”,带来不可忽视的道德伦理风险。
/ / 国外AI4S范式下科研诚信治理的探索 4.1 美国治理情况 近年来,美国联邦政府不定期出台了关于AI发展的行政命令或重要文件,而针对AI4S的文件较少。2023年10月,拜登签署了《关于安全、可靠和可信地开发和使用人工智能的行政令》,确立了AI监管的总体原则。该行政命令明确要求完善AI相关标准和测试工具,确保AI系统安全、可靠,对涉及消费者健康和安全、敏感信息等高风险领域的AI开展更严格的监管。2024年4月,美国总统科学技术顾问委员会发布了《赋能研究:利用人工智能应对全球挑战》报告,建议健全AI4S的智能科研管理体系,实施全流程管控,防止AI辅助过程中可能出现的错误,确保AI4S科研实践符合伦理标准与安全要求,促进科研的可持续发展。此外,在高校层面,耶鲁大学在部分编程类课程中实施了作业双版本提交制度,即人工稿与利用人工智能生成内容(Artificial Intelligence Generated Content,AIGC)工具的辅助稿,课程要求学生在提交代码时附带编程日志,用于追踪人工修改痕迹。 在治理工具上,2023年,美国国家标准与技术研究院发布了《人工智能风险管理框架》,为AI开发者提供了一套灵活的风险管理工具,其内容涵盖系统安全性、算法可解释性、决策公平性以及隐私保护等关键维度。美国的教育机构也认识到AI在学术研究和论文写作中可能引发的科研诚信危机。斯坦福大学研究人员推出了Detect GPT工具,专门用于识别与判定AI文本。此外,美国联邦政府推出国家人工智能研究资源(National Artificial Intelligence Research Resource,NAIRR)试点项目,通过整合联邦机构与科技企业的计算资源、数据集及预训练模型,构建开放科研基础设施,该项目由美国国防部、能源部等14个政府部门与微软、谷歌等26家企业协同推进,重点支持学术界合规使用AI技术。 4.2 欧盟治理情况 2019年4月,欧盟发布《可信人工智能伦理准则》(Ethics Guidelines for Trustworthy AI),首次系统性地提出AI伦理原则,强调科研活动中AI应用的透明性、可解释性与公平性,建议对高风险研究建立算法审计机制。尽管该文件为自愿性指南,但为后续立法奠定了价值基础。2021年4月,欧盟委员会提出《人工智能法案》(AI Act)提案,将伦理准则中的核心要求转化为法律义务。该法案经多轮修订后于2024年8月1日正式生效,成为全球首个全面监管AI的立法。针对AI在学术上的应用,欧盟在2024年发布《科研领域负责任使用生成式人工智能指南》,明确禁止将AI列为论文作者,要求AI生成内容占比超过一定比例的论文需标注“AI辅助生成”。 在针对性的治理框架与工具方面,2020年欧盟委员会发布《可信人工智能自评估清单》,为人工智能开发者、部署者和使用者提供了评估可信人工智能的初步方法,有助于推动可信人工智能7项要求的践行和落实。2025年1月,位于德国的国际知名学术出版机构施普林格·自然(SpringerNature)推出基于AI驱动的诚信审查工具,旨在提升科研诚信审查的效率。该工具的测试与验证覆盖超过10万篇投稿,帮助编辑和同行评审人员在稿件审查过程中高效地开展论文审查活动。 4.3 日本治理情况 2019年3月,日本政府正式发布《以人类为中心的人工智能社会原则》(以下简称《原则》),作为在社会中应用AI的指导框架。《原则》提出了围绕AI的7项基本原则:以人类为中心、教育、保护隐私、保障安全、公平竞争、公开透明、创新。2025年2月,日本内阁通过《人工智能相关技术的研发及应用促进法》草案。该法案是日本政府为应对AI技术快速发展而制定的综合性法律框架,旨在通过系统化的政策推动AI技术的研究、开发和应用,确保日本在这一领域的国际竞争力。该法案的核心目标之一就是确保技术的正当性和透明性,即关注AI技术的潜在风险,确保研发及应用过程的透明度,防止技术滥用导致犯罪、侵犯隐私或著作权等不当行为。 世界主要发达国家在致力于促进AI加速发展的同时,注重以政策文件或相关治理框架对科研诚信行为进行软性约束与监管,从而支持在科学研究中合规使用AI。但是,除了美国、欧盟等国家或地区的相关部门和出版机构已研发出用于AI检测的相关工具,解决了学术研究中的图像篡改、数据重复等问题外,其他国家在研发“反制”AI技术的手段工具上尚显不足。
/ / 中国AI4S范式下科研诚信治理现状及风险挑战 5.1 初步建立政策框架,但尚未满足技术变革需求 近年来,中国出台了部分针对AI应用于科研活动及诚信管理的政策制度,基本建立了中国AI科研治理的政策框架。2023年12月,科技部发布《负责任研究行为规范指引(2023)》,从研究实施、数据管理、成果署名与发表、文献引用等方面对AIGC的使用做出具体指引;2024年9月,中国科学技术信息研究所发布《学术出版中AIGC使用边界指南2.0》,为AI技术在学术出版中的行为实践提供了基本原则框架和指南。中国科学院自2018年起连续发布年度科研诚信提醒,在2024年更是针对性发布了《关于在科研活动中规范使用人工智能技术的诚信提醒》,明确AI在选题调研、数据收集和成果撰写等八大场景的合规边界,强调生成内容的可追溯性与责任归属。此外,复旦大学、上海交通大学和南京大学等国内多所高校相继发布规范学生使用生成式AI工具的相关指导意见,确保其规范与合理使用AI。 中国对AI科研诚信的政策以“追赶型”为主,在顶层体系设计及执行方面仍存在难以及时满足技术迭代速度的问题。一是在宏观政策层面尚未出台专门针对AI4S在科学研究领域管理与诚信治理的政策法规;二是跨部门的协同治理机制尚未建立,国家科技部、教育部和网信办等部门在AI科研数据监管中存在职责交叉与空白。三是监管落地难。当前依然存在政策缺乏量化细则、违规成本难以震慑学术造假等问题。现有政策缺乏对AI4S特有的数据篡改、算法“黑箱”和模型剽窃等新型失信行为的针对性条款。 5.2 加快研发治理工具,但面临更广泛的监管风险 国内针对AI的科研诚信治理技术发展迅速。一方面,学术机构主导型工具逐步落地。中国知网、万方、维普等学术平台相继发布AI生成内容检测系统,基于海量学术资源训练检测模型。其中,知网系统采用语义一致性分析与语法特征解析技术,支持文本、公式与简单图表的生成痕迹识别;万方与维普主要聚焦文本检测,多模态功能仍在完善中。另一方面,科技企业也在开展相关工具的研发,如腾讯云AI内容安全检测服务,支持文本与图像双模态检测。其中,文本检测模块通过大规模中文语料训练,可识别学术写作中异常的逻辑。 尽管已研发出部分科研诚信治理工具,但AI4S在推动学术研究发展的同时,也使科研诚信监管风险逐渐扩大,主要表现在科研内容真伪的违规判定上,规则边界难以界定。在科研诚信监管部门使用AI治理工具进行学术不端检测时,真伪内容鉴别面临较大的挑战,判定结果难以保证稳定输出,可能出现对学术不端错误认定的结果。此外,在数据内容的质量方面,若AI进行科研训练的数据存在问题,那么有可能出现数据偏见,进而对研究结果的真实性造成影响。因此,科研诚信监管应深入AI4S的学术应用中。 5.3 开展AI教育与培训,但教育资源与自我监督滞后 《国务院学位委员会教育部关于进一步严格规范学位与研究生教育质量管理的若干意见》第(十二)条要求:“把学术道德、学术伦理和学术规范作为必修内容纳入研究生培养环节计划,开设论文写作必修课,持续加强学术诚信教育、学术伦理要求和学术规范指导。”当前各高校已陆续将科研诚信纳入研究生必修课程,如清华大学等高校开设了“生成式AI工具在学术领域的应用”等课程。信息资源管理学界也利用数据智能优势开展跨学科研究,协同组织科研诚信教育,如中国科学院大学图书馆针对硕士、博士研究生和科研人员开设“AI素养提升系列培训”课程,讲授AI4S背景下科研诚信相关政策与规范。 基于AI4S的科研诚信教育培训实际效果并不十分理想,主要原因如下:一是教育资源较为匮乏。师资和教学材料的严重匮乏造成科研诚信课程难以发挥真正效果。科研诚信是一套系统的知识体系,以传统的德育教学方式宣讲科研诚信规范,会使科研规范教育与科学实践严重脱节。二是教育形式单一。当前高校和科研单位以课程方式加强AI科研诚信教育,但教育形式多为宣贯式和灌输式,缺乏有效的互动教学、案例教学和实景教学等模式,授课内容难以真正深入人心。三是自我监督意识淡薄。现有诚信教育侧重“禁令式”说教,缺乏对AI技术双刃剑特性的辩证认知。科研人员往往通过“试错”的方式掌握AI工具使用边界,导致自我监督意识较弱,出现无意识的违规行为,难以应对“科研效率”与“学术规范”之间的价值冲突。
/ / AI4S范式下科研诚信治理的政策建议 针对中国科研诚信治理现状及面临的风险挑战,在借鉴国外科研诚信治理经验的基础上,建议按照“制度+技术+教育”的协同治理框架,针对科研活动的不同环节提出符合中国现实情况的应对策略,促进AI4S范式的合理、健康、有序发展。 6.1 完善AI4S下科研诚信政策制度体系 一是制定顶层制度。聚焦AI4S赋能科研效率和科研治理等相关内容,参考上海、深圳等出台的《人工智能产业促进条例》,建议由国家相关部门制定《人工智能科研促进条例》,明确AI4S促进科学研究的管理边界与规则,并规定科研诚信监管等职责。二是明确实施细则。基于AI4S技术发展特点、AI科研诚信建设发展要求以及学术不端治理规范,组建跨部门法规专班,基于国家科技部等多部门出台的《科研诚信案件调查处理规则(试行)》和国家网信办出台的《生成式人工智能服务管理暂行办法》等政策规定,制定针对AI4S范式下科研诚信管理的实施细则,细化规范治理框架和标准。三是明确使用边界和责任归属。为了减少AI使用不当引发的科研诚信问题,确保科研的合法性和规范性,建议制定《科研领域AIGC使用指南》,明确AI在科研领域的使用边界和责任归属,明晰学术不端事件责任承担方式,为科研人员提供指导和规范。 6.2 强化全过程监管与技术手段建设 一是强化全过程监管。构建全周期动态监管体系,将监管重心从“结果审查”转向“过程审查”,通过阶段性绩效评估和“里程碑”节点考核等,及时发现和纠正科研活动过程中存在的问题,有效预防学术不端行为的发生,提高科研成果质量。二是部门协同治理。充分整合科技部、教育部和中国科学院等机构的科研诚信治理资源,统筹构建涵盖“技术标准、诚信准则、惩戒规则”的三维治理矩阵,协同开展科研诚信治理工作,不断提高治理效率。三是强化AI治理技术与工具研发。开发基于区块链的科研贡献溯源技术,通过智能合约自动记录AI生成内容的数据来源、模型贡献比例及人工修正轨迹,为每项科研成果生成不可篡改的“贡献链”。通过跨机构节点协同验证,精准识别“AI代写但未声明”等新型学术不端行为,保障科研过程的透明化。四是加强国内AI技术研发和应用的监管。提高中国在AI检测领域的技术水平和自主创新能力,尽快突破多模态融合检测技术瓶颈,开发跨媒体语义关联分析算法,构建覆盖文本、图像及音视频的复合型检测体系,提高检测准确率。 6.3 构建融入AI+的科研诚信教育体系 一是广泛开展AI+科研诚信教育培训。将有关AI科研伦理与诚信的课程纳入研究生核心课程体系。同时,构建与相关政府部门、企业等多方协同参与的治理网络,营造全社会全覆盖“知信”氛围,以协同共治方式营造风清气正的科研环境。在教育形式上,科研诚信教育要从“单向灌输”转向“生态治理”,通过示范性案例教学和情景模拟教学等方式,充分利用AI技术,开发互动式学习平台与虚拟仿真场景,模拟学术不端处理场景,增强教育的沉浸感与实践性,构建崇尚诚信的学术文化生态。二是提升技术素养与道德意识。在个体价值观形成的关键阶段,通过课程设计兼顾技术素养与道德意识,将诚信理念融入教育全过程,从根源上培养学生的道德自觉性。针对科研相关从业者,开展AI技术培训,使其掌握正确的使用方法和技巧,提高对AI生成内容的识别和判断能力,有针对性提高科研人员的诚信意识和自律能力。
来源:科情智库