中文EN
【学者视窗】生成式人工智能影响下的学术新范式
2026-01-15 来源:社科院专刊总第827期 作者:范云朋(金融研究所)   崔文芮(中国社会科学院大学)
分享到:

  范云朋(金融研究所)

  崔文芮(中国社会科学院大学)
  
  《中共中央关于制定国民经济和社会发展第十五个五年规划的建议》提出,全面实施“人工智能+”行动,以人工智能引领科研范式变革,加强人工智能治理,完善相关法律法规、政策制度、应用规范、伦理准则。在新时期,应探索建立适应人工智能时代的新型哲学社会科学研究组织形式,促进人工智能更好造福人类。生成式人工智能根据研究者的特定需求给予实时反馈,并凭借持续学习和模型优化,不断拓宽认知边界,助力产生新的研究内容,切实提升学术研究效率。
  然而,生成式人工智能在学术实践中的广泛应用,也引发了关于学术诚信、知识产权归属以及人类研究主体性削弱等深层次议题的讨论。《关于深入实施“人工智能+”行动的意见》提出,要深入研究人工智能对人类认知判断、伦理规范等方面的深层次影响和作用机理,这对于引导技术走上善治之路、保障学术生态健康有序发展具有重要意义。
  
  生成式人工智能的价值创造
  
  生成式人工智能不仅能优化研究流程,更有利于拓宽研究者的认知边界,加速跨学科知识的深度聚合,持续激发学术创新活力,推动形成一种以跨学科融合、认知突破为特征的学术研究新范式。
  在假设产生与概念创新方面,生成式人工智能通过对不同学科文献的检索与分析,发现跨领域之间的潜在关联,归纳出具有跨学科价值的研究假设,从而推动跨领域知识融合。生成式人工智能可以较为全面地扫描科学知识库,甄别与现有理论或常规认知相矛盾的数据模式,由此帮助研究者提出可能有悖直觉的研究假设,开辟新的研究路径。生成式人工智能推动研究者探索“未知的未知”,即于未事先设定类别标签的数据中发现全新的结构或类型,从而揭示尚未得到充分认知的公共知识,带动概念层面的原创性进展。
  在数据分析与建模方面,生成式人工智能可自动完成数据预处理及建模工作,提高学术研究效率,使研究者能够将更多精力投入研究设计、问题提出与结果解读等更具创造性的环节。同时,生成式人工智能擅长处理高维数据与非结构化信息,能够构建预测精度更高、解释性更强的模型,从而拓宽研究的数据支撑与问题范畴,增强研究成果的学术意义与说服力。此外,该技术还有助于提升研究过程的规范性,增强研究结论的稳健性。研究者在研究过程中可能无意识地产生错误或确认偏误,而生成式人工智能通过流程标准化与结果可重复性设计,有助于保障数据分析的客观性与公正性。研究者还可借助该技术审视自身数据与初步结论,检验论证的严密性,弱化主观偏误带来的影响。
  在学术写作辅助方面,生成式人工智能能够显著提高写作效率。目前,该技术已广泛应用于文献检索、综述整理以及格式与引用管理等环节,有助于减少研究者在写作流程中的时间消耗。同时,生成式人工智能可对文本结构与逻辑组织进行优化,通过模拟审稿人视角协助完善论文框架、梳理论证链条,增强研究的整体连贯性与说服力。在语言表达层面,生成式人工智能同样具有较强实用价值,能够完成语法修订、逻辑强化及多语言翻译,其润色效果往往优于传统工具,有利于提升学术文本质量,并在一定程度上促进学术写作的公平性,帮助非英语母语研究者更高效地参与国际学术交流。
  
  在学术研究中存在的争议
  
  当前,生成式人工智能引发的争议主要体现在其技术局限,以及与现行法律制度、伦理准则和学术治理体系之间的张力方面。厘清这些关键问题,是保障该技术实现负责任创新与可持续发展的重要前提。
  生成式人工智能在应用过程中存在数据安全与信息泄露风险。模型在运行中可能保留用户输入的信息,这些信息存在在用户不知情或未明确授权的情况下被使用的可能性,从而引发泄露问题。这不仅关乎人工智能安全机制的设计与优化,也涉及法律法规、伦理准则与社会信任体系的构建,已成为亟须综合治理的跨领域议题。
  围绕模型可信度与算法“黑箱”的讨论同样受到关注。生成式人工智能的内部运行机制高度不透明,输出结果往往难以溯源和全面解释,容易产生差错。当训练数据本身包含社会偏见时,模型可能在复制偏差的同时进一步放大其影响,加剧信息茧房效应。由于生成式人工智能本质上仍是统计驱动的计算模型,缺乏对现实世界的常识性理解与因果推断能力,在面对训练数据未覆盖或逻辑关系不清晰的情形时,可能生成看似合理却缺乏事实支撑的内容,即所谓的“幻觉”现象,从而削弱技术的可信赖度。此外,生成式人工智能生成内容在表达上往往结构严密、措辞精准,容易给读者造成内容高度可信的表象,若再叠加研究者的学术背书,可能进一步放大误导性信息的传播效应,催生新型“人工智能谣言”,对社会治理构成新的挑战。
  在知识产权归属与学术规范层面,生成式人工智能同样带来一系列新问题。模型在训练阶段通常未对所使用的数据逐一获取版权授权,而相关训练材料多受著作权法保护。若模型在输出中重现受版权保护的内容,研究者可能在不知情的情况下发布侵权成果,从而承担相应法律风险。这一问题在实质上模糊了创作、创新与合理使用之间的法律边界,目前仍处于认定不清的灰色地带。与此同时,人工智能生成内容的版权归属尚缺乏明确界定。现有版权制度以保护人类作者的智力创作为核心,而在生成式人工智能参与的创作过程中,人类作者的实际贡献程度难以清晰厘定。此外,在学术研究中引入生成式人工智能,相当于引入一种无法在成果中署名和确认的“幽灵作者”,这不仅违背学术诚信原则,也使研究者原创贡献与真实能力的评估更加复杂。若研究者长期过度依赖生成式人工智能进行观点生成或内容整合,可能逐步削弱其科研思维的自主性,对学术创新产生不利影响。
  
  构建生成式人工智能治理体系
  
  为系统应对人工智能在学术研究应用中涌现的诸多新型挑战,保障其发展兼具合规性、安全性与可控性,亟须构建一套完善的治理体系,确立人工智能赋能学术研究的制度性框架。
  一是建立人工智能应用治理框架。制定清晰的人工智能使用政策,界定可用的生成式人工智能使用范围、适用场景及授权使用人员。严禁研究者向公共人工智能工具输入涉密或敏感信息,严格落实“涉密信息不上网、上网信息不涉密”。研究者须对人工智能提供的全部内容进行人工审核,检验其事实准确性,防范模型“幻觉”问题。此外,建立数据审计与透明度提升机制,要求研究者在相关成果中披露人工智能的参与情况并予以标注。为保障政策得以有效实施,还须明确规定违反使用规范应承担的责任与相应后果。
  二是构建驱动创新的技术体系。构建数据防泄露的安全保护体系,利用技术措施对未被授权的敏感数据实施实时监测和阻拦。政府与行业可携手建立数据库和评价体系,为人工智能系统的公平性与稳健性提供标准化数据集和测试检验基准,支持针对科研场景开发更具可解释性、透明性及抗偏见能力的人工智能专用工具,提升输出结果的可信度与可理解性。构建长效治理机制,对人工智能系统的全生命周期开展动态审核与监控,明确研发与部署过程中各阶段的责任主体,并在重点领域引入人工管控模式与第三方认证体制,达成从技术防控到制度约束、从早期防范到后期修正的闭环管理。
  三是完善相关法律法规。通过立法或司法解释明确生成内容的版权归属原则,规定完全由人工智能生成且无人类创造性贡献的内容不享有版权,确立“人类作者主导、人工智能作为工具”的认定标准。在训练数据方面,规范其版权来源合法性,推动建立训练数据版权许可平台,为开发者提供合规便捷的数据获取渠道,支持模型优化。在既有《网络安全法》《数据安全法》《个人信息保护法》等法律框架下,加快制定配套法规、部门规章与国家标准化文件,以增强法律体系的协调性与完备性。推进数据分类分级管理制度,加强对数据主体的权利保护,健全数据安全监管体系。要求人工智能系统在设计与开发初期即内置数据安全与隐私保护机制,实现源头控制。此外,提升监管技术水准,加大对违法违规行为的处罚力度,保障法律规范落实到位。推动监管模式向动态化与敏捷化转型,构建能够适应技术快速迭代的治理框架。
  四是健全学术研究伦理规范。由国家科技伦理委员会牵头,联合相关科研机构,制定人工智能辅助学术研究的伦理指南和行为规范,明确研究者在使用人工智能工具过程中的权限边界与科研诚信要求,确保生成式人工智能在规范框架内发挥效能。构建覆盖人工智能科研全过程的伦理审查机制,在重点领域设立伦理复核与第三方核查程序,要求研究者提交人工智能生成内容的监测报告和伦理说明,强化学术创造过程监管,防范学术不端行为。同时,鼓励科研机构和高校开展人工智能伦理教育与培训,提升研究者对人工智能技术的理解水平与伦理判断能力,增强其在使用生成内容时的伦理自觉,从源头上防范技术滥用与道德风险,确保科研活动规范有序开展。

责任编辑:王晏清