关键词:
AIGC
生成式人工智能
科研知识生产
科学研究
AI治理
摘要:
[目的/意义]AIGC在强势赋能科研知识生产的同时,诱发剽窃或抄袭、伪造与篡改等传统学术失范风险,催生AI代写、AI技术局限型学术不端行为等新型风险样态,对现行科研评价体系造成冲击,有必要追溯上述风险的发生根源进而对其展开规制。[方法/过程]通过解构AIGC介入知识生产的底层逻辑可知,生成式AI作用于“数据——信息——知识”这一知识层次演进路径,以及知识搜索与知识评估两大思维运作过程,使得知识生产中的人机协作关系呈现AI主导型、AI合作型和AI辅助型等多样化类型,不同人机协作关系类型下研究人员的学术失范责任有所区别。[结果/结论]在具体的责任规制方案上,传统的客观责任立场难以有效应对AIGC学术不端行为主体与责任主体之间的“身份错位”难题。对此,应当采取主观责任立场,根据研究人员之于知识生产的“参与度”和“贡献值”,为其设定独创性声明、透明度义务、禁止造假、观点溯源和事实审查等差异化的学术规范义务,通过相应义务违反性质和程度进一步评价研究人员的主观过错及其可谴责性,从而实现AIGC学术失范风险责任规制体系的合理建构。