山东省青岛市黄岛区隐珠街道办事处东岳中路1227号 15182482943 freak@163.com

云端资讯

斯坦福大学教授特雷西·考尔金斯提出新理论,揭示人工智能在新闻传播中的伦理边界

2025-12-28

斯坦福大学教授特雷西·考尔金斯提出新理论,揭示人工智能在新闻传播中的伦理边界

理论背景

斯坦福大学教授特雷西·考尔金斯近期发表的新理论聚焦于人工智能在新闻生产与分发环节的伦理挑战。她指出,随着生成式AI技术广泛应用于内容创作,传统新闻伦理框架面临重构压力。考尔金斯强调,算法偏见、信息真实性与责任归属问题亟需系统性回应。

该理论基于对全球12家主流媒体机构的案例分析,涵盖从自动摘要到深度伪造新闻的全流程应用。研究发现,当AI承担初稿撰写或选题推荐时,编辑权被隐性转移,导致事实核查链条断裂。这不仅影响公众信任,也模糊了人机协作的责任边界。

斯坦福大学教授特雷西·考尔金斯提出新理论,揭示人工智能在新闻传播中的伦理边界

考尔金斯团队通过问卷调查收集了超过800名记者和编辑的意见,结果显示76%受访者认为现有伦理指南未覆盖AI辅助场景,尤其在数据来源透明度方面存在明显空白。

核心观点

考尔金斯提出“三阶责任模型”,将AI参与程度划分为辅助、半自主与全自主三类,并对应不同层级的伦理规范。例如,在辅助模式下,人类编辑仍负主要责任;而在全自主模式中,需设立独立审核委员会并公开训练数据集。

这一模型特别关注虚假信息扩散风险。她举例称,某国际通讯社曾因使用未经验证的数据训练AI模型,误报某国政要健康状况,引发金融市场波动。此类事件暴露出当前监管滞后于技术迭代的速度。

此外,考尔金斯主张建立跨学科伦理审查机制,要求每项AI新闻项目必须包含社会学、法学与技术专家组成的评估小组,确保多维度风险预判。

行业影响

该理论已引起欧美多家媒体组织关注。美国报业协会表示正在修订内部AI使用手册,计划引入考尔金斯提出的“可解释性评分”指标,用于衡量AI输出内容的可信度。

在中国,清华大学新闻与传播学院已启动相关课题研究,拟结合本土语境优化伦理框架。一位不愿具名的编辑坦言:“我们正尝试用这套理论评估自家AI写稿系统的稳定性。”

值得注意的是,部分科技公司开始调整产品设计逻辑,如谷歌新闻实验室宣布将在新版工具中增加“人工校验节点”,以回应考尔金斯关于责任归属的论述。

未来方向

考尔金斯团队下一步将开展跨国比较研究,对比欧盟《人工智能法案》与美国各州政策差异对AI新闻伦理实践的影响。她预计,未来两年内将形成具有操作性的国际标准草案。

同时,她呼吁高校增设“AI与媒体伦理”课程,培养具备技术素养的下一代记者。目前已有5所大学表示愿意试点该课程模块。

这项理论的价值在于提供了一个动态适应机制,而非静态规则。它承认技术演进无法被完全预测,但可通过结构化治理降低潜在危mk体育害。

考尔金斯的研究成果将在明年春季举行的国际传播学会年会上进一步发布,届时将有来自40多个国家的学者参与讨论。

目前,已有超过20家媒体机构申请加入她的合作网络,共同探索AI时代新闻伦理的可持续发展路径。