今天是2023年11月30日 星期四
首页 > 论文数据 > 社会科学 > 生成式人工智能与政策失灵:规避工具还是隐蔽诱因?

生成式人工智能与政策失灵:规避工具还是隐蔽诱因?

向玉琼

南京农业大学 公共管理学院,江苏 南京 210095  

摘要:ChatGPT的出现意味着生成式人工智能阶段的到来,对政策过程产生一定的影响.ChatGPT可以提高政策信息的完整度、扩大政策系统与技术之间的友好接口、更大程度代替人类决策并提高效率、推动政策系统升级并提高政策系统与环境之间的适应性.基于生成式人工智能的预设功能,人们对其寄予厚望,认为人工智能将有助于政策优化,甚至成为政策失灵的规避工具.但现实中,生成式人工智能在政策过程中的应用并不一定带来政策优化的结果,相反,也可能正因为人工智能等信息技术的应用而诱发更为复杂的政策失灵.原因在于:人工智能隐蔽的算法偏见会带来偏狭的政策信息,对信息生成与传播的隐蔽控制会带来政策观点的极化,决策过程对机器的依赖会加剧政策系统的封闭性,社会监控系统隐形带来政策目标的自反等.人工智能并不一定保证政策目标的达成,反而可能成为政策失灵的推动力量.由于决策责任体系的复杂化,人工智能的影响难以确定,具体表现为:人工智能中技术"黑箱"的存在模糊了对生成式人工智能责任判定的标准;决策系统复杂化导致责任主体不明确;人类与机器之间的避责策略致使决策责任被稀释;追责路径特殊化带来责任链条的断裂等.生成式人工智能因为技术上的特殊性,会对政策过程产生复杂而又隐蔽的影响,因此既不能将人工智能视为普通的技术工具而采用传统的监管思路,也要认识到人工智能与人类自主意识之间的差异而做出差别化对待.具体来说,要基于对人类主体地位的明确认识开展人机合作,加强对人工智能的监管,使其服务于人类社会以实现公共价值,规避政策失灵的发生.
学术争鸣 发布观点
扫一扫 关注我们