AI治理:应对大语言模型幻觉风险的必然选择

网络 2025-06-24 11:20:31
期货学院 2025-06-24 11:20:31 阅读

  国泰海通证券发表观点:以ChatGPT、DeepSeek为代表的大语言模型(LLM)掀起人工智能应用新潮,推动企业与政府加速“数智化”转型。然而,技术缺陷带来的风险日益显现,尤其是模型“幻觉”频发,已引发多起风险事件。各类机构在接入LLM的同时,亟需重视其潜在治理问题,提前构建防范机制,确保AI技术安全可控发展。

  AI幻觉已在应用端形成多重危机。AI幻觉(AIhallucinations)是指人工智能模型生成的看似合理但实际错误的内容,这种现象通常表现为脱离现实、逻辑断裂或偏离用户需求的输出。大型语言模型的技术架构与训练方法决定了幻觉现象的固有性,其中推理模型的幻觉率尤为突出,这不仅加剧了互联网信息生态的污染问题,更因其在医疗、法律等专业领域的应用失准而诱发系统性风险,最终可能演变为广泛的社会信任危机。

  AI幻觉现象或引发企业的多维度治理风险。AI技术的规模化部署正在重塑企业运营模式,但同时也催生了系统性风险。在专业化应用场景中,这种技术缺陷正引发更严峻的挑战——医疗诊断的误判、法律建议的偏差等案例频发,不仅造成直接经济损失,更侵蚀着社会对AI系统的信任基础。尤其当模型被深度嵌入金融、政务等关键领域时,单一错误可能通过智能决策系统产生级联效应,最终演变为波及多行业的系统性危机。

  完善AI治理是实现人工智能可持续发展的必然选择。近年来,中国通过密集出台专项法律与政策文件,初步构建起覆盖人工智能全生命周期的治理法律框架。此外,为应对这些挑战,产业界需采取技术改进(如不确定性量化、检索增强生成)、管理优化(人机协同决策、动态风险评估)和制度建设(版权认证、伦理审查)相结合的综合治理方案。只有通过多方协同,才能在释放AI技术潜力的同时,有效管控其带来的各类风险,实现人工智能的负责任发展。

(文章来源:财中社)

声明:
  1. 风险提示:以上内容仅来自互联网,文中内容或观点仅作为原作者或者原网站的观点,不代表本站的任何立场,不构成与本站相关的任何投资建议。在作出任何投资决定前,投资者应根据自身情况考虑投资产品相关的风险因素,并于需要时咨询专业投资顾问意见。本站竭力但不能证实上述内容的真实性、准确性和原创性,对此本站不做任何保证和承诺。
  2. 本站认真尊重知识产权及您的合法权益,如发现本站内容或相关标识侵犯了您的权益,请您与我们联系删除。
最新发布
为您推荐