当前位置:首页 > 生活常识 > 正文

新加坡寻求扩大生成式人工智能的治理框架

  

  

  新加坡发布了一份关于生成式人工智能(GenAI)的治理框架草案,称这对于解决新出现的问题是必要的,包括事件报告和内容来源。

  拟议的模型建立在该国现有的人工智能治理框架的基础上,该框架于2019年首次发布,最后一次更新是在2020年。

  人工智能验证基金会和信息通信媒体发展管理局(IMDA)在一份联合声明中表示,GenAI具有“超越”传统人工智能所能实现的巨大变革潜力,但它也伴随着风险。

  新加坡政府机构表示,越来越多的全球共识认为,有必要保持一致的原则,以创造一个安全、自信地使用GenAI的环境。

  他们表示:“人工智能的使用和影响并不局限于个别国家。”“这个提议的框架旨在促进政策制定者、工业界和研究界之间的国际对话,以实现全球可信的发展。”

  该文件草案包含了IMDA去年6月发布的一份讨论文件中的建议,其中确定了与GenAI相关的六种风险,包括幻觉、版权挑战和固有偏见,以及如何解决这些风险的框架。

  拟议的GenAI治理框架还从以前的计划中吸取了见解,包括如何评估GenAI模型的安全性和通过评估沙盒进行的测试的目录。

  GenAI治理模式草案涵盖了新加坡认为在支持可信赖的人工智能生态系统方面发挥关键作用的九个关键领域。这些原则围绕着人工智能驱动的决策应该是可解释的、透明的和公平的。IMDA和AI Verify表示,该框架还提供了实用的建议,人工智能模型开发者和政策制定者可以将其作为初始步骤加以应用。

  九个组件中的一个着眼于内容的来源:内容的生成地点和方式需要透明,这样消费者就可以决定如何对待在线内容。新加坡相关机构表示,由于人工智能生成的内容可以很容易地创建,因此深度造假等人工智能生成的内容可能会加剧错误信息。

  他们指出,其他政府正在寻找数字水印和加密来源等技术解决方案来解决这一问题,这些解决方案旨在标记和提供额外信息,并用于标记由人工智能创建或修改的内容。

  根据框架草案,政策应该“精心设计”,以促进在正确的背景下实际使用这些工具。例如,在不久的将来,创建或编辑的所有内容可能都不可能包含这些技术,而且来源信息也可能被删除。威胁行为者可以找到其他方法来绕过这些工具。

  该框架草案建议与包括社交媒体平台和媒体机构在内的出版商合作,支持数字水印和其他来源细节的嵌入和显示。还应适当和安全地实施这些措施,以减轻规避风险。

  另一个关键组件侧重于安全性,GenAI带来了新的风险,例如通过模型体系结构感染的快速攻击。根据草案框架,这允许威胁行为者泄露敏感数据或模型权重。

  它建议需要对应用于系统开发生命周期的设计安全概念进行细化。例如,在实现适当的安全控制时,需要考虑将自然语言作为输入注入的能力如何带来挑战。

  GenAI的概率性质也可能给传统的评估技术带来新的挑战,传统的评估技术用于开发生命周期中的系统改进和风险缓解。

  该框架要求开发新的安全保障措施,其中可能包括用于检测不安全提示的输入调节工具,以及用于调查和分析数字数据以重建网络安全事件的GenAI数字取证工具。

  “需要在保护用户和推动创新之间取得谨慎的平衡,”新加坡政府机构在谈到政府框架草案时表示。“有各种各样的国际讨论,包括问责制、版权和错误信息等相关和相关的话题。这些问题是相互联系的,需要以实际和整体的方式看待。任何单一的干预都不是灵丹妙药。”

  他们表示,由于人工智能治理仍是一个新兴领域,建立国际共识也是关键,并指出新加坡正在努力与美国等政府合作,以协调各自的人工智能治理框架。

  新加坡在3月15日之前接受对GenAI治理框架草案的反馈意见。

有话要说...