挑战
该平台每日需处理来自多个安全监控系统的大量日志数据,人工分析效率有限,容易出现疏漏。随着AI系统成为安全监控与警告的核心组件,如何确保其在严格政府标准下的韧性、准确性与合规性成为首要任务。
主要挑战包括验证系统整体安全态势、控制数据暴露或模型偏差的风险,并确保符合 OWASP AI Top 10 以及本地政策标准,例如 G3 与 S17的要求。同时,系统在高度敏感的环境中运行,须证明其符合《保护关键基础设施(电脑系统)条例》的规定。

公共事业
香港某政府机构负责制定有关数字政府、数据治理及信息科技的政策,正积极推动新兴技术的应用,以提升公共服务质量与运营效率。随着人工智能(AI)日益融入核心业务流程,如何确保数据安全、透明度及合规性,已成为维系公众对数字化转型信任的关键。
为实现这个目标,该机构启动了基于AI的日志分析与监控平台安全评估项目。该系统利用AI模型分析大量运营日志,以识别异常行为并检测潜在的网络安全威胁。

该平台每日需处理来自多个安全监控系统的大量日志数据,人工分析效率有限,容易出现疏漏。随着AI系统成为安全监控与警告的核心组件,如何确保其在严格政府标准下的韧性、准确性与合规性成为首要任务。
主要挑战包括验证系统整体安全态势、控制数据暴露或模型偏差的风险,并确保符合 OWASP AI Top 10 以及本地政策标准,例如 G3 与 S17的要求。同时,系统在高度敏感的环境中运行,须证明其符合《保护关键基础设施(电脑系统)条例》的规定。

在LPS 的专业支持下,机构开展了全面的 AI 安全评估,以强化系统的安全性、透明度及治理管控。该评估涵盖安全风险与评估分析(SRAA)、隐私影响评估(PIA),并对AI 日志分析及消息推送服务平台进行渗透测试。
评估采用国际认可的 OWASP AI Top 10 框架,针对AI模型逻辑、数据完整性、偏差处理及可解释性中的潜在漏洞进行了识别与验证,并同时评估了系统与政府标准及关键基础设施政策的契合度。
项目还开发了一个安全可视化仪表板,用于展示AI生成的日志洞察、标注重点安全问题及跟踪整改进度。评估结果为系统架构的即时优化提供了指引,并为持续、自动化的合规监测奠定了基础。

本次AI安全评估提升了系统风险的可视化能力,强化了数据保护,并确保符合所有政府及关键基础设施的法规要求。通过验证系统的安全控制及治理规范,该项目显著增强了使用 AI 处理敏感公共数据的信心。
由此建立的评估框架提供了一套可复用、可扩展的AI安全评估模型,为政府关键部门安全、透明、合规地应用AI技术奠定了坚实基础。
立即下载PDF
提交