观点 | 香港企业须主动落实人工智能安全实践 | 南华早报
Ada Chung Lai-ling
随着人工智能(AI)的快速发展,越来越多的组织正在利用这项技术来简化操作、提高质量并增强竞争力。然而,AI也带来了不容忽视的安全风险,包括个人数据隐私风险。例如,开发或使用AI系统的组织经常收集、使用和处理个人数据,从而带来过度收集、未经授权使用和泄露个人数据等隐私风险。
AI安全的重要性已成为近年来国际宣言和决议的共同主题。2023年,包括中国和美国在内的28个国家在英国AI安全峰会上签署了《布莱切利宣言》。该宣言指出,滥用先进的AI模型可能导致灾难性危害,并强调迫切需要解决这些风险。2024年,联合国大会通过了一项关于AI的国际决议,旨在推动“安全、可靠和值得信赖”的AI系统。在2月巴黎举行的AI行动峰会上,包括中国在内的60多个国家签署了一份声明,强调利用AI促进经济和社会增长的前提是提升AI的安全性和可信度。在技术和产业创新方面,中国始终强调发展与安全并重。2023年,中国大陆启动了全球人工智能治理倡议,提出坚持以人为本、发展造福人类的人工智能等原则。就在今年4月,习近平总书记在主持中共中央政治局集体学习时强调,人工智能发展既带来前所未有的机遇,也伴随着前所未有的风险挑战。