大咖论“数”|筑牢人工智能发展的安全屏障
来自河北新闻网
扫码阅读手机版
人工智能是引领新一轮科技革命和产业变革的战略性技术,同时也具有明显的“双刃剑”特征。
一方面,人工智能赋能国家安全相关领域,是筑牢国家安全屏障的有力抓手。另一方面,人工智能因其脆弱性、不稳定性、不可解释性等特点,在与经济社会深度融合应用的过程中,极易引发国家、社会、企业和个人等层面的安全风险。
在席卷全球的人工智能浪潮中,如何应对人工智能风险、把握发展战略主动、有效维护和保障国家安全,是国家治理的重要议题。我国高度重视人工智能安全发展,逐步完善相关政策法规。
推动人工智能产业快速发展,要把保障数据安全放在突出位置。
数据是数字经济时代的关键生产要素,保障数据安全是促进人工智能安全发展的重要基础。我国2022年数字经济规模逾50万亿元,总量稳居世界第二,占GDP比重41.5%,数据量呈爆发式增长态势。随着数据要素规模不断扩大,以人工智能为代表的数字技术将实现知识与数据双轮驱动,数据价值得到进一步释放,生产资源配置、生产运营逻辑以及生产、分配、流通和消费关系等得以重塑,生产方式和生产关系发生变革。这在赋能传统产业转型升级、助力数字经济快速发展的同时,也伴随着数据泄露、虚假信息、算法歧视等数据安全新问题。只有筑牢数字安全屏障,才能为人工智能发展保驾护航。
人工智能产业快速发展过程中显现出数据安全领域的风险挑战。当前,人工智能进入快速发展期,应高度关注并有效应对随之而来的问题。例如,神经网络具有“黑盒”特点,导致人工智能存在不可解释性。深度学习对训练样本过度依赖,导致学习结果的不可判定性。此外,漏洞等引发的问题交织叠加,使得人工智能应用系统的数据安全问题变得更加复杂。有关机构针对IT行业领导者进行的一项关于ChatGPT等大模型的调查显示,安全性是受访者最关心的问题,71%的受访者认为生成式人工智能会给企业的数据安全带来新的风险。为了防止敏感数据外流,微软、亚马逊等科技公司已相继限制或禁止其员工使用生成式人工智能工具。可见,全面加强人工智能数据安全保障体系和能力建设已成为应对新形势新挑战的必然之举。
人工智能时代的数字安全威胁到底有多大?人工智能系统自身面临多维度安全风险。技术内生风险和系统衍生风险交织叠加,使得人工智能时代的安全问题异常复杂。数据安全风险方面,人工智能依托海量数据发展,有敏感信息泄露风险,且人工智能平台收集的原始数据与衍生数据的归属权、控制权和使用权目前在法律上尚难界定。算法模型安全方面,安全风险贯穿数据采集、预处理、模型训练、模型微调、模型部署应用等人工智能模型构建的全生命周期。外部攻击安全方面,数据投毒、对抗样本、数据泄露、模型窃取、软件漏洞等安全隐患屡见不鲜。
人工智能技术滥用带来数字安全威胁。当前,生成式人工智能的发展标志着人工智能正在从专用智能迈向通用智能,进入了全新发展阶段。大部分传统人工智能模型的安全风险仍然存在,同时生成式人工智能也有一些特有的问题,如技术软肋难以避免易培育假信息“温床”,使用方式简单便捷易形成失泄密“陷阱”,新兴技术尚难监管易成为信息战“武器”。
因此,亟须加强人工智能发展的潜在风险研判和防范,确保人工智能安全、可靠、可控。
(作者:单志广,系国家信息中心信息化和产业发展部主任、国家大数据发展专家咨询委员会秘书长)
凡注有“河北新闻网”电头或标明“来源:河北新闻网”的所有作品,版权均为本网站与河北日报报业集团所有(本网为河北日报报业集团独家授权版权管理机构)。未经许可不得转载、摘编、复制、链接、镜像或以其它方式使用上述作品,违者将依法追究法律责任。
河北日报
微信公众号
河北新闻网
微信公众号
燕赵都市报
微信公众号
河北日报
客户端