人工智能作为新一轮科技革命和产业变革的核心技术,正成为驱动新质生产力的重要引擎。
2024年政府工作报告中提到,深入推进数字经济创新发展,深化大数据、人工智能等研发应用,并首次提到开展 “人工智能+”行动。与此同时,政府工作报告也提出,要进一步提高网络、数据等重点领域的安全保障能力。
我国一直高度重视人工智能的安全治理。就在两会前,《生成式人工智能服务安全基本要求》发布,从技术层面为人工智能安全发展设置边界。人脸识别系统
《中国经营报》记者在2024年全国两会期间采访了解到,多位代表委员针对人工智能安全发展带来了建议,不少市场机构也开始在AI+安全上加码投入。面对人工智能带来的技术冲击波,除了依赖法律机制建设筑牢安全篱笆,市场也积极寻求通过“以技治技”,推动人工智能在发展中不断规范。
警惕技术双刃剑
随着ChatGPT、Sora等大模型的开放和应用,AI生成技术使用的门槛持续降低,也进一步增加了各界对人工智能安全与合规的担忧。网络安全公司Darktrace报告显示,ChatGPT 这样的生成式 AI 导致网络钓鱼邮件攻击增长135%。
此外,“深度伪造”技术利用机器的深度学习,实现了图像、声音、视频的篡改、伪造,可产生高度逼真且难以辨识的内容,对公众认知和判断造成严重干扰。
记者从一家权威机构处获悉,过去两年其开展了人脸识别安全评测情况统计。数据显示,多家机构产品首次送检突破概率高达71%,二次突破概率也有25%。
“历史经验表明,越是先进的东西,出现安全事故带来的损失和影响就越大。数字工厂出现网络安全事故,损失远远大于传统工厂。”全国政协委员、奇安信(688561.SH)董事长齐向东接受记者采访时表示。
在他看来,人工智能带来了三大挑战:一是AI投毒安全隐患加重,攻击者可以通过在训练数据中加入精心构造的异常数据,破坏训练数据集的准确性;二是数据篡改隐患加重,AI的大规模内容生产能力可能产生真假难辨的信息,控制社交软件乃至媒体的舆论声音,激化意识形态矛盾;三是数据泄露隐患加重,在向人工智能投喂数据的过程中,也会产生商业机密泄露问题,进而导致企业丧失核心竞争力。
上述挑战也引发学界关注。中国社会科学院大学数字中国研究院近期发布的《数字时代安全科技价值报告》(以下简称《价值报告》)将AI安全风险分为三类:第一类是人工智能系统内部所产生的“内生安全问题”,如“数据有毒”“价值对齐”“决策黑盒”等问题;第二类是“衍生安全问题”,比如生成假新闻、深度合成伪造进行诈骗或钓鱼攻击,涉及隐私保护、国家安全、伦理道德等与社会治理有关的挑战性问题;第三类是“外生安全问题”,即面向人工智能系统的外部网络攻击对抗。