专家分析大模型“超能力”背后的隐忧与应对
网络安全面临新挑战
○本报讯 记者 梁驱远 昨日举行的2025年河源市网络安全宣传周活动现场,市网络安全技术支撑单位的相关技术专家林佳开展了以“大模型与网络安全”为题的主题演讲,剖析这项前沿人工智能技术的安全隐患,为与会人员敲响“技术是双刃剑”的警钟。
“大模型是基于深度学习技术的人工智能模型,具有海量参数、强大的学习能力和泛化能力,能够处理和生成多种类型数据。”林佳简单解释了大模型的定义,表示当前大模型技术已渗透至社会生产生活的方方面面,从辅助文案创作到生成高清视频,其“造真”能力令人惊叹。
然而,这项以“造真”为核心的技术突破,在拓展应用边界的同时,也撕开了网络安全的新缺口。通过对数个现实案例的分析,林佳指出,当前大模型的“超能力”正在降低网络攻击的门槛,如今不法分子只需简单提问,AI就能生成钓鱼邮件、勒索病毒甚至诈骗话术脚本。更值得警惕的是,大模型生成的音频、图像等“合成内容”已能突破传统的眼见为实“真假”边界,模糊人们对虚拟与现实的认知。此外,大模型在训练和运行时可能“记住”用户输入的敏感信息,一旦数据清洗不彻底,机密内容可能被批量泄露。
面对这些风险,林佳认为,必须从源头筑牢防线。市民在使用AI工具时,要避免输入身份证号、银行账户等敏感信息,并对生成内容保持警惕,“就像对待陌生人发来的消息一样,对AI生成的信息也要多留个心眼。”遇到可疑内容可通过交叉验证、逻辑判断等方式辨别真伪,例如真实图像光线自然,AI图像常现光线矛盾;真实语音波形自然带呼吸,AI语音机械平直、尾音常“戛然而止”等。同时,使用者还可要求大模型提供原始出处,通过权威来源等方式交叉验证信息真伪。
谈及未来,林佳认为大模型的威胁可能进一步升级,向“物理世界渗透”“生物安全威胁”“自主进化失控”等方向演化,如自动驾驶汽车因AI误判引发连环事故,犯罪分子利用AI合成的生物数据制造新型病毒等。面对技术失控的隐忧,林佳认为可通过制定大模型与物理设备交互的安全标准,立法明确大模型进化合规边界等举措,守牢大模型时代数字空间的安全底线。
下一篇:没有了