据小易智创xiaoyizc.com(不可错过的AI创业项目)观察:近期,北卡罗来纳州立大学的研究者们提出了一种令人震惊的新技术,竟然可以通过捕获计算机发出的电磁信号,以高达99%的准确率提取人工智能(AI)模型。这一发现对商业AI的发展构成了严峻挑战,尤其是在OpenAI、Anthropic和谷歌等巨头已经投入巨资于专有模型的背景下。专家们对此表示,虽然技术的潜力巨大,但其在现实世界的影响及防御措施仍旧模糊不清。CUDO Compute的首席营销官拉斯·奈曼指出,AI盗窃的后果远不止于模型本身的损失,它可能引发连锁反应,如竞争对手利用企业多年积累的研发成果,甚至引发监管机构对知识产权管理的调查,而客户可能因发现自家AI并不独特而提起诉讼。这些情况都可能催生行业内推动标准化审计,以便区分负责与不负责任的企业。
近年来,针对AI模型的黑客攻击威胁日益严重。商业界对AI的依赖使得这一问题愈加突出。最近的报告显示,数千个恶意文件被上传至Hugging Face,这一关键AI工具存储库,给零售、物流和金融等行业的模型带来了严重风险。国家安全专家警告称,薄弱的安全措施将导致专有系统面临盗窃风险,正如OpenAI所经历的安全漏洞所示。被盗的AI模型可能被逆向工程或出售,严重削弱企业的投资并破坏信任,让竞争对手迅速赶超。
研究团队通过在谷歌边缘张量处理单元(TPU)附近放置探头,成功捕捉信号,从而揭示模型结构的关键信息。这种攻击手段不需要直接访问系统,使得AI知识产权面临前所未有的安全威胁。电子与计算机工程副教授艾丁·艾苏强调,构建一个AI模型不仅成本高昂,还需要巨大的计算资源,因此保护模型免受盗窃至关重要。随着AI技术日益普及,企业亟需重新审视用于AI处理的设备。技术顾问苏里尔·阿雷拉诺认为,企业可能会转向更集中且安全的计算方式,或考虑其他不易被盗的替代方案。尽管面临盗窃风险,但AI也在通过自动化威胁检测和数据分析提升网络安全响应能力,帮助识别潜在威胁并学习应对新攻击。
总之,这一发现不仅让我们看到了技术的潜力,也揭示了其所带来的安全隐患。