**划重点:**
1. 英国网络安全中心(NCSC)警告人工智能技术,特别是生成式人工智能工具,将使网络钓鱼攻击更加难以辨别。
2. NCSC表示,生成式人工智能和大型语言模型将增加网络攻击的数量,并加剧其影响,尤其是社交工程和欺骗性信息的识别变得更加复杂。
3. 报告指出,黑客利用人工智能技术制作更真实的虚假文件,而勒索软件攻击预计也将上升,加剧了对公民和机构的威胁。
站长之家(ChinaZ.com) 1月24日 消息:英国网络安全中心(NCSC)近日发布的报告警告称,人工智能技术将使网络钓鱼攻击变得更加难以识别,尤其是那些要求用户重置密码的欺骗性信息。NCSC表示,由于人工智能工具的复杂性,人们将很难辨别这些欺骗性信息,使得网络攻击的威胁水平在未来两年内“几乎肯定”会上升。
生成式人工智能(Generative AI)是一种能够从简单手工输入的提示中产生令人信服的文本、语音和图像的技术,通过像ChatGPT这样的聊天机器人以及开源模型的免费使用,已经广泛面向公众。NCSC指出,这种技术将使网络攻击更加复杂,尤其是欺骗性信息和社交工程攻击的辨识变得更加困难。
图源备注:图片由AI生成,图片授权服务商Midjourney
报告中强调到2025年,生成式人工智能和大型语言模型将使每个人,无论其网络安全理解水平如何,都难以评估电子邮件或密码重置请求是否真实,以及辨别网络钓鱼、欺骗或社交工程的企图。
此外,NCSC还预测勒索软件攻击将增加,其中包括一些已经针对英国图书馆和皇家邮政等机构的攻击。该机构警告称,人工智能技术的复杂性“降低了”业余网络犯罪分子和黑客访问系统并收集目标信息的难度,使他们能够瘫痪受害者的计算机系统,提取敏感数据并要求加密货币赎金。
报告还指出,生成式人工智能工具已经通过创建虚假的“诱饵文件”帮助黑客接触潜在受害者,这些文件不包含传统网络钓鱼攻击中常见的翻译、拼写或语法错误,因为它们的内容由聊天机器人精心制作或修正。
尽管生成式人工智能被认为是一种有效的编码工具,但报告指出,它并不会提高勒索软件代码的有效性,而是有助于对目标进行筛选和识别。
最后,NCSC强调了人工智能技术作为一种防御工具的潜力,该技术能够检测攻击并设计更安全的系统。此次报告发布的同时,英国政府制定了新的指导方针,鼓励企业更好地准备应对勒索软件攻击,即“网络治理实践守则”,旨在将信息安全置于与财务和法律管理相同的层次。
尽管如此,网络安全专家呼吁采取更强有力的行动。前NCSC主管Ciaran Martin表示,除非公共和私人机构从根本上改变对勒索软件威胁的应对方式,否则在未来五年内可能发生类似英国图书馆袭击那样严重的事件。Martin在一份新闻简报中写道,英国需要重新评估其对勒索软件的应对方式,包括制定更严格的有关赎金支付的规定,并放弃对位于敌对国家的罪犯进行“反击”的“幻想”。