一段时间以来,“AI换脸”技术被滥用的新闻持续引发人们关注。AI换脸技术除了用于影视剧二次创作、趣味视频,甚至被不法分子用于电信诈骗、操控舆论。从娱乐“玩梗”到违法犯罪,背后是人工智能使用不当、深度伪造技术缪用带来的网络安全问题。
有图不一定有真相
“AI换脸”利用了人工智能的“深度伪造”技术,这种技术可以实时伪造面部表情,并生成看似真实的虚假图像和声音,具有很强的伪装性和误导性。
据报道,2019年印巴局势紧张期间,路透社发现了30起关于该事件的“深度伪造”视频,极大刺激了两国的民族主义者,导致事态进一步升级。随着俄乌冲突持续,网上出现大量使用了深度伪造技术的视频,其中就包括俄罗斯、乌克兰两国领导人宣布投降的“深度伪造”视频。
除了图像伪造,由AI驱动的机器人社交账户,还可以根据算法模仿人类的行为习惯,在社交媒体上发布大量评论、点赞和分享,以此影响和改变公众对某个话题的看法。2011年英国《卫报》曾披露,美国军方正在秘密研发一种新型软件,利用伪造的用户身份在网络上发表有利于美国的舆论宣传,“脸谱”和“推特”则是这款新软件“操纵”的主要目标。
人工智能时代,攻击一国人工智能系统或利用人工智能实施渗透、颠覆、破坏、分裂活动,带来的后果将比以往更为严重,也给国家主权、意识形态、社会关系等带来冲击,深度影响国家安全。
一键生成恶意代码
人工智能技术的蓬勃发展,为网络安全攻防带来的不仅有机遇,也有挑战,基于人工智能的攻防对抗不断发展演化,既能被用来改进和加强网络安全解决方案,帮助分析人员更高效地分类威胁和修复漏洞,也可以被黑客缪用,发动更大规模、更复杂的网络攻击。
2022年11月,ChatGPT刚一上线即爆火全球,然而,大量使用 ChatGPT 生成恶意代码的教程和相关恶意软件也随即出现在暗网论坛中。有网络安全公司测试发现,通过生成式AI技术,仅花费 4 小时就生成一款具备文件窃取及隐写传输功能的恶意软件,并能够逃避近 70 款检查引擎的查杀。
人工智能还能够基于社会工程学知识生成网络钓鱼等信息。攻击者可以使用来自社交媒体或其他来源的大量文本数据,通过人工智能工具训练社工模型,生成极具说服力的网络欺诈邮件或消息,以此来诱骗受害者泄露敏感信息。
人工智能的快速发展使得网络安全的风险点和攻击方式出现新变化,进而引发更深层次的网络安全风险,全球网络空间也将面临前所未有的严峻攻击态势。
美西方打起了“歪心思”
人工智能作为当前最尖端最前沿的技术之一,如何确保其安全性已成为国际社会关注焦点。
如今,全球多个国家的政府正在考虑如何减轻生成式人工智能这项新兴技术的危险。然而,美国等个别国家却将人工智能视为维护霸权和军事优势的工具,加速推进人工智能军事应用,挑起新的军事竞争。
尽管美国政府一直警告“深度伪造”所带来的风险,但美国美国国防部早在2018年的《人工智能战略》中就提出,美国及其盟友和伙伴国家,必须采用人工智能来维持其战略地位,确立未来战场的优势。
2023年,当美国中央情报局宣布将生成式人工智能技术用于情报工作的那一刻,也近乎把利用人工智能技术对付其他国家的歪心思摆上了台面。
美国一方面将人工智能视为维护霸权和军事优势的工具,另一方面,不断拉拢盟友搭建歧视性小圈子,大搞封闭排他、冲突对抗,企图拼凑所谓“科技民主国家集团”,人为设置科技壁垒阻挠别国发展。这种霸权主义、唯我独尊行径,只会把人工智能技术发展引向邪路。