根据卡巴斯基数字足迹情报服务在2023年的调查结果,安全研究人员观察到,有关非法使用ChatGPT和其他大型语言模型(LLM)的暗网讨论显着激增。
已识别出近3000个暗网帖子,重点关注一系列网络威胁,从创建恶意聊天机器人版本到探索XXXGPT和FraudGPT等替代项目。
虽然讨论高峰出现在去年3月,但持续不断的讨论表明,人们对利用人工智能技术从事非法活动的兴趣一直不减。
根据卡巴斯基与Infosecurity分享的数据,网络犯罪分子正在积极探索各种实施ChatGPT和人工智能的各种方案,包括恶意软件开发和非法使用语言模型。
“威胁行为者正在积极探索实施ChatGPT和人工智能的各种方案。主题通常包括恶意软件的开发和非法使用语言模型的其他类型,例如处理被盗用户数据、解析受感染设备的文件等。”卡巴斯基数字足迹分析师Alisa Kulishenko解释道。
这位安全专家补充说,人工智能工具的盛行还导致一些网络犯罪论坛中出现了来自ChatGPT或类似工具的自动回复。
库利申科说道:“此外,威胁行为者倾向于通过各种暗网渠道分享越狱信息——可以解锁附加功能的特殊提示集——并设计出利用合法工具的方法,例如基于恶意目的模型的渗透测试工具。”
卡巴斯基揭露的另一个令人担忧的方面是被盗ChatGPT帐户的市场,暗网上还有3000个帖子在宣传出售这些账户。这个市场对用户和公司构成了巨大威胁,帖子要么散布被盗账户,要么宣传根据要求大量创建账户的自动注册服务。
针对这些发现,卡巴斯基建议实施可靠的端点安全解决方案和专用服务,以对抗引人注目的攻击并最大程度地减少潜在后果。