暗网社区中充斥着破解ChatGPT的论坛

无论是用代码还是用命令,黑客们都能够规避生成式人工智能聊天机器人的道德和安全约束,随心所欲地利用它们。
暗网社区中充斥着破解ChatGPT的论坛

人们一直担忧生成式人工智能工具如ChatGPT会被武器化,而这种情况也正在缓慢地形成。在网上社区里,有些好奇心强的人在协作寻找破解ChatGPT道德规则的新途径,这被叫做“越狱”,同时黑客们也在制作一些新工具,利用或制造大型语言模型(LLM)来达成恶意目标。

ChatGPT不仅在地面上引起了轰动,在地下论坛里也掀起了一股热潮。从十二月开始,黑客们就一直在寻找能够操控ChatGPT的新颖和创造性的提问方式,以及能够为恶意用途改造的开源LLM。

据SlashNext的一篇新文章介绍,这导致了一个尚未成熟但却充满活力的LLM黑客社区,他们有很多巧妙的提问方式,但是却缺乏真正值得一看的人工智能驱动的恶意软件。

黑客们如何利用人工智能大型语言模型

人们一直担忧生成式人工智能工具如ChatGPT会被武器化,而这种情况也正在缓慢地形成。在网上社区里,有些好奇心强的人在协作寻找破解ChatGPT道德规则的新途径,这被叫做“越狱”,同时黑客们也在制作一些新工具,利用或制造大型语言模型(LLM)来达成恶意目标。

由于这是一件很无聊的事情,而且大家都在针对同一个目标,所以自然而然地就有了一些规模不错的网络社区,他们在那里交流经验和技巧。这些越狱社区的成员互相合作,互相支持,帮助对方让ChatGPT垮掉,并做开发者原本想阻止它做的事情。

暗网社区中充斥着破解ChatGPT的论坛
来源:SlashNext”。

提问工程师只能靠巧妙的措辞来控制聊天机器人,如果聊天机器人有着像ChatGPT那样的强大的抵抗能力的话。所以,更让人忧虑的趋势是,恶意软件开发者开始为自己的恶意目标而制作LLM。

WormGPT和恶意LLMs的潜在威胁

一种名为WormGPT的产品在七月出现,开启了恶意LLM的潮流。它是一种针对像BEC、恶意软件和网络钓鱼攻击等恶意行为而设计的黑帽替代方案,它在地下论坛上宣传,“像ChatGPT一样,但没有任何道德或限制。”WormGPT的制作者声称,他是基于一个自定义的语言模型建立的,用各种数据源来训练,特别是与网络攻击有关的数据。
“这对黑客来说意味着什么,”Harr解释道,“是我现在可以用,比方说,一个商业电子邮件妥协(BEC),或者一个网络钓鱼攻击,或者一个恶意软件攻击,以极低的成本来做这件事。而且我可以比以前更精准地攻击。”

从WormGPT开始,一些相似的产品在暗网社区中传播,包括FraudGPT,它被一个自称是在各种地下暗网市场(包括Empire、WHM、Torrez、World、AlphaBay和Versus)的认证卖家的恶意行为者推广为“没有任何限制、规则和边界”的机器人。八月还出现了基于Google Bard的DarkBART和DarkBERT网络犯罪聊天机器人,当时的研究人员表示,它们是对抗性人工智能的一个巨大飞跃,包括Google Lens对图片的集成和对整个网络地下知识库的即时访问。

据SlashNext称,这些产品现在正在迅速增长,其中大多数都是基于开源模型,比如OpenAI的OpenGPT。一群技术不高的黑客只是简单地修改它,用一个外壳来掩盖它,然后给它起一个模糊不清的“___GPT”名字(比如“BadGPT”、“DarkGPT”)。即使是这些山寨品,在社区中也有一席之地,它们给用户提供了很少的限制和完全的匿名性。

应对下一代人工智能网络攻击武器

SlashNext表示,WormGPT以及它的后代和提示制造者现在还不是企业的重大威胁。但是,随着地下破解市场的发展,黑客们可以获取更多的工具,这也意味着社会工程学的形势正在发生变化,我们也需要相应地加强防御。

Harr提出了一个建议:“不要只靠培训,因为这些攻击非常特定,非常有目的性,比以前更难防范。”

他还同意了一个普遍的观点,那就是AI威胁要用AI手段来对付。“如果你没有用AI工具来发现、预防和拦截这些威胁,你就会落后于时代。”

推荐阅读:

Dymocks在暗网数据泄露后披露了安全漏洞

币安:最后一个按下“比特币按钮”的人将赢得1 BTC的代币券!

  • 点赞
  • 打赏
请选择打赏方式
  • ERC-20
  • TRC-20