如果向人工智能系统询问如何制造炸弹,会得到怎样的答案?可能会失望地发现,大多数人工智能系统并不会给你提供任何有用的信息。这背后究竟隐藏着什么秘密呢? 其实,原因在于人工智能公司已经采取了一系列严格的保护措施,以确保他们的模型不会输出任何有害或危险的信息。这样的举措,无疑为人工智能的安全使用筑起了一道坚实的屏障。 然而,对于那些企图利用人工智能技术从事非法活动的网络犯罪分子来说,情况却并不那么乐观。他们发现,在没有这些保护措施的情况下,自行构建人工智能模型既昂贵又耗时,而且技术难度也相当大。于是,他们开始寻找新的途径来满足自己的需求。这时,一种名为“越狱即服务”的新趋势应运而生。这种服务为那些想要绕过人工智能安全限制的网络犯罪分子提供了便利,使得他们能够轻松地获取到所需的信息。这无疑给人工智能的安全使用带来了新的挑战。 大多数模型都有关于如何使用它们的规则。越狱允许用户操纵 AI 系统生成违反这些策略的输出,例如,为勒索软件编写代码或生成可用于诈骗电子邮件的文本。EscapeGPT 和 BlackhatGPT 等服务提供对语言模型 API 和频繁更新的越狱提示的匿名访问。为了反击这个不断发展的家庭手工业,OpenAI和谷歌等人工智能公司经常不得不堵住可能允许其模型被滥用的安全漏洞。越狱服务使用不同的技巧来突破安全机制,例如提出假设性问题或用外语提问。人工智能公司试图防止其模型行为不端,而恶意行为者则提出了更具创造性的越狱提示,这两者之间一直存在着猫捉老鼠的游戏。
人肉搜索和监视
AI 语言模型不仅是网络钓鱼的完美工具,也是人肉搜索(在线泄露某人的私人身份信息)的完美工具。这是因为人工智能语言模型是在大量互联网数据(包括个人数据)上训练的,并且可以推断出某人可能位于何处。作为其工作原理的一个例子,可以要求聊天机器人假装是有剖析经验的私家侦探。然后,可以让它分析受害者写的文本,并从文本中的小线索中推断个人信息——例如,根据他们上高中的时间推断他们的年龄,或者根据他们在通勤途中提到的地标来推断他们的居住地。互联网上关于他们的信息越多,他们就越容易被识别。 一个研究小组去年年底发现,GPT-4、Llama 2 和 Claude 等大型语言模型能够推断出敏感信息,例如人们的种族、位置和职业,纯粹来自与聊天机器人的日常对话。从理论上讲,任何有权访问这些模型的人都可以以这种方式使用它们。自从他们的论文发表以来,已经出现了利用语言模型这一特性的新服务。
评论