研究人员已经找到了一种方法,可以从 ChatGPT 等 GPT 的记忆中提取超过一百万条信息。使用相当简单的提示,他们已经证明,从ChatGPT和其他类似的大型语言模型等人工智能系统中获取这些数据并不难。
这个消息让用户感到担忧,因为这意味着不怀好意的人可以做同样的事情来获取私人信息。观看下面的演示视频,了解研究人员如何对 AI 模型进行攻击,迫使其披露包括个人详细信息在内的训练数据。如果人工智能系统泄露数据,它可能会意外地共享用于教授它的个人物品。这让我们怀疑制造这些人工智能系统的公司是否做得足够好,以确保我们的信息安全并尊重我们的隐私。
人工智能的版权问题
这些风险超出了个人隐私问题。提取的数据可能包含受版权保护的材料,这可能会给人工智能开发人员带来重大的法律挑战。如果发现人工智能系统正在利用和传播此类受版权保护的内容,负责这些系统的实体可能会面临法律后果,包括诉讼。
ChatGPT被黑了
AI 对齐并不完美
AI 对齐就是要制造对我们安全有益的 AI 系统。但研究表明,这些方法并不能阻止人工智能系统记住并可能泄露敏感信息。这是一个大问题。这意味着我们现在的安全措施还不够强大,无法保护我们的信息隐私。
AI 数据保留困境
人工智能系统可以记住并可能共享它们被训练的数据。这是一个棘手的情况。一方面,记住大量数据可以使人工智能系统更好地完成工作。但另一方面,它可能会导致私人信息泄露。我们需要在使人工智能系统运行良好和保持数据安全之间找到一个谨慎的平衡点。
发现这个问题的研究人员告诉了 ChatGPT 背后的公司 OpenAI,然后他们告诉了其他人。这种诚实真的很重要。它有助于确保每个人都可以共同努力解决 AI 的安全问题。但是,仍然可以使用类似的提示从 ChatGPT 获取训练数据。
对人工智能安全性和透明度的需求
这里更大的图景是保持人工智能系统的安全,并确保公司对他们如何使用和保护我们的数据持开放态度。作为使用这些系统的人,您应该知道您的信息是如何被处理的。人工智能公司需要清楚他们的安全步骤以及人工智能系统带来的风险。
人工智能系统泄露它们所训练的数据的可能性是一个真正的问题。它可能会影响您的隐私和内容创建者的权利。人工智能公司需要认真对待这一点,使他们的人工智能系统更安全,以防止任何信息泄露。作为用户,请务必随时了解您的数据如何受到保护以及您所依赖的公司的开放程度。人工智能具有很大的潜力,但它的成功取决于信任和强大的安全性。
未经允许不得转载:表盘吧 » ChatGPT 被黑客入侵以显示个人详细信息和训练数据