安全、自由和隐私
安全、自由和隐私

安全、自由和隐私

对我们以及整个社会而言,保护使用人工智能过程中的隐私权至关重要。人们与人工智能谈论的话题越来越私密;它不同于前几代技术,我们相信它们可能是您拥有过的最敏感的个人账户之一。如果您与医生谈论您的病史,或与律师谈论法律情况,我们认为,为了社会的最大利益,这些信息应享有特权并提供更高级别的保护。我们认为,与人工智能的对话也需要同样的保护,因为人们越来越多地通过人工智能来解答敏感问题和私人问题。我们正在向政策制定者倡导这一点。

我们正在开发高级安全功能,以确保您的数据隐私,即使 OpenAI 员工也无法获取。与其他类别的权限一样,也存在某些例外情况:例如,自动化系统将监控潜在的严重滥用行为,而最关键的风险——威胁他人生命、计划伤害他人或造成社会危害(例如潜在的大规模网络安全事件)——可能会升级为人工审查。

第二个原则是关于自由的。我们希望用户能够在非常广泛的安全范围内,以他们想要的方式使用我们的工具。随着模型的可控性不断提升,我们一直在努力提升用户的自由度。例如,我们模型的默认行为不会导致过多的调情对话,但如果成年用户提出要求,他们就应该得到满足。举一个更难的例子,模型默认不应该提供自杀的指导,但如果成年用户寻求帮助,创作一个描述自杀的虚构故事,模型应该提供帮助。“像对待成年人一样对待我们的成年用户”是我们内部对此的阐述,在不造成伤害或损害他人自由的情况下,尽可能地扩展用户的自由。

第三个原则是关于保护青少年。我们优先考虑青少年的安全,而不是隐私和自由;这是一项新兴且强大的技术,我们认为未成年人需要得到充分的保护。

首先,我们必须区分 18 岁以下和 18 岁以上的用户(ChatGPT 面向 13 岁及以上人群)。我们正在构建一个年龄预测系统,根据用户使用 ChatGPT 的方式估算年龄。如有疑问,我们会谨慎行事,默认使用 18 岁以下用户体验。在某些情况下或某些国家/地区,我们可能还会要求提供身份证件;我们知道这会对成年人的隐私造成损害,但我们认为这是值得的。

我们将对使用我们服务的青少年实施不同的规则。例如,ChatGPT 将接受培训,在被要求时不会进行上述调情谈话,即使在创意写作环境中也不会参与有关自杀或自残的讨论。此外,如果 18 岁以下的用户有自杀意念,我们将尝试联系用户的父母,如果联系不上,我们将在即将发生伤害时联系相关部门。今天,我们分享了更多关于如何构建年龄预测系统和新的家长控制功能以实现所有这些功能的信息。

我们意识到这些原则存在冲突,而且并非所有人都会认同我们解决冲突的方式。这些决定很艰难,但在与专家沟通后,我们认为这是最佳方案,并且希望我们的意图透明化。

OpenAI 推出ChatGPT Edu团购版价格更划算

X