OpenAI 因隐私问题纠纷不断 欧洲多地或对ChatGPT开启调查

2023-04-06 09:43:00 来源:黑科技

近日,OpenAI 因为用户隐私问题一直纠纷不断。在3月31日,意大利数据监管机构发布了一项临时紧急决定,要求OpenAI停止使用其训练数据中包含的数百万意大利人的个人信息。根据监管机构Garante per la Protezione dei Dati Personali的说法,OpenAI没有合法利在ChatGPT中使用人们的个人信息。作为回应,OpenAI已阻止意大利人访问其聊天机器人,同时它向正在进一步调查的官员提供答复。

当OpenAI发布时2020 年 7 月的 GPT-3,它提供了用于训练大型语言模型的数据的一瞥。根据一篇技术论文,从网络、Reddit 帖子、书籍等中收集的数百万页被用于创建生成文本系统。在此数据中收集的是您在网上分享的一些关于您自己的个人信息。这些数据现在让 OpenAI 陷入困境。

这是西方监管机构首次针对 ChatGPT 采取的行动,凸显了围绕创建巨大的生成式 AI 模型的隐私问题,这些模型通常在大量互联网数据上进行训练。而意大利提出的问题,也可能使整个欧洲都可能做出类似的决定。在意大利宣布调查后的几天里,法国、德国和爱尔兰的数据监管机构已联系 Garante,要求提供有关其调查结果的更多信息。

“如果商业模式只是在互联网上搜索你能找到的任何东西,那么这里可能会出现一个非常重要的问题,”挪威数据保护机构国际负责人 Tobias Judin 说,该机构正在监测事态发展。Judin 补充说,如果一个模型是建立在可能被非法收集的数据之上的,那么就会引发关于是否任何人都可以合法使用这些工具的问题。

欧洲的GDPR 规则涵盖了组织收集、存储和使用人们个人数据的方式,保护了4 亿多人的数据。这些个人数据可以是从人名到 IP 地址的任何内容——如果它可以用来识别某人,就可以算作他们的个人信息。与美国州级隐私规则的拼凑不同,GDPR 的保护适用于人们的信息可在网上免费获得的情况。

意大利的 Garante 认为 ChatGPT 在 GDPR 下存在四个问题:OpenAI 没有年龄控制来阻止 13 岁以下的人使用文本生成系统;它可以提供有关人员的不准确信息;人们还没有被告知他们的数据已被收集。也许最重要的是,它的第四个论点声称,在用于训练 ChatGPT 的海量数据中收集人们的个人信息“没有法律依据”。

OpenAI 的隐私政策没有直接提及其在训练数据中使用人们的个人信息的法律原因,但表示它在“开发”其服务时依赖于“合法利益”。该公司没有回应《连线》杂志的置评请求。与 GPT-3 不同,OpenAI 没有公布任何进入 ChatGPT 的训练数据的细节,而GPT-4被认为要大几倍。

然而,GPT-4 的技术文件包括一个关于隐私的部分,其中说它的训练数据可能包括来自多个来源的“公开可用的个人信息”。该论文称,OpenAI 采取措施保护人们的隐私,包括“微调”模型以阻止人们询问个人信息,以及“在可行的情况下”从训练数据中删除人们的信息。

“如何合法地收集数据用于训练数据集,用于从常规算法到一些非常复杂的人工智能的一切,这是一个现在需要解决的关键问题,因为我们正处于这种技术采用的临界点结束了,”Loeb and Loeb 律师事务所的合伙人杰西卡·李 (Jessica Lee) 说。

牛津大学人工智能伦理研究所高级研究员、数据实践作者Elizabeth Renieris 表示:“这项技术的构建模块的基础已经腐烂,我认为这将很难治愈。”她指出,许多用于训练机器学习系统的数据集已经存在多年,而且在将它们放在一起时可能很少考虑隐私问题。

“数据最终如何进入 GPT-4 之类的东西,存在这种分层和复杂的供应链,”Renieris 说。“从来没有真正设计或默认的任何类型的数据保护。”2022 年,一个广泛使用的图像数据库的创建者建议对数据集中的人脸图像进行模糊处理,该数据库已帮助训练 AI 模型达十年之久。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。