暴风雪

唐纳山口 I-80 暴雪预警

联邦和省监管机构称 OpenAI 违反了加拿大隐私法

联邦和省监管机构称 OpenAI 违反了加拿大隐私法


隐私专员表示,OpenAI 抓取加拿大数据来开发和训练 ChatGPT 违反了规则。

加拿大四家隐私监管机构的专员发现 OpenAI 在开发和训练其最初的 ChatGPT 模型时违反了加拿大隐私法。

OpenAI 收集了“大量个人信息”,其中可能包括健康状况、政治观点或有关儿童的信息等详细信息。

在周三的新闻发布会上,加拿大隐私专员菲利普·杜弗雷纳 (Philippe Dufresne) 与不列颠哥伦比亚省、艾伯塔省和魁北克省的同行一起宣布了对这家科技巨头的联合调查结果。该调查研究了 OpenAI 如何获取其初始 GPT-3.5 和 GPT-4 模型的训练数据,包括从可公开访问的互联网来源(例如社交媒体和博客文章)、许可的第三方来源(例如媒体机构和库存图像供应商)以及用户与 ChatGPT 的交互中抓取的内容。

利用公开来源,例如 OpenAI 法律顾问的“广泛书面陈述”、对 OpenAI 员工的采访、隐私专员办公室 (OPC) 对 ChatGPT 的内部测试以及 OpenAI 和其他人工智能专家发表的研究报告,监管机构重点关注 OpenAI 在收集数据时是否遵循了联邦和省级隐私法原则,例如同意、透明度和数据准确性。

这项调查是在 2023 年接到指控 OpenAI 在未经同意的情况下收集、使用和披露个人信息的投诉后启动的,调查早在 OpenAI 因不列颠哥伦比亚省 Tumbler Ridge 发生致命大规模枪击事件而在加拿大受到审查之前就开始了。枪击案受害者家属将 OpenAI 告上法庭;该公司以“令人不安的内容”为由禁止了枪手的账户,但没有通知执法部门任何潜在的威胁。

Tumbler Ridge 枪击事件发生后,加拿大创新部长埃文·所罗门 (Evan Solomon) 与 OpenAI 首席执行官萨姆·奥尔特曼 (Sam Altman) 进行了交谈,并表示这位科技大亨对枪击事件表示“恐惧和责任”。谈话结束后,OpenAI 同意加强其“执法转介标准”,并在其安全办公室增加加拿大心理健康和法律专家,该公司在该办公室评估威胁并决定是否通知警方。

不同意使用个人数据

在周三的新闻发布会上,Dufresne 表示,所有四家监管机构均发现 OpenAI 违反了多项联邦和省级隐私法,包括联邦个人信息保护和电子文件法 (PIPEDA) 以及阿尔伯塔省、不列颠哥伦比亚省和魁北克省的相应省级法律。

PIPEDA 规范企业在商业活动过程中收集、使用或披露个人信息的方式。它遵循多项“公平信息原则”,其中包括获得数据收集的同意等条件。类似的省级法律,例如艾伯塔省和不列颠哥伦比亚省的《个人信息隐私法》(PIPA) 以及魁北克省的第 25 号法律,也规定了类似的要求。

监管机构在主要调查结果中得出结论,OpenAI 收集了“大量个人信息”用于训练数据。这些数据可能包括敏感信息和详细信息,例如健康状况、政治观点或有关儿童的信息。

它还发现,这家科技公司没有获得收集个人信息的有效同意(这是 PIPEDA 和其他加拿大隐私立法的关键问题),并且没有足够的透明度,许多用户不知道他们的数据被收集并用于训练 OpenAI 的聊天机器人。

相关:埃文·所罗门 (Evan Solomon) 将与山姆·奥尔特曼 (Sam Altman) 会面,因为 OpenAI 因 Tumblr Ridge 的回应而面临压力

调查概述称:“我们的调查显示,OpenAI 最初从可公开访问的网站和授权的第三方来源收集个人信息来训练模型的方式很普遍,因此是不适当的。” “考虑到从这些来源收集和使用的个人信息的规模、性质和不同的敏感程度,我们做出了这一决定。”

隐私监管机构还发现,OpenAI 没有为个人提供“易于访问、更正和删除其个人信息的有效机制”,并且它在发布 ChatGPT 时没有完全解决已知的隐私风险,也没有数据删除规则。

该报告及其调查结果的完整详细信息可以在此处找到。

OpenAI 致力于变革

Dufresne 表示,OpenAI 在整个调查过程中秉持诚信行事,并采取措施解决监管机构的担忧。因此,联邦隐私办公室认为调查“有条件得到解决”。魁北克省信息获取委员会宣布调查在几个问题上有条件地得到解决,但在同意问题上尚未解决。不列颠哥伦比亚省和阿尔伯塔省的调查结果将调查标记为根据省 PIPA 要求尚未解决。两个省级监管机构都注意到了 OpenAI 在提高合规性方面所做的努力。

OpenAI 已承诺采取一系列措施来解决监管机构的担忧,包括实施过滤工具来检测和隐藏可公开访问的数据集中的姓名和电话号码等个人信息、促进纠正、加强纠正和删除协议,以及实施管理个人信息的正式保留政策。

该公司还承诺遵守与监管机构报告发布相关的一些时间敏感条件。它们包括:

  • 三个月内,在 ChatGPT 的退出网页版中添加一条通知,告诉用户他们的聊天内容可能会被审查并用于训练模型,并建议他们不要共享敏感信息。
  • 六个月内,向请求个人信息的用户提供的数据导出将变得更容易理解和使用。公司还将更好地告知希望质疑所提供信息的完整性、准确性或性质的用户可以使用的方法。
  • 在六个月内,向隐私专员办公室确认,已对退役且仅用作历史参考的未来数据集实施了强有力的保护,因此它们不用于主动模型开发,并定期审查是否仍应保留这些数据集。
  • 在六个月内,测试对非公众人物的公众人物的年轻家庭成员的保护措施,以确保模特拒绝提供其姓名或出生日期的请求。

该公司还将向隐私专员办公室和省级合作伙伴提供季度报告,直到履行这些承诺。

目前尚不清楚这家科技公司需要做出哪些努力来解决艾伯塔省和不列颠哥伦比亚省的投诉。

BetaKit 联系了 OpenAI,请其对报告的调查结果发表评论,但截至发稿时,它尚未回复我们的请求。

加拿大的隐私法必须改变

虽然公告的大部分内容都集中在 OpenAI 上,但监管机构也强调,加拿大隐私法需要进行重大修改,以认识到快速变化的技术环境的现实。

加拿大隐私法已有 40 多年没有进行过有意义的更新;渥太华今年春天宣布启动审查 隐私法 目的是使其现代化。加拿大人也在等待该国人工智能战略的启动,该战略最初定于 2025 年底推出。

杜弗雷斯内说:“这项调查还强调了在数字时代对加拿大隐私法进行现代化改造的必要性。” “虽然现行法律适用于人工智能,但更新后的法律将有助于支持新技术的安全部署,同时保护加拿大人的基本隐私权。”

“公司正在使用的方法……永远不可能以符合同意要求的方式完成 [Alberta’s] 木桶。”

黛安·麦克劳德,
艾伯塔省隐私专员

委员们特别提到了人工智能和互联网在根据现行法律满足同意要求方面带来的挑战。不列颠哥伦比亚省隐私专员迈克尔·哈维表示,他已写信给不列颠哥伦比亚省民事服务部长,鼓励其法律现代化。

“我们陷入了僵局:一方面,人工智能应用程序具有潜在的变革性好处,但在某些情况下,例如我们面前的情况,这些应用程序的开发没有足够的隐私保护,”他说。 “另一方面,这些隐私法是为不同时代制定的,而且正处于边缘。公司和法律都必须改变。”

艾伯塔省专员黛安·麦克劳德(Dianne MacLeod)也表达了同样的观点,她表示需要立法来应对数字时代的现实。 “

“公司正在使用的方法——从可公开访问的网站上抓取数据——永远不可能以符合同意要求的方式完成 [Alberta’s] PIPA,”她说。“我的办公室长期以来一直主张修改 PIPA,以允许技术和创新,但仍提供隐私保护。

他说,“例如,在科技公司可以轻松访问互联网上大量个人信息的时代,基于同意的安全可能不再可能。必须探索其他选择。”在周三下午发布的一份声明中,所罗门回应了监管机构的评论,称该报告的调查结果强调了“在人工智能时代保护加拿大人个人信息的重要性”。他表示,加拿大隐私法的现代化“仍然是联邦政府的首要任务”。

BetaKit 的 Prairies 报告 YEGAF 部分资助致力于扩大艾伯塔省商业故事的非营利组织。

专题图片由 TechCrunch 提供。根据 Creative Commons Attribution 2.0 Generic (CC BY 2.0) 获得许可。



Leave a Reply

Your email address will not be published. Required fields are marked *