数据保护与人工智能
本页可能会有更改和更新-在寻求建议时请重新访问本页,不要在本地复制,否则可能会过时。
人工智能与数据保护
当涉及到寻找使用这些工具的新方法时,使用人工智能(AI)可能会给大学带来好处。我们应该经常问“我们用它做什么?”,“它能很好地完成任务吗?”和“它解决了什么问题?”
大学还必须确保遵守数据保护法规定的法律义务。
对人工智能使用的限制
目前,由于不符合这些法律的风险,任何被归类为限制或高度限制的信息都不得提交给生成AI工具(如ChatGPT)。关于哪些信息属于这些分类的详细信息可以在大学分类政策中找到。
这包括我们的员工、学生、访客、NBA投注[手机]俱乐部研究参与者和其他人的个人数据。
这也包括敏感的非个人信息,其中包括商业敏感数据。
当涉及到个人数据时,人工智能的风险是什么?
数据保护法律要求所有组织遵守一系列原则。下面总结了与人工智能最相关的用途,以及所提出的问题。
个人资料必须:
- 以合法、公平和透明的方式处理
必须让人们知道他们的数据是如何被使用的,用于什么目的,以及向谁披露。要知道或沟通人工智能工具将如何处理个人数据以及谁可以访问这些数据可能很困难(在某些情况下可能是不可能的)。在向这些工具的提供商提交个人数据时,可能会向第三方披露信息,即使提供商通知将在查询后删除该信息。数据保护法还包含个人的权利,包括知道谁在控制他们的数据的权利、访问数据的权利,以及在某些情况下寻求删除和反对使用数据的权利。在人工智能工具中处理个人数据的情况下,这些权利可能很难行使,特别是如果一个人无法知道他们的个人数据在哪里或如何被使用。当个人由于在人工智能工具中使用他们的数据而受到偏见或不公平的结果,以及他们缺乏挑战这些权利的能力或行使这些权利的方式时,这一点尤其值得关注。
- 为特定、明确和合法的目的而收集,不得用于不相容的目的。
那些信任大学的人希望大学将他们的个人资料用于提供或收集的目的,在许多情况下,除非适用有限的豁免,否则我们必须限制使用这些目的。人工智能工具的使用可能涉及不同的目的,在许多情况下,这些信息将被工具用于进一步训练人工智能,这可能不需要用户的知识或同意。除了我们的使用之外,它可能被用于什么进一步的目的可能不知道,甚至是工具的用户。
- 准确并保持最新。
当涉及到数据的准确性时,人工智能会带来相当大的问题。当这对有关个人的信息不准确构成风险时,可能不符合这一原则。人工智能也可能存在机器学习偏见的风险,这可能对个人产生有害影响。当使用人工智能产生的信息可用于做出有关个人的决策或在准确性很重要的情况下为他们提供建议时,这一点尤其值得关注。
问责制也是数据保护法的一项关键要求。人工智能的使用应该由高级负责任的所有者负责,他们将负责确保人工智能使用的安全性和治理。
法律中存在对某些原则的有限和有条件的豁免,例如与公共利益相关的NBA投注[手机]俱乐部研究。
如何应对这些风险?如果我想使用人工智能怎么办?
必须考虑以下因素:
- 人工智能的使用是否有明确的目的?你需要使用它吗?你对它的期望是什么?没有它,这些目标还能实现吗?
- 你是否知道使用敏感及个人资料的限制?你如何确保满足这些要求?
- 你将如何处理不准确的风险?输出的准确性很重要吗?不准确的数据会产生什么影响?
- 人工智能的产出是否会对个人产生有害影响?你们将如何监测、预防和解决这一问题?
- 你如何对意想不到的结果保持警惕?
- 是否有道德上的考虑?您希望使用的人工智能工具是否经过了道德来源或符合数据保护法的数据训练,这很重要吗?
- 你如何确保自己对固有偏见保持警惕?你将如何识别和解决它?
- 你怎么知道你输入的数据最终会在哪里?会传染给别人吗?这有关系吗?
我还需要知道什么,我应该采取什么行动?
如果您正在考虑使用人工智能处理个人和敏感数据,您必须事先征求IMPS或DTS的建议。
大学承担的人工智能项目必须有一个负责任的高级负责人。
您可能需要进行数据保护影响评估。这些都需要时间,所以要确保你把这些因素考虑到你需要的时间和资源中。
不合规的风险可以提交给高级风险负责人,他必须被识别并对数据和这些风险负责。
如果使用生成式人工智能帐户用于个人用途,而不是连接到您在大学的角色,请勿使用您的大学电子邮件作为您的用户名。
如果使用生成式AI帐户连接到您的角色的工作,不要使用您的大学密码。选择强且唯一的密码。
在可用的情况下,使用工具中的设置来禁用或选择退出用于训练或机器学习的输入数据。这有时会被描述为“帮助我们为别人做得更好”或类似的。理解它是如何工作的。阅读用户指南。
关于生成式人工智能工具使用的大学培训不应被视为授权将这些工具用于任何受限制的数据。
请注意,其中一些工具具有限制其用途的条款和条件。在许多情况下,这些条款还要求您获得大学的授权来接受这些条款(将组织与法律合同绑定)。仔细阅读条款和细则,以便充分理解您同意的内容。
如果大学提供企业或组织许可的人工智能工具,预计这些工具将被使用,而不是个人账户。
我可以去哪里寻求建议?
有关个人资料及人工智能的问题,可联络imps@reading.ac.uk或致电0118 378 8981查询。
可通过dts@reading.ac.uk或0118 378 6262与DTS联系。
更多信息可从CQSD获得。
额外的资源
英国个人数据保护监管机构(ICO)提供了可用的指导。
更多关于数据保护影响评估的信息,请访问::设计数据保护
政府为公务员编制了指引,可能也会有所帮助。
虽然英国目前没有具体的人工智能法律(或明确的计划),但欧盟内部有立法计划。虽然英国不再是欧盟成员国,但通过的任何欧盟法案的领土范围可能包括涉及欧盟居民数据的英国。查看有关欧盟人工智能法案进展的更多信息。