当前位置: 网站首页 > 手机 > 详情

2021在意大利还能回来吗(意大利恢复旅游)

2024-04-17 00:13:32 手机 0

5 月7 日消息,过去一周,OpenAI 成功安抚意大利监管机构,促使其解除了对聊天机器人ChatGPT 的临时禁令,但这家人工智能研究公司与欧洲监管机构之间的战斗尚未结束。更多的挑战才刚刚开始。

今年早些时候,OpenAI 广受欢迎但颇具争议的聊天机器人ChatGPT 在意大利遇到了重大法律障碍,意大利数据保护局(GPDP) 指控OpenAI 违反了欧盟数据保护规则。为了解决这个问题,该公司同意限制在意大利使用该服务。

2021在意大利还能回来吗(意大利恢复旅游)

ChatGPT 于4 月28 日在意大利重新上线,OpenAI 轻松解决了意大利数据保护局的担忧,而无需对其服务进行重大更改。这对OpenAI 来说是一场明显的胜利。

虽然意大利数据保护局“欢迎”ChatGPT 做出的改变,但OpenAI 和其他开发聊天机器人的公司面临的法律挑战可能才刚刚开始。多个国家的监管机构正在调查这些人工智能工具收集数据和生成信息的方式,理由包括收集未经批准的培训数据以及聊天机器人发出错误消息的倾向等。

欧盟已开始执行《通用数据保护条例》 (GDPR),这是世界上最强大的隐私法律框架之一,其影响可能远远超出欧洲范围。与此同时,欧盟立法者正在制定一项专门针对人工智能的法律,这也可能开创ChatGPT等系统监管的新时代。

ChatGPT 成为多方关注目标

ChatGPT 是生成人工智能(AIGC) 中最流行的应用程序之一,涵盖了根据用户提示生成文本、图像、视频和音频的各种工具。据报道,ChatGPT 在2022 年11 月推出后仅两个月就达到了1 亿月活跃用户,使其成为历史上增长最快的消费者应用程序之一。

借助ChatGPT,人们可以将文本翻译成不同的语言、撰写大学论文,甚至生成代码。但包括监管机构在内的一些批评者指出ChatGPT 输出的信息不可靠、版权问题以及数据保护方面的缺陷。

意大利是第一个对ChatGPT采取行动的国家。 3 月31 日,意大利数据保护局指控OpenAI 违反第《通用数据保护条例》 条:允许ChatGPT 提供不准确或误导性信息、未能告知用户数据收集做法、未能遵守个人数据处理法规以及未能以充分保护13岁以下儿童使用该服务。意大利数据保护局命令OpenAI 立即停止使用ChatGPT 训练数据中从意大利公民收集的个人信息。

目前,其他国家还没有采取类似的大步骤。但自3 月份以来,至少三个欧盟国家——德国、法国和西班牙——对ChatGPT 发起了自己的调查。与此同时,在大西洋彼岸,加拿大正在根据其《个人信息保护和电子文件法案》 (PIPEDA) 评估ChatGPT 的隐私问题。欧洲数据保护委员会(EDPB)甚至成立了专门的工作组来协调调查。如果这些机构要求OpenAI 做出改变,可能会影响该公司为全球用户提供服务的方式。

监管机构有两大担忧

监管机构对ChatGPT最大的担忧分为两大类:训练数据从何而来? OpenAI如何向用户传递信息?

为了支持ChatGPT,OpenAI 需要使用GPT-3.5 和GPT-4 大型语言模型(LLM),这些模型经过大量人类生成文本的训练。 OpenAI 对于它使用的训练文本仍然持谨慎态度,但表示它利用了“各种经过授权的公开数据源,其中可能包括公开的个人信息”。

根据《通用数据保护条例》,这可能会导致巨大的问题。该法律于2018 年颁布,涵盖收集或处理欧盟公民数据的所有服务,无论提供服务的组织位于何处。《通用数据保护条例》 要求公司在收集个人数据之前获得用户的明确同意,有合法有效的理由收集该数据,并对数据的使用和存储方式保持透明。

欧洲监管机构声称,OpenAI 训练数据的保密性意味着他们无法确认其使用的个人信息最初是否得到了用户的同意。意大利数据保护局辩称,OpenAI 首先没有收集信息的“法律依据”。到目前为止,OpenAI 和其他公司几乎没有受到审查。

另一个问题是《通用数据保护条例》的“被遗忘权”,它允许用户要求公司更正他们的个人信息或完全删除它。 OpenAI 已提前更新其隐私政策以响应这些请求。但考虑到一旦将特定数据输入到这些大型语言模型中,分离就会变得多么复杂,技术上是否可行始终是有争议的。

OpenAI 还直接从用户那里收集信息。就像其他互联网平台一样,它收集一系列标准的用户数据,例如姓名、联系方式和信用卡详细信息。但更重要的是,OpenAI 会记录用户与ChatGPT 的交互。正如官方网站所述,OpenAI 员工可以查看这些数据并用它来训练模型。考虑到人们向ChatGPT 提出的个人问题,例如将机器人视为治疗师或医生,这意味着该公司正在收集各种敏感数据。

该数据可能包括有关未成年人的信息。尽管OpenAI 的政策规定“不会故意收集13 岁以下儿童的个人信息”,但没有严格的年龄验证门槛。这与欧盟法规不符,欧盟法规禁止收集13 岁以下未成年人的数据,并且在一些国家需要父母同意才能收集16 岁以下未成年人的信息。在输出方面,意大利数据保护局声称ChatGPT 缺乏年龄过滤器给未成年人“就其发展水平和自我意识而言绝对不合适的反应”。

OpenAI 在使用这些数据方面拥有广泛的自由度,这让许多监管机构感到担忧,并且存储这些数据会带来安全风险。三星和摩根大通等公司已禁止员工使用AIGC 工具,因为担心他们会上传敏感数据。事实上,在意大利禁令之前,ChatGPT就遭遇了严重的数据泄露,泄露了大量用户的聊天记录和电子邮件地址。

此外,ChatGPT 提供虚假信息的倾向也可能会导致问题。《通用数据保护条例》 规定所有个人数据必须准确,意大利数据保护局在其公告中强调了这一点。这可能会给大多数人工智能文本生成器带来问题,因为这些工具很容易出现“幻觉”,即对查询给出实际上不正确或不相关的响应。这在其他地方引发了现实生活中的问题,例如,在ChatGPT 谎称他因贿赂而入狱后,一位澳大利亚市长威胁要以诽谤罪起诉OpenAI。

专门的监管规则即将出台

ChatGPT 由于其在人工智能市场的受欢迎程度和主导地位,特别容易受到监管目标的影响。但与Google 的Bard 和由OpenAI 提供支持的微软Azure AI 等竞争对手和合作伙伴一样,它没有理由不受到审查。在ChatGPT 之前,意大利已禁止聊天机器人平台Replika 收集未成年人信息。截至目前,该平台仍被禁止。

虽然《通用数据保护条例》 是一套强大的法律,但它并不是为了解决人工智能特有的问题而制定的。然而,专门的监管规则可能即将出台。 2021年,欧盟提交了其《人工智能法案》(AIA)第一版草案,该草案将与《通用数据保护条例》一起实施。《人工智能法案》 AI工具将根据其风险级别进行监管,从“最小风险”(例如垃圾邮件过滤器)到“高风险”(用于执法或教育的AI工具)到“不可接受的风险”(例如社会信用体系)。

在像ChatGPT 这样的大型语言模型爆炸式增长之后,立法者现在正忙着为“基础模型”和“通用人工智能系统(GPAI)”添加规则。这两个术语都指的是大规模人工智能系统,包括法学硕士,并可能将其归类为“高风险”服务。

《人工智能法案》 的规定超出了数据保护范围。最近提出的一项修正案将迫使公司披露用于开发AIGC 工具的任何受版权保护的材料。这可能会暴露曾经秘密的数据集,并使更多公司容易受到侵权诉讼,而这已经影响了一些服务。

专门 AI 法律或到 2024 年底通过

目前,该法案的实施可能还需要一段时间。欧盟立法者于4 月27 日就临时人工智能法案达成一致,但委员会需要在5 月11 日对该草案进行投票,最终提案预计将于6 月中旬发布。欧洲理事会、欧盟议会和欧盟委员会必须在实施该法律之前解决任何剩余的争议。如果一切顺利,可能会在2024年下半年获得通过。

目前,意大利和OpenAI 之间的争执让我们可以初步了解监管机构和人工智能公司可能如何进行谈判。意大利数据保护局表示,如果OpenAI 在4 月30 日之前满足几项拟议决议,它将解除禁令。

这些决议包括告知用户ChatGPT如何存储和使用其数据、要求用户明确同意使用此类数据、协助更正或删除ChatGPT生成的虚假个人信息,以及要求意大利用户在注册时确认自己的年龄。帐户。 18岁。尽管OpenAI 没有达到这些规定,但它满足了意大利监管机构的要求并恢复了在意大利的访问。

OpenAI 仍需满足其他条件,包括在9 月30 日之前设定更严格的年龄阈值、过滤掉13 岁以下的未成年人以及要求年龄较大的未成年人获得父母同意。如果失败,OpenAI 可能会再次被封禁。然而,OpenAI 似乎树立了一个榜样,表明欧洲认为人工智能公司的行为是可以接受的,至少在新法律出台之前是这样。