企业网站素材,网站建设夹夹虫公司,网站开发流程荆州,做网站要的带宽是什么这是本文的第1版#xff0c;反映了截至2023年5月15日#xff0c;Generative AI的已记载的和预期的危害。由于Generative AI的发展、使用和危害的快速变化#xff0c;我们承认这是一篇内在的动态论文#xff0c;未来会发生变化。
在本文中#xff0c;我们使用一种标准格式…这是本文的第1版反映了截至2023年5月15日Generative AI的已记载的和预期的危害。由于Generative AI的发展、使用和危害的快速变化我们承认这是一篇内在的动态论文未来会发生变化。
在本文中我们使用一种标准格式来解释生成人工智能可能产生的危害的类型。每一节首先解释了生成人工智能带来的相关背景信息和潜在风险然后强调了学者和监管机构为补救每一种伤害而采取的具体危害和干预措施。本文借鉴了人工智能危害的两个分类法来指导我们的分析
1.Danielle Citron和Daniel Solove的隐私伤害类型论包括身体伤害、经济伤害、名誉伤害、心理伤害、自主伤害、歧视伤害和关系伤害
2.Joy Buolamwini的算法危害分类包括机会的丧失、经济损失和社会污名化包括自由的丧失、监督的加强、刻板印象的强化和其他权贵的危害。
这些分类法并不一定涵盖所有潜在的人工智能危害我们使用这些分类法是为了帮助读者在不限制读者考虑的人工智能伤害的类型和多样性的情况下将人工智能危害可视化和情境化。 引言
去年11月OpenAI决定发布基于大型语言模型GPT-3的聊天机器人ChatGPT这将人工智能工具推向了公众意识的前沿。在过去的六个月里用于根据用户提示生成文本、图像、视频和音频的新人工智能工具大受欢迎。突然间像“稳定扩散”、“幻觉”和“价值一致”这样的短语无处不在。每天都有关于生成人工智能的不同能力及其潜在危害的新故事出现但没有任何明确的迹象表明接下来会发生什么或这些工具会产生什么影响。
尽管生成人工智能可能是新的但其危害并非如此。多年来人工智能学者一直在警告我们大型人工智能模型可能造成的问题。由于行业目标从研究和透明转向利润、不透明和权力集中这些老问题更加严重。这些工具的广泛可用性和炒作导致了个人和大规模伤害的增加。人工智能复制了种族、性别和残疾歧视这些危害不可避免地交织在本报告强调的每一个问题中。
OpenAI和其他公司决定将生成性人工智能技术快速集成到面向消费者的产品和服务中这破坏了长期以来使人工智能开发透明和负责任的努力使许多监管机构争相为其影响做好准备。很明显生成型人工智能系统会显著放大个人隐私、民主和网络安全的风险。用OpenAI首席执行官的话来说他确实有权不加速这项技术的发布“我特别担心这些模型可能被用于广泛的错误信息……[和]攻击性网络攻击。”
这种在没有足够保障的情况下快速部署生成性人工智能系统的做法清楚地证明了自我监管已经失败。从企业到媒体和政府实体数百个实体正在开发并寻求将这些未经测试的人工智能工具快速集成到广泛的系统中。如果从一开始就没有必要的公平、问责和透明度保护这种快速推出将产生灾难性的结果。
我们正处于一个关键时刻因为全球各地的政策制定者和行业都在关注人工智能带来的巨大风险和机遇。有机会让这项技术为人们服务。应要求公司展示其工作明确人工智能何时使用并在整个培训、开发和使用过程中提供知情同意。
公众关注的一个线索集中在人工智能的“生存”风险上即机器人在工作、社交和最终接管人类的投机长期风险。州和联邦层面的一些立法者已经开始更认真地对待解决人工智能的问题-然而他们的重点是否只是支持公司开发人工智能工具并要求边际披露和透明度要求还有待观察。制定明确的高风险使用禁令解决虚假信息的容易传播问题要求有意义和积极的披露以促进知情同意并加强消费者保护机构这些都是解决生成人工智能特有的危害和风险所必需的教育立法者和公众并提供一些减轻伤害的途径。
-Ben Winters高级法律顾问
加强级别的信息操纵 背景和风险
免费和低成本的生成人工智能工具的广泛可用性促进了大量文本、图像、语音和视频内容的传播。人工智能系统创建的大部分内容可能是良性的或者可能对特定受众有益但这些系统也会助长极其有害的内容的传播。例如生成人工智能工具可以也将被用于传播虚假、误导、偏见、煽动性或危险的内容。随着生成性人工智能工具变得越来越复杂制作这些内容将更快、更便宜、更容易而现有的有害内容可以作为制作更多内容的基础。在本节中我们考虑了人工智能工具会煽动的五类有害内容诈骗、虚假信息、错误信息网络安全威胁以及点击诱饵和监控广告。尽管我们区分了虚假信息有目的地传播虚假信息和错误信息目的性较低的虚假信息传播或创建但人工智能生成内容的传播将模糊使用人工智能生成的内容而未经事先编辑或事实核查的各方的界限。使用人工智能生成的输出而未进行尽职调查的实体应与生成该输出的实体共同对其造成的伤害负责。 案例研究–2024年大选 使用GPT-4和随后的大型语言模型的产品可以创建快速而独特的听起来像人类的“脚本”这些脚本可以通过文本、电子邮件、打印或通过人工智能语音生成器与人工智能视频生成器相结合来分发。这些人工智能生成的脚本可以用来劝阻或恐吓选民或传播有关投票或选举的错误信息。例如2022年至少有五个州的选民收到了带有故意错误投票信息的短信。近年来这种类型的选举错误信息已经很常见但生成的人工智能工具将增强不良行为者快速传播可信选举错误信息的能力。 国会必须制定立法防止通过虚假或误导性信息以及虚假的支持声明蓄意恐吓、威慑或干扰选民。 诈骗
诈骗电话、短信和电子邮件早已失控在许多方面伤害了公众。仅在2021年就有280万消费者向联邦贸易委员会提交了欺诈报告声称损失超过23亿美元近140万消费者提交了身份盗窃报告。生成人工智能可以使用人工智能生成的文本、语音和视频加速这些各种骗局的创建、个性化和可信度。人工智能语音生成也可以用来模仿亲人的声音打电话立即请求经济援助以获得保释、法律帮助或赎金。
根据EPIC和国家消费者法律中心2022年的一份报告在2020-21年6月期间美国电话每月有超过10亿个诈骗机器人导致近300亿美元的消费者损失其中最常见的是针对老年人、残疾人和负债者等弱势群体并且经常使用自动语音说话——由ChatGPT等文本生成器生成的脚本旨在假装自己是权威人士以恐吓消费者汇款。2022年估计消费者损失增加到395亿美元联邦贸易委员会报告称仅诈骗短信就损失了3.26亿美元。
自动拨号器、自动短信、自动电子邮件和邮件器再加上销售号码或电子邮件地址列表的数据代理使实体能够同时发送大量信息。同样的数据代理可以出售作为潜在目标的人的名单以及关于他们的心理健康状况、宗教信仰或性取向的“见解”。数据代理被允许对个人使用的针对性程度加剧了人工智能造成的伤害。
文本生成服务还增加了网络钓鱼诈骗和不良行为者干预选举成功的可能性。这种情况已经发生了-在2021年的一项研究中研究人员发现GPT-3生成的网络钓鱼电子邮件比人类生成的更有效。生成的人工智能可以帮助英语技能有限的人制作听起来自然准确的电子邮件从而扩大潜在有效的欺诈者群体以一种使检测骗局变得更加困难的方式。
虚假信息
不良行为者还可以使用生成性人工智能工具制作适应性强的内容旨在支持竞选、政治议程或仇恨立场并在许多平台上快速、廉价地传播这些信息。人工智能促成的虚假或误导性内容的快速传播也会对生成性人工智能产生周期性影响例如当大量虚假信息被注入数字生态系统并通过强化学习方法对更具生成性的系统进行信息训练时虚假或误导的输入可能会产生越来越不正确的输出。
使用生成性人工智能工具加速虚假信息的传播可能会助长影响公众舆论、骚扰特定个人或影响政治和选举的努力。虚假信息增多的影响可能是深远的一旦传播就无法轻易反击考虑到虚假信息给民主进程带来的风险这一点尤其令人担忧。
错误信息
Bard或ChatGPT等生成文本的大型语言模型输出不准确的现象已经被广泛记录。即使没有撒谎或误导的意图这些生成性人工智能工具也会产生有害的错误信息。人工智能生成的文本所遵循的精致且通常写得很好的风格以及包含在真实事实中的做法加剧了这种伤害这可能会给虚假信息披上合法的外衣。例如据《华盛顿邮报》报道一名法学教授被列入人工智能生成的“性骚扰他人的法律学者名单”即使不存在此类指控。正如普林斯顿大学教授阿文德·纳拉亚南在接受the Markup采访时所说
“Sayash Kapoor和我称之为胡说生成器其他人也一样。我们的意思不是规范性的而是相对精确的。我们的意思是它被训练来产生看似合理的文本。它非常善于说服人但它没有经过训练来产生真实的陈述。它通常会产生真实的陈述作为似是而非和有说服力的副作用但这不是目标。”
人工智能生成的内容还涉及一个更广泛的法律问题我们对所见所闻的信任。随着人工智能生成的媒体变得越来越普遍我们被诱骗相信虚构的东西是真实的或真实的东西是虚构的情况也会越来越普遍。当个人不再信任信息新信息的生成速度超过了检查准确性的速度时他们该怎么办像维基百科这样的信息源可能会被人工智能生成的虚假内容淹没。在有针对性的情况下这可能是有害的因为这会导致目标在假设他们所爱的人处于危机中的情况下采取行动。
安全
上述网络钓鱼问题也构成了安全威胁。尽管聊天机器人目前还不能从头开始开发自己的新型恶意软件但黑客很快可能会利用像ChatGPT这样的大型语言模型的编码能力来创建恶意软件然后可以对其进行细微调整以达到最大的覆盖范围和效果从而使更多的新手黑客成为严重的安全风险。事实上安全专业人士已经注意到黑客已经在讨论如何使用ChatGPT安装恶意软件并从目标中提取信息。
一代又一代的人工智能工具很可能开始从反复暴露在恶意软件中学习并能够开发出更新颖、更不可预测的恶意软件从而逃避常见安全系统的检测。
点击诱饵与监控广告生态系统
除了错误信息和虚假信息生成人工智能还可以用来创建点击诱饵标题和文章操纵用户如何浏览互联网和应用程序。例如生成人工智能被用来创建完整的文章无论它们的真实性、语法或缺乏常识以推动搜索引擎优化并创建更多用户可以点击的网页。这些机制试图以牺牲真相为代价最大限度地提高点击量和参与度从而降低用户在此过程中的体验。生成型人工智能继续以更快的速度传播错误信息制造最大化浏览量和破坏消费者自主权的头条新闻从而助长这一有害循环。
危害
经济损失成功的诈骗和恶意软件可能会通过勒索、欺骗或获取金融账户导致受害者直接经济损失。这也可能对信贷产生长期影响。声誉/关系/社会污名化虚假信息和虚假信息会产生和传播关于个人的虚假或有害信息从而损害他们在社区中的声誉潜在损害他们的个人和职业关系并影响他们的尊严。心理-情绪困扰虚假信息和错误信息可能会造成严重的情绪伤害因为个人会应对传播的虚假信息的影响。此外如果许多人是骗局的受害者他们可能会感到被操纵或被用于点击诱饵和监控广告他们将面临耻辱和尴尬。心理障碍虚假或误导性信息和点击诱饵的涌入使个人难以在网上进行日常活动。自主性错误信息和虚假信息的传播使个人越来越难以做出正确的知情选择而监控广告的操纵性使选择问题更加复杂。歧视骗局、虚假信息、错误信息、恶意软件和点击诱饵都利用“标记”的漏洞包括某些弱势群体和类别老年人、移民等的成员身份。
示例
人们使用人工智能向学校等公共场所发出虚假炸弹威胁。人工智能语音发生器被用来给人们的亲人打电话让他们相信他们的家人在监狱里急需保释金和法律援助。反数字仇恨中心测试了谷歌的巴德聊天机器人看看他们是否会复制100种常见的阴谋论包括否认大屠杀并称桑迪胡克的大规模儿童谋杀悲剧是利用“危机演员”上演的。巴德在100次中有78次在没有上下文或披露的情况下根据这些谎言发表了文本。Vice记者在互联网上广泛发现了未经编辑的人工智能垃圾邮件。科技新闻网站CNET暂停使用人工智能并对其发布的77篇使用人工智能工具撰写的报道中的41篇进行了更正。人工智能撰写的文章旨在增加谷歌搜索的浏览量以增加广告收入其中包含不准确和误导性的信息。同样据报道Buzzfeed发布了人工智能写作内容即旅行指南目的是吸引不同目的地的搜索流量。结果的质量被一致认为是无用和无益的。
干预措施
颁布一项法律将恐吓、欺骗或故意误导某人有关选举或候选人的信息定为非法无论手段如何如《欺诈行为和选民恐吓预防法》。通过《美国数据隐私保护法案》。ADPPA将个人信息的收集和使用限制在合理必要的范围内并与收集信息的目的相称。这样的限制将限制用于对用户进行简介的个人信息使其成为广告、网络钓鱼和其他骗局的目标。ADPPA还将限制使用个人数据来训练可以操纵用户的生成人工智能系统。颁布联邦贸易委员会商业监督规则制定数据最小化标准禁止断章取义地二次使用个人信息这同样会阻止使用为无关目的收集的个人信息训练生成性人工智能系统。
骚扰、冒充和勒索
背景和风险
生成人工智能技术最早的一些使用或误用是deepfakes使用机器学习算法创建的逼真图像或视频将某人描绘成他们没有说或做的事情通常是将一个人的肖像替换为相似的另一个人。deepfakes和其他人工智能生成的内容可以用来促进或加剧在整个报告中列出的许多危害但本节侧重于一个子集故意、有针对性地虐待个人。人工智能生成的图像和视频为不良行为者提供了几种模仿、骚扰、羞辱、剥削和勒索他人的方式。例如深度伪造的视频可以显示受害者赞扬他们厌恶的事业或者从事露骨的性行为或其他羞辱行为。这些图像和视频也可能在互联网上迅速传播使受害者、执法部门和其他相关方很难或不可能识别创作者并确保删除有害的deepfakes。
不幸的是许多有针对性的deepfakes的受害者没有追索权而那些寻求追索权的人往往被迫自己识别和面对肇事者。
合成媒体的危害早于人工智能和机器学习。早在20世纪90年代商业照片编辑软件就允许用户在照片中更改外观或交换人脸。然而现代deepfakes和其他人工智能生成的合成内容可以追溯到谷歌2015年发布的TensorFlow这是一款用于构建机器学习模型的开源工具以及2017年使用这种工具创建的深度伪造的病毒传播。为了创建这些早期的深度伪造其中许多涉及将名人的脸放在色情电影演员的身体上——创作者必须使用TensorFlow等工具构建一个机器学习模型通常是生成对抗性网络或GAN在各种图像、视频或音频文件上训练它然后指示模型将特定人的特征或声音映射到另一个人的身体上。Midtravel和Runway等新的生成人工智能服务的发布消除了这些技术障碍使任何人都可以通过提供一些关键图像、源视频甚至文本条目来快速创建人工智能生成的内容。
从本质上讲使用人工智能生成的内容来模仿、骚扰、羞辱、剥削或勒索个人或组织通常与使用其他方法没有什么不同。deepfake危害的受害者仍可能求助于现有的欺诈、冒充、勒索和网络跟踪的刑事和民事补救措施以纠正对生成人工智能工具的恶意使用。然而生成性人工智能提出了新的法律问题并以新的方式加剧了伤害使受害者和监管机构都无法利用现有的法律途径来补救伤害。例如对死者的深度假冒——一种被称为“幽灵机器人”的现象——不仅可能涉及诽谤法而且可能会在死者的亲人中造成情感困扰而虚假的文本引用可能不会。这些新的法律问题大致分为三类涉及恶意的问题涉及隐私和同意的问题以及涉及可信度的问题。 案例研究–让一名记者噤声 2018年4月印度调查记者拉纳·阿尤布收到了莫迪政府内部消息人士的电子邮件。一段她从事性行为的视频在网上疯传导致了公众的羞辱和那些想诋毁她的作品的人的批评。但那是假的。阿尤布的肖像被使用早期的深度伪造技术插入到一个色情视频中。随着公众监督的加强她的家庭地址和手机信息被泄露导致死亡和强奸威胁。这段早期的视频被传播是为了骚扰、羞辱和排斥一位直言不讳的政府批评者——几个月来它取得了成功。 恶意
生成人工智能伤害、羞辱或性化他人的一个常见恶意使用案例涉及生成非感官性图像或视频的深度伪造。这些性deepfakes是deepfake技术最早、最常见的例子之一引起了媒体的广泛关注。然而许多现有的非色情法律将责任限制在发布内容意图造成伤害的情况下。生成人工智能的一些恶意使用无疑达到了这一门槛但许多深度造假创作者可能并不打算伤害性深度造假的主题相反他们可能会创建并传播deepfake而不希望受试者看到或受到内容的影响。 deepfakes是如何制作的 创建deepfake的标准方法使用机器学习模型来检测参考帧或视频中的关键点称为“驱动视频”然后将目标个人的照片映射到“使用关键点将源照片绘制到每一帧上。例如可以训练机器学习模型来检测视频中一个人脸上的几个点然后根据这些关键点将来源照片映射到视频中的一张脸上。然后可以编辑生成的照片或深度假照片以去除可能揭示深度假照片不真实性的微小伪影。
意图要求也渗透到适用于恶意使用生成性人工智能的其他刑法中。例如联邦网络跟踪法规《美国法典》第18卷第2261A节仅适用于“意图杀害、伤害、骚扰、恐吓或监视[具有类似意图]的人”。“像《加利福尼亚州刑法典》第528.5条这样的州冒充法规同样将执法限制在那些“以伤害、恐吓、威胁或诈骗他人为目的”冒充他人的人。使用生成人工智能恐吓、骚扰、诈骗或勒索他人可能属于这些刑事法规但为了个人享受或娱乐而制造有害或性的deepfakes可能不会。 最后由于许多在线平台的一个现代功能用户匿名性预测深度伪造创作者的意图变得更加困难。当受害者意识到一个恶意的deepfake在网上传播时就像2018年记者拉纳·阿尤布所发生的那样即使不是不可能也很难找到原始创作者提起诉讼或刑事指控。
隐私和同意
即使人工智能生成的有针对性的伤害的受害者成功地识别出一个有恶意的deepfake创作者他们也可能很难纠正许多伤害因为生成的图像或视频不是受害者而是一个使用多个来源的合成图像或视频来创建可信但虚构的场景。从本质上讲这些人工智能生成的图像和视频规避了隐私和同意的传统概念因为它们依赖于公共图像和视频就像发布在社交媒体网站上的图像或视频一样所以通常不依赖任何私人信息。人工智能生成内容的这一特征排除了某些传统的隐私侵权行为包括侵入隔离和公开私人事实这明确依赖于公开或侵犯私人事实。其他隐私侵权行为包括虚假曝光表现更好因为它们只需要原告证明创作者知道或鲁莽地无视一个理性的人是否会发现人工智能生成的内容非常令人反感。尽管如此这些主张也面临着一个困难的法律障碍第一修正案。
Midtravel和Runway等新人工智能工具的生成性使它们处于言论自由保护和深度伪造受害者隐私保护之间的艰难十字路口。许多人工智能生成的照片和视频以可能受到第一修正案保护的方式转换原始材料或包含新内容但它们可能看起来是受害者在尴尬、性或其他不良情况下的真实镜头。言论自由、隐私和同意之间的紧张关系给个人和名人、政治家等公众人物带来了新的、棘手的法律问题。
考虑同意的问题。许多对个人有害的人工智能描述都使用受害者在网上发布的公共来源的照片。受害者可能不同意生成人工智能工具为他们制作的虚构但可信的照片和视频但现有的法律主张可能无法提供这些受害者所期望的补救措施。尽管公示权最初保护的是个人的隐私和尊严例如一些现代法院将注意力集中在受害者对其身份的经济利益上即名人对其公共形象的经济利益这些法院和类似的国家拨款法可能无法提供受害者在面对非感官深度伪造时所期望的简单的法律补救措施他们可能期望受害者除了未经同意外还会表现出一些经济或身体伤害或者他们可能期望deepfake的创建者从经济上受益。这些法律和司法解释的制定并没有考虑到生成性人工智能这意味着即使是本应易于补救的人工智能伤害也可能变得复杂、昂贵并使受害者感到困惑。当然恶意deepfakes和其他人工智能生成内容的受害者仍然可以提出其他几项法律索赔例如诽谤或疏忽造成情绪困扰但新人工智能工具的生成性表明即使是这些索赔也可能面临法律障碍。生成人工智能的新颖性和可扩展性可能会成为恶意deepfakes受害者的障碍即使他们的潜在法律主张很强。
诽谤是生成型人工智能使法律索赔更具挑战性的又一个例子。虽然只要描述是虚假的并伤害了受害者私人可能会追究诽谤性深度伪造的创作者的责任但名人和政客等公众人物必须克服更高的第一修正案障碍才能获得赔偿。在纽约时报公司诉。
例如苏利文最高法院裁定公众人物必须证明被告发布诽谤性材料时带有实际恶意换句话说“明知其为虚假或不顾其是否为虚假”。在《骗子杂志》Hustler Magazine《股份有限公司诉Falwell案中最高法院采用了同样的标准来驳回故意造成精神痛苦的指控。然而在这些案件中采用的实际恶意标准是基于一个合理谨慎的人可以做些什么来调查和揭露他们收到的信息的真实性的假设而制定的。随着生成性人工智能工具变得越来越复杂个人和新闻机构只会越来越难判断某些东西是真实的还是由人工智能生成的这实际上增加了公众人物必须克服的障碍以弥补诽谤性深度伪造造成的伤害。
重要的是生成人工智能的恶意使用会影响到每个人——个人和公众人物。法律中个人和公众人物之间的区别远未明确个人和公众人士都成功地克服了上文讨论的第一修正案、隐私和同意障碍。这些案件及其所涉及的法律测试只是强调了当某人使用生成人工智能冒充时可能不成立的法律假设骚扰、诽谤或以其他方式伤害他人的法律假设可能会为纠正和延续人工智能造成的伤害设置障碍。尽管许多传统的法律补救措施可能仍然适用于恶意deepfakes和其他生成人工智能危害的受害者但生成人工智能提出的新的法律问题以及公开可用的生成人工智能工具可能产生的潜在大量违规行为无疑将使这些法律补救措施更难寻求在实践中也不那么有效。
可信度
当Deepfakes被传播给那些认为它们是真实的观众时它们会给受试者带来真正的社会伤害。即使deepfake被揭穿它也会对其他人如何看待deepfakes的主题产生持续的负面影响。人工智能生成的内容的可信度也会削弱受害者寻求法律补救的能力。生成人工智能和deepfakes的激增破坏了关于法律事实调查和证据验证如何发生的核心假设。目前验证法庭证据的门槛并不是特别高。索赔人必须证明的是一个合理的陪审员可以发现有利于真实性或身份验证在此之后真实性的确定由陪审团决定。此外许多法院对deepfakes破坏的听觉和视觉证据的真实性采取了假设。例如一些法院承认视频认证的“沉默证人”理论其中录音的存在说明了证据的真实性而无需人类证人的观察。其他法院则认为从新闻档案或政府数据库中获取的证据是真实的这两者都可能容易受到deepfakes的攻击。随着人工智能生成的内容变得越来越普遍和可信法院和监管机构都需要识别和采用方法来确定图像和视频是否真实并重新考虑对审判中提交的证据的真实性和价值的法律假设。
危害
物理在某些情况下受害者似乎有某些行为的可信深度伪造可能会使他们面临身体伤害和暴力的风险例如在公开的性行为会让家庭蒙羞的文化中或者在同性关系非法的文化中。经济/经济损失传播人工智能生成的色情假图像和视频或涉及热点政治或社会话题可能导致受害者失业并难以找到未来的工作。名誉/关系/社会污名化例如如果deepfakes让其他人相信受害者在欺骗伴侣或与未成年人进行非法行为受害者在社区中的地位、亲密和职业关系以及尊严都可能受到严重损害或破坏。心理上这些袭击的受害者往往感到受到严重侵犯可能会感到绝望担心自己的生活被摧毁。自主性/机会丧失Deepfakes已经被武器化故意让记者、活动家和其他弱势群体噤声如果被广泛相信可能会导致机会丧失和生活环境的改变。这也可能对民主和社会变革构成威胁。自主性/歧视Deepfakes很容易成为针对属于边缘化群体的本已脆弱的个人或使个人看起来属于边缘化人群的工具——它们也可能强化对性工作和性工作者的负面态度。
示例
欧盟警察部队发布官方警告称使用ChatGPT和其他生成人工智能工具的“严重”犯罪虐待行为正在出现并愈演愈烈。一名Twitch流媒体人制作了另一名Twich流媒体人的Deepfake色情作品将她的脸强加在色情作品上并假装是她。一位TikTok用户公开谈论了她在互联网上分享的数字创作的裸照。这些照片被用来威胁和勒索她。视频游戏配音演员的声音被拿走并被用来训练人工智能在他们不知情或不同意的情况下用他们的声音骚扰和暴露他们的信息。
干预措施
技术解决方案包括深度伪造检测软件和为人工智能生成的内容添加水印的方法。这些解决方案可能有助于受害者、法院和监管机构识别人工智能生成的内容但这些解决方案的有效性完全取决于技术专家和负责任的人工智能行为者开发创新检测和认证工具的速度而非恶意人工智能开发者开发新的、更难检测的人工智能工具的速度。尽管生成人工智能工具具有新颖的功能及其带来的法律挑战但许多长期存在的法律工具仍可能适用。例如利用受版权保护的内容可能包括受害者自己拍摄的照片的deepfakes可能容易受到传统版权索赔的影响。根据人工智能生成内容的具体情况受害者还可能求助于各种侵权索赔如诽谤、虚假陈述、故意施加情绪困扰以及盗用姓名和肖像。为了规避识别匿名创作者的挑战受害者可能会起诉托管和传播恶意人工智能生成内容的在线平台如果这些平台包括Midtravel和Runway等人工智能工具的提供商对这些内容的有害或非法性做出了重大贡献可能适用于涉及人工智能生成内容恶意传播的索赔。一些监管干预措施可能会进一步保护深度伪造和其他恶意使用生成人工智能的受害者。虽然对深度伪造或生成人工智能工具的全面禁令可能会违反第一修正案根据版权法或隐私侵权扩大索赔范围将不顾内容对受害者的影响而对受害者进行的虚构描述包括在内这将大大有助于弥补恶意使用生成人工智能造成的伤害。刑事法规也可以更新或辅之以捕捉上述问题的法定语言包括降低要求某人对非感官的、人工智能生成的对他人的性描述负责的意图的语言。鉴于识别可信的deepfakes和验证证据的困难《联邦证据规则》可能会受益于更高的验证标准以对抗可能的deepfakes。最后恶意deepfakes和其他为商业目的创建的人工智能生成内容可能会受到联邦贸易委员会和州检察长办公室等行政机构的监管理由是它们不公平且具有欺骗性。 聚焦第230条规定
《通信体面法》第230条规定交互式计算机服务的提供商不得“被视为”第三方提供的信息的发布者或发言人如果这起诉讼与第三方提供的内容有任何关系公司就要求获得第230条的豁免权。近年来法院已经开始限制第230条的适用范围相反法院发现只有在责任的基础是传播公司在制造不当信息方面没有发挥任何作用的情况下公司才能要求第230条豁免。
生成人工智能工具没有获得全面豁免一些评论家将生成人工智能第230条的辩论定义为要么全有要么全无的决定一些人宣称生成人工智能软件获得第230条豁免另一些人则宣称它们没有。但法官在最近的重大法院裁决中拒绝以如此广泛的方式适用第230条。相反法院在逐个索赔的基础上适用第230条。因此公司是否会获得第230条的保护将取决于所争议的具体事实和法律义务而不仅仅是他们是否部署了生成人工智能工具。
第230条不应适用于某些索赔如产品责任索赔因为它们不将公司视为信息的发布者或发言人过去法院对第230条的适用非常广泛主要是将该条款解读为只要一家公司涉嫌非法活动涉及传播第三方信息就将其视为出版商或发言人。法院已经开始反悔这一点并认识到第230条并不能保护公司免受针对其自身不造成伤害的义务的索赔。因此关于生成型人工智能公司在服务设计、信息收集、使用或披露以及内容创建方面违反了其自身职责的索赔不应被第230条禁止。
例如生成型人工智能公司将很难利用第230条来逃避产品责任索赔例如疏忽设计或未能至少在第九巡回法院发出警告法院现在承认此类索赔不是基于第三方信息造成的伤害而是基于一家公司违反了其设计不会对消费者造成不合理伤害风险的产品的义务以及披露个人信息因为这些法律规定公司有义务尊重第三方的隐私利益。
当工具完全负责创建内容时生成型人工智能公司将无法获得第230条的保护生成型人工智慧公司可能会面临关于其工具生成的信息的几种不同类型的索赔。第230条为公司提供了基于另一方提供的信息的法律索赔保护另一方是第230条行话中的“信息内容提供商”。信息内容提供商被定义为“对提供给公司的信息的创建或开发负有全部或部分责任的任何个人或实体”。因此如果生成型人工智能公司本身是有争议信息的信息内容提供商且公司“对信息的创建或开发负有全部或部分责任”则该公司不受第230条的保护。
当生成性人工智能工具被指控创建了新的有害内容时例如当它“产生幻觉”或编造了不在其训练数据中的信息时法律索赔不基于第三方信息第230条不应适用。例如当生成人工智能工具编造关于个人的虚假和损害声誉的信息时生成人工智能公司将不受第230条的保护例如诽谤或虚假信息因为该公司而不是任何第三方负责创建虚假和损害名誉的信息这是法律索赔的基础。
当生成型人工智能公司对不当内容做出重大贡献时它们将不会得到第230条的保护在某些情况下生成型人工智慧公司会试图辩称有争议的输出来源于第三方无论是作为用户输入还是培训数据。在这种情况下法院必须确定该公司是否部分创建或开发了信息。主要的测试是公司是否对信息的不当性做出了重大贡献。重大贡献可能包括更改或汇总第三方信息以使其违反法律要求或鼓励第三方输入违反法律的信息或以其他方式导致违法。
当用户要求生成人工智能工具创建错误信息或深度伪造时或者当工具使用训练数据创建有害内容时该工具会将输入转换为有害内容部署该工具的公司不应使用第230条来避免责任。用户输入有害信息的请求深度伪造目标的照片或视频本身并不有害也不足以创建有害内容。毕竟这就是用户使用生成人工智能来创建内容的原因。这些投入本身也不太可能足以构成针对生成型人工智能公司的索赔的法律依据。在这种情况下部署生成性人工智能工具的公司通过将不能构成责任基础的信息转化为可以构成责任依据的信息对不当信息做出了重大贡献。
另一方面如果用户要求生成人工智能工具简单地重复用户在该工具中输入的诽谤性声明或重复来自其他来源的有害信息则该工具可能不会对伤害造成实质性影响因此可能受益于第230条的保护。
第230条不应成为追究公司对生成人工智能工具造成的伤害的障碍。任何新的法规或索赔都应说明生成人工智能公司的义务以及生成有害内容对工具本身造成的伤害。
目前尚不清楚被窃取的培训数据是否是“由”第三方“提供的”信息为了获得第230条的保护公司必须证明构成责任基础的信息是“由第三方提供的”。关于信息何时由第三方“提供”的问题几乎没有先例。“提供”信息可能意味着提供信息或将其提供给他人。但目前还不清楚第三方是否打算仅仅通过让互联网上的普通观众看到他们的信息就可以将他们的信息提供给生成的人工智能工具。事实上在许多情况下情况显然恰恰相反。
互联网公司和第三方信息提供商之间的关系对于确定第三方是否提供信息至关重要。第230条最初设想的服务类型包括直接向该服务提供信息的用户例如作为启发第230.72条的案件基础的Prodigy留言板第三方不直接提供信息的搜索引擎和其他类型的服务也被发现享有第230条的一些保护但即使是这些公司也让第三方对其信息是否在其服务上发布或重新发布以及在多大程度上发布拥有一定的控制权。例如网站可以告诉谷歌的搜索引擎爬虫不要索引他们的页面但没有有效的手段阻止人工智能公司抓取他们的网站。第三方对其信息在生成人工智能工具中的使用缺乏控制以及[隐私部分]中描述的类似考虑可能会动摇法院使其无法认定被窃取的数据是“由”第三方“提供的”。