首页 产业新闻 AI输出是否受到言论保护?法律专家警告称这是危险的提议

AI输出是否受到言论保护?法律专家警告称这是危险的提议

产业新闻 7

    **划重点:**

    1. 一些美国法律专家认为大型语言模型(LLM)的输出受到第一修正案的保护,但法律专家Peter Salib表示这将带来灾难性后果。

    2. Salib担心,如果GPT-5等模型的输出被视为受到保护的言论,将难以监管这些系统,可能导致严重后果。

    3. 他提倡对AI输出进行合理监管,强调法规应该关注输出内容本身,而不是过程,以规避潜在的危险。

    人工智能(AI)输出是否受到言论保护,引起了法律专家的激烈争议。美国的一些法律专家认为,大型语言模型(LLM)如ChatGPT的输出应受到第一修正案的保护,即言论自由的权利。然而,法律专家Peter Salib对此提出了警告,表示这样的观点可能会带来严重的后果。

    图源备注:图片由AI生成,图片授权服务商Midjourney

    Salib指出,如果将GPT-5等模型的输出视为受到保护的言论,这将给监管这些系统带来极大困难。他认为,受保护的言论是一种神圣的宪法范畴,如果AI的输出被认定为受到保护,那么我们将很难对这些系统进行有效的监管。

    一些法律专家辩称,像ChatGPT这样的系统是“无可否认地有表现力的”,它们生成的内容被视为言论,有时具有说服力和高度表现力。然而,Salib反驳称,AI的输出并非来自具有第一修正案权利的任何讲话者,也不是任何人类的表达。

    同时,随着AI的迅速发展,其输出变得越来越危险。Salib指出,生成AI已经具备发明比VX(一种最有毒的神经毒剂之一)更致命的新化学武器的能力,并能协助恶意人类合成它们;还能帮助非程序员入侵重要基础设施,以及进行复杂的操纵游戏。这些情况使得AI输出可能导致生命、肢体和自由的严重风险。

    为了规避未来的风险,Salib主张对AI输出本身进行规范,而不是阻止系统产生有害的输出。他认为,成功的AI安全法规应包括关于模型允许“说什么”的规则。这样的规则可以多样化,例如,如果AI的输出经常具有高度危险性,法律可以要求模型保持未发布状态,甚至被销毁。这将为AI公司提供更强大的激励,投资于安全研究和严格的协议。

广告

文章目录

    标签列表