首页 产业新闻 多名OpenAI和谷歌DeepMind前员工现员工警告AI风险 呼吁保护风险吹哨人

多名OpenAI和谷歌DeepMind前员工现员工警告AI风险 呼吁保护风险吹哨人

产业新闻 9

    6月5日消息,据外媒报道,在马斯克、苹果联合创始人斯蒂夫•沃兹尼亚克在内的上千名知名人士签署公开信,呼吁AI实验室暂停训练更强大的模型6个月,以便制定并落实相关的安全协议一年多之后,人工智能领域再次出现了公开信,警告先进人工智能的风险,表达了对当前人工智能公司缺乏监管的担忧,呼吁完善风险举报措施并采取措施保护为风险发声的人。

    从外媒的报道来看,人工智能领域新出现的公开信,是由多名OpenAI和谷歌DeepMind前员工和现员工联名签署发布,OpenAI和谷歌DeepMind是当前在人工智能研发方面走在行业前列的厂商。

    公开信的署名信息显示,共有13名这两家公司的前员工和现员工参与,包括5名OpenAI前员工,6名OpenAI现员工,1名谷歌DeepMind现员工和1名谷歌DeepMind前员工,其中谷歌DeepMind的这名现员工,是Anthropic的前员工。但可能是出于相关保密协议方面的限制,参与发布公开信的6名OpenAI现员工,是匿名参加,其他人都是公开署名。

    在公开信中,这些员工表示他们相信人工智能技术给人类带来前所未有的福祉的潜力,但也认为要看到这些技术带来的严重风险,包括进一步加剧现有的不平等,助长操控和虚假信息传播,失控的自主人工智能系统可能导致人类灭绝等。对于风险,他们在信中是表示人工智能公司自身、全球多国的监管机构、人工智能方面的专家,都已意识到。

    但这些员工在公开信中表示,掌握大量系统能力和局限性、保护措施充分性、不同类型伤害风险水平等非公开信息的人工智能公司,只有很微弱的义务同政府部门分享其中的部分信息,没有义务与社会公众分享,他们认为不能指望相关的公司自愿分享。

    在署名的公开信中,OpenAI和谷歌DeepMind的前员工及现员工,希望在科学界、决策者和公众的充分指导和监督下,人工智能方面的风险能得到有效化解,但他们也认为人工智能公司有强大的经济利益动机避免有效的监管,定制的公司治理结构也不足以改变这一点。

    OpenAI和谷歌DeepMind的这些前员工和现员工在公开信中表示,在缺乏有效政府机构监管的情况下,人工智能公司的前员工和现员工,就会成为少数对公众负责的人,但广泛的保密协议限制了他们为风险方面的担忧发声,一般的举报人保护措施也远远不够,因为公司关注的是非法活动,而他们担忧的风险中,很多还未得到有效监管。另外,签署公开信的这些员工也提到,行业内的一些过往案件,使他们中的部分人有理由担忧各种形式的报复,他们也不是第一批遇到或探讨这些问题的人。

    为了避免对人工智能风险发声的现员工和前员工进行报复,OpenAI和谷歌DeepMind的这些前员工和现员工在公开信中,呼吁顶尖的人工智能公司做出承诺,采取措施保护为人工智能风险发声的员工。

    在公开信中,OpenAI和谷歌DeepMind的前员工和现员工提到的措施包括4项:

    第一项是公司不签订或执行任何禁止对风险相关问题进行贬低或批评的协议,也不通过既得经济利益阻碍来报复与风险相关的批评。

    第二项则是人工智能公司推动可验证的匿名流程,让现员工和前员工向公司董事会、监管机构和具有专业知识的合适独立机构提出与风险相关的担忧。

    第三项是公司支持公开批评的文化,允许现员工和前员工在商业机密和其他知识产权得到适当保护的情况下,向公众、董事会、监管机构、合适的独立组织等,提出与技术风险相关的担忧。

    第四项则是在其他程序失败后,公司不对公开风险相关机密信息的现员工和前员工进行报复。不过他们也同意在报告风险相关的担忧时尽力避免不必要的机密信息泄漏,在有足够的程序能匿名向公司董事会、监管机构等提出担忧的情况下,他们也接受最初通过程序表达他们的担忧,但在相关的程序不存在的情况下,现员工和前员工就应该保留向公众报告他们的担忧的自由。

广告

文章目录

    标签列表