OpenAI和谷歌 DeepMind 的数名前任和现任员工联名宣布果真信,对高级人工智能的潜在风险以及当前缺乏对人工智能科技公司的禁锢暗示担心。
克日,OpenAI和谷歌 DeepMind 的数名前任和现任员工联名宣布果真信,对高级人工智能的潜在风险以及当前缺乏对人工智能科技公司的禁锢暗示担心。
这封果真信指出,人工智能的成长大概会带来一系列的风险,譬喻加剧现有社会的不服等、助长操控和虚假信息流传,以及失控的自主人工智能系统大概导致人类灭尽等。
信件随即列出OpenAI、谷歌人工智能尝试室Google DeepMind、谷歌和亚马逊支持的AI初创公司Anthropic等官网,以及英美等国当局网站和一些人工智能专家都 已认可存在这些风险 。
信件还称,AI公司们与员工签署了遍及的保密协议,与去职员工签署了不能借由披露AI风险而 对公司举办贬低品评 的严苛条款,,整个行业产生过对吹哨人各类形式的反扑案件。
因此,果真信要求OpenAI及所有人工智能公司都不得签订或执行制止品评AI风险的保密协议,不能通过故障揭破AI风险吹哨人的既得经济好处来冲击反扑,并且要为现任和前任员工提供 可验证的匿名士程 ,以便向公司董事会、禁锢机构和具有相关专业常识的独立组织提出与AI风险相关的担心,前提是吹哨人需要对公司的贸易机要和其他常识产权好处举办适当掩护。
OpenAI在一份声明中为本身的做法举办了辩护,称公司有举报热线等渠道来陈诉公司存在的问题,而且在有适当的保障法子之前不会宣布新技能。谷歌未当即回应置评。
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。