http://www.7klian.com

Altman被曝七宗罪,OpenAI竟欲加密GPU相助军方?员

深度报道 Altman被曝七宗罪,OpenAI竟欲加密GPU相助军方?员工大批去职团队濒临瓦解

为何打算跟踪GPU?为何相助军方?员工滚雪球式去职的动静不绝曝出,整个对齐团队已经濒临瓦解,「说谎」「心口纷歧」的形象愈发光鲜,Altman正在失去民气。


方才,有网友仔细总结了OpenAI的七宗罪,对Altman发出恼怒的诘责:为何打算跟踪GPU?为何相助军方?员工滚雪球式去职的动静不绝曝出,整个对齐团队已经濒临瓦解,「说谎」「心口纷歧」的形象愈发光鲜,Altman正在失去民气。

OpenAI的去职潮,已经像滚雪球一样,基础停不下来了。

Ilya的拜别,似乎是压弯骆驼的最后一根稻草。

由Ilya领衔的超等对齐团队,是防备AGI失控、掩护人类的最后一道屏障。

然而Altman统治下的OpenAI,把鲜明的产物置于安详之前,让超等对齐团队在计较资源方面捉襟见肘,完成要害研究变得越来越坚苦。

不绝去职的超等对齐团队员工纷纷暗示:我们已经彻底失去信心,无法再对OpenAI在AGI时代的行为认真了。

昨天曝出的股权协议原件,更是让Altman言行纷歧的脸孔袒暴露来 文件上显着有Altman的签名,他却积极否定本身对此事知情。

在OpenAI这个大概影响全人类运气的机构中,毕竟产生了什么??

此刻,已经有恼怒的网友发帖,历数了OpenAI的七大罪状:无视AGI风险、欺压员工放弃股权却装失忆、阻挡开源、跟踪GPU、泄露隐私、和军方相助等等 桩桩件件都附有参考链接。

又一对齐员工去职

OpenAI的超等对齐团队,此刻就像多米诺骨牌一样。

上周,首席科学家兼连系首创人Ilya Sutskever公布告退,紧接着高管Jan Leike也告退了。

Leike指责OpenAI把「鲜明的产物」放在安详之前,并暗示超等对齐团队「在计较资源方面捉襟见肘」,完成这项要害研究「变得越来越坚苦」。

这周和上周的去职事件,紧随别的两名安详研究员Daniel Kokotajlo和William Saunders,也出于雷同的原因去职。

如今, 又有一名团队成员高调公布了本身的分开。

在得知Ilya Sutskever和Jan Leike的动静前几个小时,我就已经选择了去职。

我们需要做更多的事情来改造决定进程、问责制、透明度、文档记录、政策执行、利用自身技能时的审慎立场,以及淘汰对不服等、权利和情况影响的法子。

这些担心对付此刻的社会来说很是重要。它们影响着将来成长的偏向,以及由谁来引领。我想强调的是,不管是我们内部的照旧来自其他人的担心不该该被误解为狭隘的、猜测性的或不相关的。它们不是。

科技公司往往会通过在提出质疑或挑战其权力的人之间制造分歧,来减弱那些试图对其举办问责的人。

我很谢谢本身有本领和支持去做这件事,这在很洪流平上要归功于Daniel Kokotajlo给的勇气。我也大白,在整个行业中,尚有许多人无法做到这一点。

OpenAI仍在开展很多重要事情,包罗扩大会见权限、筹备框架开拓、加强信心的法子,以及办理我之前提到的担心。我仍然对这些事情及其乐成布满等候和投入。

历数OpenAI「七宗罪」

Ⅰ 无视AGI风险,超等对齐分崩离析

至此,我们已经无法再用玩梗蒙蔽本身了。.

Ilya等安详团队的人员拜别,或许率跟AGI可能GPT-5都无关,而是被逼得走投无路。

自从OpenAI产生第一轮宫斗、Sam Altman被夺职以来,整个OpenAI的情绪就差池劲了。

显然,Altman在相助同伴干系和产物重点方面的成长偏向,已经超出了大大都人能接管的水平。

他的危险脸孔,跟着时间线的推移,也越来越清晰地袒暴露来。

Ⅱ 跟踪GPU,随时取消GPU许可证

并且,OpenAI最近发布的AI管理打算,也掀起了轩然大波。

OpenAI提出,将加密掩护扩展到硬件层,实现以部属性

1. GPU可以通过加密方法验证其真实性和完整性。

2. 具有加密原语的GPU可以使模子权重保持加密状态,直到它们被暂存并加载到GPU 上。这在主机或存储基本设施受到损害时,增加了重要的深度防止层。

3. 具有独一加密身份的GPU,可觉得特定GPU或GPU组加密模子权重和推理数据。完全实现后,这可以使模子权重只能由属于授权方的GPU解密,而且可以答允推理数据从客户端加密随处事其请求的特定GPU。

这些内容,无疑让人惊愕。

好比第一句:GPU可以通过加密方法验证其真实性和完整性。

这也就意味着,假如我们从英伟达买一块GPU,它会像DRM一样举办签名,从而被核准运行和加快AI模子。

如果一个小公司来购置硬件,此刻就需要颠末特另外层层审批,才气把本身的硬件推向市场,这无疑很可骇。

或许没有几多人但愿本身的GPU是签名的,各人城市但愿利用匿名的GPU。

第二条也很诡异,必需每个硬件上都有签名,才气答允我们运行AI,这的确是一件谬妄的事。因为假如上面有签名,他们也就可以取消签名,谁有权抉择呢?

第三条也是如此,模子权重只能由属于授权方的GPU解密,这个权力属于谁?

而个中这句话,也显示出OpenAI的重点在于掩护模子权重,而非开源,或开放权重,这个概念已经与开源AI的大力大举支持者截然不同了。

一名网友锐评道:这些关于安详和保障的许多想法,让我摸不着脑子,许多内容显示出,OpenAI正在尽心尽力地存眷闭源架构,这让我更谢谢Meta这样的开源公司了。

Ⅲ 签字欺压员工放弃股权,过后装失忆

前几天此动静曝出:假如OpenAI员工在去职时拒绝签署要求严苛的协议,无法担保永不品评OpenAI,那他们大概就会失去已有的OpenAI股权。

瞬间让科技圈炸锅。面临群情激怒的声讨,Altman紧张宣布致歉声明,暗示本身从不知道OpenAI有威胁股权的条款,今后也不会这样做。

然而他随后就被打脸了,外媒扒出了更多内部协议。

这些文件显示,OpenAI险些拥有所有权利,可以任意将股权从前员工哪里收回,可能阻止他们出售股权。

签署这些文件的,正是Sam Altman,签署日期为2023年4月10日。

随后,更多霸王条款曝出。好比OpenAI发给去职员工一份冗长且巨大的终止文件,需要在七天之内签署完毕。

这意味着,前员工仅有一周的时间,去抉择是否接管OpenAI的「封口费」,不然就会失去数百万美元股权。

并且,当前员工要求特别2-3周的时间寻求法令援助并审查文件时,却遭到了OpenAI的强烈阻挡。

「The General Release and Separation Agreement」(归纳综合性索偿弃权书和去职协议)需要你在7天内签署。我们但愿确保你大白,假如你不签署,这大概会影响你的股权。这对每小我私家都是一样的,我们只是按规章服务」。

对此,加州的就业状师Chambord Benton-Hayes暗示,「一家企业威胁收回已归属的股权是极其恶劣和不寻常的」。

然而,OpenAI大大都前员工,却对这样的霸王条款屈服了。

而整件事最谬妄的,照旧以Altman为首的OpenAI高管过后冠冕堂皇的装傻。

Ⅳ 和News Corp相助,ChatGPT中也会有告白了

昨天,在一片乱中,OpenAI依然官宣了和新闻团体News Corp的相助,并将之成为「里程碑意义的多年全球相助同伴干系」。

按照协议内容,News Corp的新闻内容城市引入OpenAI。

OpenAI有权显示相关媒体报头的内容,用来答复用户问题,目标是「让人们按照靠得住的动静和新闻来历,做出明智的选择」。

News Corp旗下的出书物,包罗《华尔街日报》、《巴伦周刊》、《MarketWatch》、《投资者贸易日报》、《FN》、《纽约邮报》、《泰晤士报》、《礼拜日泰晤士报》、《太阳报》等等。

对此,网友评价说:看这个名单就知道,OpenAI选择了很是糟糕的相助方。

这些媒体一向把右翼宣传作为贸易模式,引起政治接头,利用一切须要的手段来敦促叙事,甚至曾通过福克斯新闻否定2022年的总统选举。

甚至News Corp还曾卷入这样一起丑闻,涉嫌侵入600多人的手机,来获取情报。

以后,我们利用OpenAI的产物时,无可制止地会受到某些倾向的影响。

并且,今后AI谈天呆板人的世界,也将处处充斥着告白。

不久前一份泄露的文件显示,OpenAI打算在GPT谈天中,纳入品牌优先权。

按照文件,每每插手该打算的公司,城市在ChatGPT等产物的谈天对话中得到优先权,品牌可以或许暴露得更多,链接中也会更强调它们的内容。

并且通过PPP,OpenAI甚至还会向出书商提供许可的财政条款。

得到更富厚产物表达的公司,将拥有品牌悬停链接、锚定链接和内嵌处理惩罚。

悬停处理惩罚中,OpenAI会在搜索查询的响应中,超链接要害字。这些链接会显示为蓝色文本,鼠标悬停在上面时,会显示可单击的选项卡。

在锚点处理惩罚中,ChatGPT对用户查询响应的下方,会呈现一个可点击的品牌化按钮。

内嵌产物则会在ChatGPT响应的文本中插入引文,字体更大,而且包括可点击的品牌链接。

总之,ChatGPT以后会酿成被贸易告白操控的世界。

Ⅴ 和微软一起阻挡开源

开源和闭源之争中,OpenAI已经连系微软正式下场,试图对当局施加影响了。

最近,由科技巨头、初创公司和风险投资家构成的同盟,正在耗费数百万美元来说服华盛顿,让他们相信对AI世界末日的担心被夸大了。

他们的动作已经发生了影响。他们的影响力网络在敦促这样一种概念:与其说AI是一种保留威胁,不如说是一个重要的贸易时机,毫不能让严格的安详法子,把美国的AI优势拱手让给他人。

华盛顿的游说名堂,已成为一场由大量资金支持的、近乎哲学争论的战争。

微软和OpenAI这一派的概念是,倡导严格的安详限制和许可要求。严格的限制,显然对拥有最强大AI的公司是有利的。

而Meta、IBM等公司,更依赖于开源AI模子,而非OpenAI、谷歌等追求的闭源框架,因此他们力求敦促一种法则更少、越发开放的要领。

无论是IBM照旧Meta,都在开源斗争中投入了大量的游说资源。自从2023年中期的AI辩说发作以来,IBM为游说华盛顿投入了400万美元,Meta则耗费了高出1700万美元。

而OpenAI,虽然不但愿这些开源既得好处者迎头遇上。

Ⅵ 泄露隐私,让人类太过依赖AI

在上周的OpenAI大会上,技惊四座的GPT-4o所宣传的重点,显然被放在了感情依恋上。

然而,无论是开拓高度情绪化的语音输出,,照旧通过声音读取或人情绪康健的本领,无疑都是潜在的危险偏向。

听说,Ilya是阻挡这一抉择的。在他看来,除了进修说服之外,AI进修语音方法并没有什么长处。

宣布会上,GPT-4o加持的AI语音助手,越发感情富厚,现场展示的诙谐和怕羞等特质,让它更像小我私家类。

与之对比,谷歌先容Astra时,用的最多的词就是「助理」,这就明晰显示了谷歌对付语音助手的定位。

显然,在AI助手这方面,OpenAI的实验更斗胆,谷歌则更审慎。

谷歌的立场,此前也有迹可循。此前它就一直在有意远离「Her」型的AI。

上个月,Google DeepMind的研究人员宣布了一篇论文,具体叙述了拟人化人工智能的潜在漏洞,称这类助手大概会从头界说「人类」和「其他」之间的边界。

论文地点:https://arxiv.org/pdf/2404.14068

而这,就大概会导致一些危害。譬喻用户会将重要的决定交给AI,向AI透露敏感信息,可能在感情上太过依赖AI等等。

这样的功效,大概是劫难性的。究竟,《Her》中描写的并不是一个happy ending,更像是一个反乌托邦的将来。

显然,这个问题,并不在OpenAI的思量范畴之内。

Ⅶ 技能向军方开放

最后一件危险的事就是,本年OpenAI已经暗暗删除了针对「军事和战争」利用ChatGPT的禁令,因此,军方也可以利用ChatGPT技能了。

固然今朝看来,OpenAI提供的任那里事都无法用于直接杀人,好比操控无人机或发射导弹,但他们可以加强很多相关的任务,好比写代码、处理惩罚采购订单。

有证据表白,美国的军事人员已经在利用ChatGPT加速文书事情,美国国度地理空间情报局已经果真思量,利用ChatGPT来协助人类阐明师。

要知道,OpenAI一直和主要国防承包商微软相助密切,迄今为止,微软已经向OpenAI投入了130亿美元的巨资。

在当前的大势下,全世界的部队都盼愿用AI技能来武装本身。

固然LLM不行制止的幻觉,以及用ChatGPT阐明秘密信息或敏感数据大概会带来安详风险,但五角大楼的立场,仍然是盼愿拥抱AI。

在11月的一次发言中,国防部副部长Kathleen Hicks暗示,人工智能是「我和Lloyd Austin部长从第一天起,就一直在敦促的以作战人员为中心的创新的要害部门」。

宿将出走,员工炮轰,接下来的OpenAI,会在「惯会说谎」的Sam Altman治下走向何方?

参考资料:

https://www.reddit.com/r/singularity/comments/1cyn4yy/its_becoming_increasingly_clear_that_openai/

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。