http://www.7klian.com

OpenAI前董事撰文批奥特曼:他营造“撒谎的有毒

OpenAI两名前董事日前撰文指出,私营人工智能公司不值得信任,自我禁锢在庞大利润诱惑下最终会失效,当局必需发挥努力浸染。


划重点

① OpenAI两名前董事日前撰文指出,私营人工智能公司不值得信任,自我禁锢在庞大利润诱惑下最终会失效,当局必需发挥努力浸染。

② 两人曾是OpenAI董事会中仅有的女性,于去年11月去职。她们都支持夺职CEO奥特曼,认为他缔造了 有害的 事情情况。

1

图左为:海伦 托纳(Helen Toner),图右为:塔莎 麦考利(Tasha McCauley)

腾讯科技讯 据海外媒体报道,OpenAI前董事会成员海伦 托纳(Helen Toner)和塔莎 麦考利(Tasha McCauley)日前撰文谈到了人工智能的禁锢问题。

两人别离于2018年和2021年插手OpenAI董事会,也是董事会中仅有的两名女性。在奥特曼被董事会夺职风浪平息后,她们两人于去年11月分开OpenAI董事会。

在最新文章中,她们透露,当初投票夺职奥特曼,是由于奥特曼小我私家恒久以来的行为模式,董事会维护公司使命的本领受到了越来越大的限制。多位高层率领私下向董事会称,奥特曼营造了一种 撒谎的有毒文化 ,并涉嫌 心理凌虐 行为。

她们提到,自从奥特曼重返OpenAI以来,一些成长动态令人担心,包罗他从头插手董事会,以及OpenAI一些专注于安详规模的高级人才的去职。这些环境对付OpenAI在自我管理方面的尝试来说,好像预示着一些倒霉的影响。

她们认为,为了让人工智能的成长惠及所有人,当局此刻就必需开始成立有效的禁锢框架。

值得一提的是,本年4月,美国创立人工智能安详委员会,该委员会将为美国要害基本设施中 安详开拓和陈设人工智能 提供发起。奥特曼在22名委员会成员之列,另外还包罗黄仁勋、皮查伊等科技公司率领人。固然也有来自非营利组织的代表,但总体而言,营利性公司率领人所占比例过高。

以下为二人联名撰写的文章全文:

在敦促革命性新技能成长的同时,私企可否分身股东好处与全球好处?当我们二人在2018年和2021年别离插手OpenAI董事会时,都曾对OpenAI创新的自我管理要领抱有审慎的乐观立场,等候它能为人工智能的认真任成长提供示范。但履历教导汇报我们,自我管理难以抵制利润的驱动。面临人工智能的双刃剑,我们不能仅凭假设认为鼓励因素老是与民众好处一致。为了让人工智能的成长成就惠及全人类,当局必需当即着手成立有效的禁锢框架。

OpenAI的创建,旨在实现一个崇高的方针:确保通用人工智能(AGI)可以或许为全人类带来福祉。作为一个非营利组织,OpenAI的创立初志是为了确保通用人工智能可以或许惠及全人类,这是一种理论上能逾越人类智能的人工智能系统。为了筹集资金,公司随后创立了一个营利性子公司,但非营利的母公司保持了主导职位。这种奇特的布局旨在确保公司可以或许恪守其原始使命,而董事会的职责是维护这一使命。

固然这是一次创新的实验,但遗憾的是,功效并未如预期般乐成。

去年11月,为了挽救自我禁锢架构,OpenAI时任董事会作出了一项重大决定,开除了CEO山姆 奥特曼。由于奥特曼小我私家恒久以来的行为模式,董事会维护公司使命的本领受到了越来越大的限制。据我们相识,这些行为不只减弱了董事会对要害决定和内部安详协议的监视本领,还激发了其他问题。多位高层率领私下向董事会表达了深切的担心,他们认为奥特曼营造了一种 撒谎的有毒文化 ,并涉嫌 心理凌虐 行为。

按照OpenAI的说法,一项内部观测发明董事会在开除奥特曼时 行使了其遍及的自由裁量权 ,但也得出结论认为他的行为未到达 必需清除职务 的水平。不外,OpenAI并未提供足够的详细细节来支持这一结论。无论是对员工、媒体照旧公家,OpenAI董事会都未将观测陈诉公之于众。这一事件凸显了在人工智能规模自我禁锢的挑战,同时也激发了对公司管理、透明度和道德尺度的深入思考。跟着人工智能技能的迅速成长,如何确保技能的伦理利用和公司的社会责任,已成为业界和禁锢机构必需面临的重要议题。

关于是否应该普遍要求 强制清除 CEO职务的问题,我们可以留待其他时间再举办深入接头。然而,在OpenAI这个非凡案例中,思量到董事会有责任提供独立的监视,并掩护公司的民众好处使命,我们刚强地支持董事会清除奥特曼CEO职务的抉择。我们还留意到,自从奥特曼重返公司以来,一些成长动态令人担心,包罗他从头插手董事会,以及OpenAI一些专注于安详规模的高级人才的去职。这些环境对付OpenAI在自我管理方面的尝试来说,好像预示着一些倒霉的影响。

我们所经验的事件通报了一个重要的警示:在人工智能的推广进程中,社会不能袖手傍观,任由私营科技公司全权掌控。在私营部分,确实有很多真诚且值得传颂的尽力,旨在认真任地敦促这项技能的成长。然而,纵然这些尽力背后的意图是努力的,假如没有有效的外部监视,自我禁锢很容易变得形同虚设,出格是在面临巨额利润诱惑时。因此,当局必需采纳努力动作,确保人工智能的成长既能促进创新,又能掩护民众好处,从而制止潜在的滥用和风险。

然而,在已往数月中,华盛顿的立法者和硅谷的投资者中,主张对人工智能规模实行最小化当局过问的呼声愈发高涨。他们倾向于将这种态度与1990年月互联网行业的放任政策相提并论,并声称这种政策曾催生了显著的经济增长。然而,这种类比并不得当,其背后埋没的误导性不容忽视。

在人工智能研究和工程规模的宽大社群中,人们普遍认识到开拓日益高级的人工智能技能所陪伴的高风险和重大挑战。正如奥特曼本人所指出的那样: 平稳过渡到一个拥有超等智能的世界,大概是人类汗青上最为要害、最布满但愿,同时也最令人忧虑的事业。 很多精巧的人工智能科学家都对他们正在缔造的技能表达了深刻的关怀,这种关怀已经被详尽记录,且与早期互联网的开拓者--措施员和网络工程师--所持有的乐观立场截然不同。

互联网的弱禁锢是否为社会带来了纯粹的好处,这一点尚不明晰。诚然,很多乐成的科技企业和他们的投资者从在线贸易勾当的宽松禁锢中得到了庞大的好处。然而,当涉及到禁锢以淘汰社交媒体上的虚假信息和错误信息、防备儿童聚敛和人口贩卖,以及应对日益严重的青少年心理康健危机时,社会是否已经找到了得当的均衡点,这一点尚不清朗。

商品、基本设施以及社会自己,均得益于禁锢的努力浸染。正是禁锢的实施,让汽车配备了安详带与气囊,让我们无需担心饮用受污染的牛奶,确保了修建的无障碍通行。明智的禁锢同样可以或许担保人工智能的好处以认真任且遍及的方法实现。一个有效的起点是拟定政策,加强当局对人工智能尖端技能希望的透明度,好比设立透明度要求和事件追踪机制。

然而,禁锢亦非无懈可击,它需要审慎处理惩罚。设计不妥的禁锢大概会对小型企业施加过重的承担,抑制竞争与创新。政策拟定者在拟定新规时,必需保持独立性,制止受领先人工智能企业的影响。他们需要鉴戒禁锢裂痕,防备形成掩护先行企业的禁锢 护城河 ,以及禁锢俘获的风险。奥特曼本人对人工智能禁锢的呼声,也应在这些潜在问题下审视,确保它不是出于自身好处的思量。一个符合的禁锢框架需要机动调解,与世界对人工智能本领领略的扩展保持同步。

我们坚信,人工智能有潜力极大地晋升人类的出产力与福祉,但这条阶梯并非没有风险。OpenAI作为一项斗胆的实验,旨在开拓日益强大的人工智能,同时将民众好处置于利润之上。然而,即便在最有利的条件下,自我管理机制也不敷以应对挑战。因此,,民众部分必需努力参加技能的成长进程。此刻是全球当局机构揭示率领力的时刻。唯有通过市场气力与隆重禁锢的得当均衡,我们才气确保人工智能的进步真正造福于全人类。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。

相关文章阅读