近日,OpenAI治理研究员Richard Ngo宣布离职,引发了广泛关注。
他在离职信中表达了对AGI(人工智能通用智能)发展的困难和担忧,认为实现OpenAI的使命——让AGI良好发展面临着巨大的挑战。
同时,他也表示对过去一年里发生的事件有很多未解的问题,让他难以相信自己的工作能在长期内造福世界。
这一事件也凸显出OpenAI中专注于AI安全的员工流失的问题。
本文将围绕Richard Ngo的离职、AI安全员工流失潮以及AGI发展的挑战展开讨论。
Richard Ngo自2021年起加入OpenAI,此前曾在Google DeepMind担任AI安全研究员。
他在离职信中提到,自己逐渐意识到实现OpenAI的使命——让AGI良好发展是困难的。
他认为自己对过去一年里发生的事件有很多未解的问题,这让他难以相信自己的工作能在长期内造福世界。
因此,他决定离开OpenAI,进行独立研究,并探索多种研究方向。
近年来,OpenAI中专注于AI安全的员工流失现象愈发严重。
除了Richard Ngo外,OpenAI七年元老、安全副总裁Lilian Weng,以及研究主管Miles Brundage等人都相继离职。
据公开报道,今年早些时候,OpenAI的超级对齐共同负责人Ilya Sutskever和Jan Leike也离开了公司。
Leike曾表示,“OpenAI的安全文化和流程已被耀眼的产品所取代”。
这一现象引发了人们对OpenAI内部文化和管理机制的担忧。
AGI的发展是人工智能领域的重要课题,也是OpenAI的使命所在。
要实现AGI的良好发展面临着巨大的挑战。
预测未来本身就很困难,而且由于AGI前景的巨大规模,容易放大人们的偏见、合理化和部落主义倾向。
随着AGI的发展,风险也会不断增大。
因此,需要更多的研究者和企业以正直、深思熟虑的态度来应对这些挑战。
同时,也需要明确何时以及如何做出的决定才能真正服务于使命。
Richard Ngo是AI安全社区中一个有影响力的声音,自2018年以来一直致力于AI安全研究。
他是本文《The Alignment Problem from a Deep Learning Perspective》的共同作者,已在ICLR上发表。
他还收集了很多学习资料,编成了一系列“AI Alignment”的课程。
同时,他还拥有机器学习哲学的哲学博士和计算机科学的哲学硕士学位。
他的人文气息和科技从业者的身份使他坚守初心并对AI安全未来充满担忧。
他还在博客里撰写了“AI Autofiction”(AI自传小说),描述了从未来AI的角度来看世界可能是什么样子。
Richard Ngo的离职引发了人们对OpenAI内部状况的关注和思考。
同时,AGI发展的挑战和AI安全的问题也日益凸显。
我们需要更多的研究者和企业以正直、深思熟虑的态度来应对这些挑战,确保人工智能的发展真正造福人类。
本文地址: https://www.gosl.cn/yxzxwz/449b80480d322a1f4d7a.html
上一篇:DNF手游在中国收入大涨...