财联社5月28日讯(编辑 史正丞)当地时间周二,OpenAI发布公告称董事会成立一个负责把控AI开发方向的安全委员会。在这个看似平平的公告标题下,还隐藏着一条重磅消息——传言已久的“GPT-5”已经开搞了!
(来源:OpenAI)
OpenAI在公告中表示,近些日子已经开始训练公司的“下一代前沿模型”,预计这个新系统将达到通往AGI(通用人工智能)的“下一个能力水平”。
作为背景,OpenAI在2023年3月发布GPT-4。单单凭借总裁布洛克曼画在笔记本上的草图,GPT-4就能构建出一个真实的网站。相信有不少股民,也是从看到这一幕后才开始相信“AI或许真的能改变些什么”。
(来源:OpenAI)
自那以后,OpenAI围绕着GPT-4逐步推出一系列文字、图片、音频和视频生成应用。就在两周前,公司刚刚发布了最新版本的GPT-4o。通过显著提高模型的交互速率,实现了像真人对话一样的“实时互动”。归根结底,各方面都稍强一些的GPT-4o依然没有跳脱出GPT-4的能力范畴。
正因如此,外界对于“GPT-5”的期待一直颇高。不过根据OpenAI最新的表述,下一代大模型恐怕要到明年才能与公众见面。AI模型通常需要数月、乃至几年时间来训练,而在面向公众发布前,开发团队还需要进行数月的微调。
举例而言,虽然大多数股民是在2023年3月才初见GPT-4,比尔·盖茨和微软的高管们早在2022年9月就已经在盖茨家里见过这个东西了。
对AGI的愿景也变了
随着OpenAI构建的AI越来越接近人类智慧的水平,公司在通用人工智能方面的表述也变得更加谨慎。
OpenAI全球事务副总裁Anna Makanju周二接受采访时表示,OpenAI的使命是构建可以做到“当前人类认知水平”任务的通用智能。
早些年奥尔特曼吹牛时曾说过,OpenAI的最终目标是构建比人类更加先进的“超级智能”。他还曾表示,自己有一半的时间是在构想如何打造“超级人工智能”。
安娜强调,OpenAI的目标是构建通用人工智能,而不是超级智能,后者要比地球上的人类聪明好几个数量级。
应对“安全危机”
OpenAI的最新公告,也在应对另一场舆论危机——本月早些时候,公司联合创始人Ilya Sutskever 辞职,他所负责的“超级对齐团队”,正是为了应对超级智能系统的潜在的安全性问题设立。
随着这个团队被解散,一些团队成员也在互联网上抨击OpenAI管理层边缘化安全团队。值得一提的是,去年底的OpenAI内乱,也正是董事会成员Sutskever投出了赶走奥尔特曼的关键一票。待奥尔特曼重掌大权后,新董事会里并没有Sutskever的席位。
OpenAI周二宣布,成立由奥尔特曼以及另外3名董事领导的安全委员会,负责向董事会就OpenAI项目和运营的关键安全决策提出建议。新委员会的首要任务将是在接下来90天内,评估和进一步发展OpenAI的流程和保障措施。经董事会审查后,OpenAI将公开分享被采纳的更新。