人物
Ilya Sutskever
6月19日,OpenAI原联合创始人、首席科学家伊尔亚·苏茨克维(Ilya Sutskever)通过社交平台X宣布了他的下一个方向:创办一家名为“安全超级智能”(SSI)的新公司。苏茨克维称,新公司“只有一个重点、一个目标和一个产品”,即一款安全的超级智能。
苏茨克维此番创业受到业界广泛关注。这不仅是因为他是OpenAI的联合创始人之一,同时他也是去年戏剧性地令OpenAICEO山姆·阿尔特曼一度离开OpenAI的关键人物之一。CNN撰稿人卡拉·斯威舍(Kara Swisher)此前报道称,苏茨克维曾担心阿尔特曼推动人工智能技术“太过激进、太快”。但在阿尔特曼被罢免几天后,苏茨克维改变了主意:他签署了一封员工信,呼吁整个董事会辞职,并要求阿尔特曼回归,后来他表示“深深”后悔自己在这场闹剧中扮演的角色。今年5月,苏茨克维在事隔半年后宣布离职。
苏茨克维学生时代曾在被称为“人工智能教父”的杰弗里·辛顿的机器学习实验室工作,后加入过Google的AI研究团队。而后,他在2015年参与创立了OpenAI,在离职前主要负责研究如何确保AI不危害人类利益。
除了苏茨克维,SSI还有两位创始人,苹果前高管、Y-Combinator合伙人DanielGross和OpenAI前研究员Daniel Levy。对于SSI的产品形态、盈利模式、投资规模以及如何定义安全,三人均未有所透露。不过在一份公告中,SSI表示:“我们将安全性和能力视为通过革命性工程和科学突破来解决的技术难题。我们计划尽快提高能力,同时确保安全性始终保持领先地位。这样我们就可以安心扩展规模。我们专注于一个目标,这意味着不会受管理开销或产品周期的干扰。我们的商业模式可以保证所追求的安全和进步不会受短期商业压力的影响。”这份声明既表达了SSI 的目标,同时也被外界解读为变相解释了苏茨克维为何离开OpenAI。