昨晚,Ilya Sutskever新成立的人工智能安全公司SSI(Safe Superintelligence Inc.),宣布获得10亿美元的融资。

还没产品,靠人才就吸金10亿美元!Ilya新公司仅10人团队估值50亿_搜索引擎

参与本次投资的公司有:Andreessen Horowitz(a16z)、Sequoia Capital、DST Global、SV Angel和NFDG,这几家都是全球顶尖的风险投资机构,在科技行业有非常大的影响力。

对于一家成立仅2个月的公司获得10亿美元融资,这在科技行业是极其罕见的。果然是人才就是吸金。

SSI计划利用这笔资金用于开发人工智能安全系统,以及……招人!

SSI今年6月份创立,目前据透露只有10名员工。其中包括了封面上的三位SSI的联创。依次是:

  • Daniel Gross,曾任职于苹果公司,负责机器学习和人工智能方面的项目;
  • Ilya Sutskever,曾任职于OpenAI,AI领域最具影响力的技术专家之一;
  • Daniel Levy,曾任职于OpenAI,是AI领域杰出的研究人员。

这三位是怎么走到一块去的?

追溯到去年底,OpenAI解雇了首席执行官Sam Altman。而据外媒The Information猜测,此举可能与OpenAI十一位联创之一的Ilya Sutskever有关,他担忧人工智能的安全性,与Sam Altman出现分歧,于是“策划”了此事件。

而后续Sam Altman又回到了OpenAI。后因为理念不合,今年5月份,Ilya Sutskever突然发文宣称,自己将离开OpenAI,并从事一些个人追求的项目。

还没产品,靠人才就吸金10亿美元!Ilya新公司仅10人团队估值50亿_基础设施_02

而后续一个月内,Ilya几乎销声匿迹。直到今年6月,Ilya宣布自己建立了一家人工智能安全公司。

这个公司就只有一个目标:构建安全的超级智能系统。重点是一定要安全!

在那时,SSI招人的基准就是:只招认同这个公司理念的人才。

于是,Ilya得到了两位联创:Daniel Levy和Daniel Gross。SSI也就组起了一个10人团队。

作为Ilya的同事,Daniel Levy曾在OpenAI与Ilya一起致力于AI超级对齐工作,Levy说:“我的愿景与Ilya的愿景完全相同:建立一个精干的小团队,而每个人都专注于‘安全超级智能’这个唯一目标。”

而Daniel Gross曾在苹果公司任职AI领域负责人,此外他还经营着投资企业NFDG(同样参与了本次SSI融资)。

三位联创中,Ilya和Gross都是在以色列长大的。因此SSI的10人团队,也主要分布在美国加州,以及以色列的特拉维夫。

就在昨晚SSI宣布获得10亿美元融资后,SSI计划将这笔钱用在两个方向:研发和招人。招人的基准依旧是“认同理念+顶尖人才”。

这里插一嘴,OpenAI现在已经有1700余名员工了……而八月底,OpenAI发起了新一轮融资,同样获得了10亿美元(其老股东Thrive Capital领投),同时微软、苹果也均有参与投资的意向。

当然,据路透社报道,刚创立三个月的SSI,并不愿意透露其估值,但有关人士透露,该公司估值已经高达50亿美元了……

果然人才就是吸金啊!

但是目前关于SSI公司,外界还尚不知道具体的产品是什么。

在接受路透社采访时,Gross强调:

对我们来说,我们的投资者能理解、尊重和支持我们的使命是非常重要的,那就是直接实现安全的超级智能,我们会特地花几年时间对我们的产品进行研发,然后再将其推向市场。

对于未来的情况,SSI表示,它计划在算力方面与云服务提供商和芯片公司合作,以满足其计算能力的需求,但尚未决定将与哪些公司合作。当然,通常这些AI初创公司都会选择与Nvidia合作,来满足其基础设施需要。

网友表示:还得是老黄是赢家。

对于这家新兴的安全公司,网友们也是纷纷表达了自己的看法,有褒有贬。

首先是比较支持Ilya工作的人:

还没产品,靠人才就吸金10亿美元!Ilya新公司仅10人团队估值50亿_人工智能_03

还没产品,靠人才就吸金10亿美元!Ilya新公司仅10人团队估值50亿_估值_04

还有人在打趣,你们要招人的话,不如把OpenAI还在休假的总裁Greg Brockman挖过去吧。

还没产品,靠人才就吸金10亿美元!Ilya新公司仅10人团队估值50亿_搜索引擎_05

另外,还有人觉得SSI会走OpenAI的老路:

说自己“open”的AI公司已经“close”了,你们的safe不会也变成unsafe吧。

还没产品,靠人才就吸金10亿美元!Ilya新公司仅10人团队估值50亿_搜索引擎_06

此外,还有人担心SSI的safe可能会“跑题”:

在Ilya眼中,safe的AI就是人类可以掌控的AI,但如果AI掌控在一些独裁者手里,那AI可能会变成独裁专制和误导舆论的工具。

对于安全的人工智能的押注,可能取决于是谁在掌控AI,希望Ilya做出明确的选择。

我很期待:Ilya和SSI的旅途,究竟会走向何方?