Ilya Sutskever, cofundador e ex-chefe científico da OpenAI, está embarcando em um novo empreendimento focado em segurança no campo da inteligência artificial. Na quarta-feira, Sutskever revelou a Safe Superintelligence Inc. (SSI), uma startup com “um objetivo e um produto”: criar um sistema de IA seguro e poderoso.
O anúncio descreve a SSI como uma empresa que “aborda segurança e capacidades em conjunto”, permitindo o rápido avanço de seu sistema de IA, sempre priorizando a segurança. Também critica a pressão externa enfrentada por equipes de IA em empresas como OpenAI, Google e Microsoft, afirmando que o “foco singular” da SSI permite evitar “distrações por burocracia gerencial ou ciclos de produtos”.
“Nosso modelo de negócio significa que segurança, proteção e progresso estão todos isolados de pressões comerciais de curto prazo”, diz o anúncio. “Dessa forma, podemos crescer com tranquilidade.” Além de Sutskever, a SSI é cofundada por Daniel Gross, ex-líder de IA da Apple, e Daniel Levy, que anteriormente trabalhou como membro da equipe técnica.
A nova rivalidade, SSI vs OpenAI
No ano passado, Sutskever liderou a investida para derrubar o CEO da OpenAI, Sam Altman. Sutskever deixou a OpenAI em maio e deu indícios do início de um novo projeto. Logo após a saída de Sutskever, o pesquisador de IA Jan Leike anunciou sua renúncia da OpenAI, citando processos de segurança que “ficaram em segundo plano para produtos chamativos”. Gretchen Krueger, pesquisadora de políticas da OpenAI, também mencionou preocupações com segurança ao anunciar sua saída.
Com a OpenAI avançando em parcerias com Apple e Microsoft, provavelmente não veremos a SSI fazer o mesmo tão cedo. Durante uma entrevista com a Bloomberg, Sutskever disse que o primeiro produto da SSI será a superinteligência segura, e a empresa “não fará nada mais” até então.