escatologia

Próxima IA poderá causar o arrebatamento, diz cocriador do ChatGPT

em

Em 2023, durante uma reunião interna com os principais cientistas da OpenAI, empresa criadora do ChatGPT, o cofundador Ilya Sutskever teria sugerido a construção de um “bunker apocalíptico” para proteger os pesquisadores no momento em que fosse lançada a chamada Inteligência Artificial Geral (AGI).

A declaração foi registrada por testemunhas presentes no encontro e posteriormente revelada pela jornalista Karen Hao, autora do livro Empire of AI: Dreams and Nightmares in Sam Altman’s OpenAI.

“Assim que todos entrarmos no bunker…”, afirmou Sutskever durante a conversa, sendo interrompido por um pesquisador que questionou: “Sinto muito, que bunker?”. O cofundador teria então reforçado: “Definitivamente vamos construir um bunker antes de lançarmos o AGI. Claro, será opcional se você quiser entrar no bunker”.

A AGI, segundo projeções da própria empresa, seria um sistema capaz de superar as habilidades cognitivas humanas em praticamente todas as tarefas. Entre os cientistas da OpenAI, há preocupação de que seu desenvolvimento possa gerar consequências imprevisíveis, inclusive desestabilizar ordens sociais e provocar conflitos geopolíticos.

De acordo com testemunhos reunidos por Karen Hao, o discurso de Sutskever sobre o “bunker” era recorrente nas conversas internas. “Há um grupo de pessoas – Sutskever é uma delas – que acredita que a criação da AGI trará um arrebatamento. Literalmente, um arrebatamento”, declarou um pesquisador da companhia à autora.

Descrito como uma figura enigmática, Sutskever costuma abordar temas relacionados à inteligência artificial com reflexões de caráter moral e até metafísico. Segundo o jornal New York Post, ele se recusou a comentar as declarações. No entanto, os relatos indicam que parte da equipe criadora da tecnologia expressa inquietação diante dos próprios avanços que promove.

A apreensão em relação ao futuro da IA não se restringe a Sutskever. Em 2023, o CEO da OpenAI, Sam Altman, assinou uma carta aberta ao lado de outros líderes do setor de tecnologia no Vale do Silício, alertando que os sistemas de IA poderiam representar um “risco de extinção” para a humanidade, se não forem conduzidos com responsabilidade.

A narrativa que emerge dos bastidores da OpenAI sugere um paradoxo: enquanto desenvolvem uma das ferramentas mais revolucionárias da atualidade, seus próprios criadores parecem temer os desdobramentos daquilo que estão prestes a lançar.

Trending

Sair da versão mobile