escatologia
Próxima IA poderá causar o arrebatamento, diz cocriador do ChatGPT

Em 2023, durante uma reunião interna com os principais cientistas da OpenAI, empresa criadora do ChatGPT, o cofundador Ilya Sutskever teria sugerido a construção de um “bunker apocalíptico” para proteger os pesquisadores no momento em que fosse lançada a chamada Inteligência Artificial Geral (AGI).
A declaração foi registrada por testemunhas presentes no encontro e posteriormente revelada pela jornalista Karen Hao, autora do livro Empire of AI: Dreams and Nightmares in Sam Altman’s OpenAI.
“Assim que todos entrarmos no bunker…”, afirmou Sutskever durante a conversa, sendo interrompido por um pesquisador que questionou: “Sinto muito, que bunker?”. O cofundador teria então reforçado: “Definitivamente vamos construir um bunker antes de lançarmos o AGI. Claro, será opcional se você quiser entrar no bunker”.
A AGI, segundo projeções da própria empresa, seria um sistema capaz de superar as habilidades cognitivas humanas em praticamente todas as tarefas. Entre os cientistas da OpenAI, há preocupação de que seu desenvolvimento possa gerar consequências imprevisíveis, inclusive desestabilizar ordens sociais e provocar conflitos geopolíticos.
De acordo com testemunhos reunidos por Karen Hao, o discurso de Sutskever sobre o “bunker” era recorrente nas conversas internas. “Há um grupo de pessoas – Sutskever é uma delas – que acredita que a criação da AGI trará um arrebatamento. Literalmente, um arrebatamento”, declarou um pesquisador da companhia à autora.
Descrito como uma figura enigmática, Sutskever costuma abordar temas relacionados à inteligência artificial com reflexões de caráter moral e até metafísico. Segundo o jornal New York Post, ele se recusou a comentar as declarações. No entanto, os relatos indicam que parte da equipe criadora da tecnologia expressa inquietação diante dos próprios avanços que promove.
A apreensão em relação ao futuro da IA não se restringe a Sutskever. Em 2023, o CEO da OpenAI, Sam Altman, assinou uma carta aberta ao lado de outros líderes do setor de tecnologia no Vale do Silício, alertando que os sistemas de IA poderiam representar um “risco de extinção” para a humanidade, se não forem conduzidos com responsabilidade.
A narrativa que emerge dos bastidores da OpenAI sugere um paradoxo: enquanto desenvolvem uma das ferramentas mais revolucionárias da atualidade, seus próprios criadores parecem temer os desdobramentos daquilo que estão prestes a lançar.

-
justiça5 horas atrás
Nicodemus sobre Malafaia: ‘Juízes darão contas a Deus’
-
igreja1 dia atrás
Candidatura de Malafaia à presidência gera debate entre pastores
-
política4 dias atrás
Pastor Josué Valandro Jr alerta: “Brasil caminha para ditadura”
-
política1 dia atrás
Profecia na AD Perus envia recado a Tarcísio: ‘Fica na cadeira’
-
política4 dias atrás
Malafaia rebate críticas sobre linguagem: ‘Cuida da sua vida’
-
testemunhos5 dias atrás
Cristã presa no Irã mantém fé, impacta guarda e é libertada
-
igreja perseguida4 dias atrás
Missão envia anualmente 40 mil Bíblias em balões para a Coreia do Norte
-
justiça4 dias atrás
Mendonça acompanha Nunes Marques e vota contra condenação de Zambelli
-
mundo4 dias atrás
Pastor alerta: ‘Não é hora de baixar o tom contra o mal’
-
mundo4 dias atrás
Análise evangélica destaca 100 primeiros dias do papa Leão XIV
-
justiça4 dias atrás
André Mendonça prega limites ao STF em evento no RJ
-
mundo5 dias atrás
Cidade muda igreja histórica de lugar em megaoperação