O físico Stephen Hawking dedicou parte de sua carreira a refletir sobre o futuro da humanidade e os perigos que podem levar à sua extinção
Stephen Hawking, um dos físicos mais renomados da História, dedicou parte de sua carreira a refletir sobre o futuro da humanidade e os perigos que podem levar à sua extinção. Para ele, o avanço científico e tecnológico, apesar de essencial para o progresso, também carrega riscos que não podem ser ignorados.
Durante as Reith Lectures, série de palestras transmitida pela BBC Radio 4, Hawking alertou que, embora a probabilidade de um desastre global em um único ano seja baixa, o acúmulo desses riscos ao longo dos séculos torna o colapso da civilização praticamente inevitável.
Segundo ele, quatro cenários representam as maiores ameaças criadas pela própria humanidade. Confira:
Stephen Hawking via o avanço da inteligência artificial como uma ameaça potencial à existência humana. Em entrevista à BBC em 2014, alertou que "o desenvolvimento de uma inteligência artificial total pode levar ao fim da raça humana".
Para ele, as formas primitivas de IA já demonstraram sua utilidade, mas o risco surge quando as máquinas alcançam ou superam a inteligência humana. "(As máquinas) iriam evoluir sozinhas, refazer o próprio projeto a uma velocidade cada vez maior. Humanos, que são limitados por uma evolução biológica lenta, não poderiam competir e seriam substituídos”, afirmou.
Se a humanidade não for destruída por máquinas superinteligentes, pode acabar causando sua própria ruína. Em uma palestra no Museu da Ciência de Londres em 2015, Hawking destacou a agressão como uma das maiores falhas humanas e alertou sobre seus riscos no mundo moderno.
Ele explicou que, embora esse comportamento tenha sido vantajoso para os primeiros humanos – garantindo recursos, território e parceiros –, hoje representa uma ameaça existencial.
Com arsenais nucleares capazes de devastar o planeta, a possibilidade de um conflito de grandes proporções é uma das maiores preocupações da atualidade. "Uma grande guerra mundial significaria o fim da civilização e talvez o fim da raça humana", advertiu o cientista, segundo a BBC News.
Em entrevista ao Daily Telegraph, Hawking alertou sobre o risco de a humanidade ser exterminada por um vírus criado por ela mesma.
"No longo prazo, fico mais preocupado com a biologia. Armas nucleares precisam de instalações grandes, mas engenharia genética pode ser feita em um pequeno laboratório. Você não consegue regulamentar cada laboratório do mundo. O perigo é que, seja por um acidente ou algo planejado, criemos um vírus que possa nos destruir", afirmou o cientista ao jornal.
Para ele, a sobrevivência da espécie a longo prazo depende da colonização espacial: "Não acho que a raça humana vai sobreviver aos próximos mil anos, a não ser que nos espalhemos pelo espaço. Há muitos acidentes que podem afetar a vida em um único planeta”.
No documentário A Última Hora (2007), Hawking apresentou um cenário apocalíptico para o futuro da humanidade como consequência do aquecimento global.
"Uma das consequências mais graves de nossas ações é o aquecimento global, causado pela emissão de crescentes níveis de dióxido de carbono resultantes da queima de combustíveis fósseis. O perigo é que o aumento da temperatura se transforme em (um processo) autossustentável, se é que já não está assim", destacou.
"Além disso, o derretimento das calotas polares vai reduzir a quantidade de energia solar refletida de volta para o espaço e assim aumentar ainda mais a temperatura. Não sabemos se o aquecimento global vai parar, mas o pior cenário possível é que a Terra se transforme em um planeta como Vênus, com uma temperatura de 250 graus na superfície e chuvas de ácido sulfúrico. A raça humana não pode sobreviver nestas condições", acrescentou.