quinta-feira, 2 de abril de 2015

Para o filósofo sueco Nick Bostrom, a inteligência artificial poderá acabar com a humanidade

IAcredito  O filósofo sueco Nick Bostrom é diretor do Centro para o Futuro da Humanidade na Universidade de Oxford (Reino Unido). Lá, sua função é pensar sobre os riscos existenciais a ameaçar a vida humana: pandemias, desastres naturais, choque de um asteroide com a Terra a eclosão de um conflito nuclear generalizado.

Para ele, entretanto, pandemias e desastres naturais podem causar uma perda de vida colossal e catastrófica, mas ele acredita que a humanidade estaria propensa a sobreviver.
Nick BostromIsso porque nossa espécie já sobreviveu a milhares de anos de doenças, fome, enchentes, predadores, perseguições, terremotos e mudanças ambientais. Por isso, as chances ainda estão a nosso favor.
E ao longo do espaço de um século, ele afirma que o risco de extinção em decorrência do impacto de asteroides e super-erupções vulcânicas permanecem sendo extremamente pequeno.
Até mesmo as perdas sem precedentes autoimpostas no século 20, com duas guerras mundiais e epidemia de gripe espanhola, deixaram de prevenir a ascensão do crescimento da população humana global.
Inteligencai artificail 1Mas em seu novo livro, “Superintelligence: paths, dangers and strategies” (algo como “Superinteligência: caminhos, perigos e estratégias)” ele discute um problema digno de filme de ficção científica: o surgimento de uma espécie de inteligência artificial capaz de aprender e se aprimorar sozinha.
Segundo ele, se mal projetada, essa chamada superinteligência será o principal risco que a humanidade enfrentará ao longo do próximo século. “Uma inteligência artificial bem sucedida seria o maior evento da história humana. Infelizmente, também poderia ser o último”.
Máquinas que odeiam e escravizam humanos são já lugar-comum no cinema. Bostrom explica que os avanços experimentados no campo da inteligência artificial levarão à criação de máquinas super capazes. Mas elas não vão nos odiar.
Stephen Hawking

Em uma entrevista à BBC, o físico britânico Stephen Hawking disse que “as formas primitivas de inteligência artificial plena poderia significado o fim da raça humana”
“Essas máquinas serão indiferentes a nós”. Elas serão perigosas porque terão um objetivo final, que vão cumprir mesmo que isso ponha pessoas em risco. Digamos que, entre as instruções dadas a uma máquina superinteligente, esteja a tarefa de permanecer sempre carregada com energia elétrica.
Ela não vai sentir remorsos se, para isso, precisar deixar populações inteiras sem luz em casa. Para evitar que a tecnologia fique perigosa demais, Bostrom explica que os cientistas devem se concentrar em resolver o problema do controle - descobrir como controlar e, se necessário, desligar, uma máquina que será mais inteligente que qualquer ser humano.