AI: um risco para a humanidade antes de atingir a inteligência humana
Eu cresci assistindo filmes como o do “Exterminador do Futuro” e o roteiro deles era sempre o mesmo. Primeiro, as máquinas tomam o controle sobre a Terra e chega ao ápice com estas máquinas tentando erradicar a humanidade. Entretanto, nem sempre era claro se as máquinas queriam nos destruir desde o começo ou se tomam esta decisão como uma estratégia de defesa contra os seres humanos que tentam retomar o controle do planeta. As únicas pessoas que podem ter esta resposta são os roteiristas James Cameron e Gale Anne Hurd.
Utopia ou realidade, os clássicos da ficção científica (Sci-Fi) não impediram que nós, seres humanos, imaginássemos sobre os possíveis cenários quando a Inteligência Artificial evoluir nas próximas décadas. Além de pensar no que pode acontecer quando superarem nossa própria inteligência. Ainda há pessoas que acreditam que este é um tópico para amantes de filmes Sci-Fi, mas muitos cientistas inteligentes levam este assunto muito a sério.
Nick Bostrom, por exemplo, escreveu um livro que muitos acreditam ser um marco nas discussões sobre Inteligência Artificial. O “Superinteligência: Caminhos, Perigos, Estratégias” discute, entre vários tópicos relacionados a Inteligência Artificial, alguns dos possíveis cenários que a humanidade enfrentará.
Outro cientista que trata do assunto é Max Tegmark, autor do livro “Life 3.0” (ainda sem tradução para o português). Publicado em 2018 a obra aponta o estágio evolutivo atual das tecnologias para Inteligência Artificial, bem como suas crenças de que realmente vamos lidar com uma Inteligência Artificial mais esperta do que nós. Além disso, Tegmark nos leva para possíveis cenários que podem ser encontrados de forma resumida no artigo “Summary of 12 AI Aftermath Scenarios”, disponível no site do Instituto do Futuro da Vida (Future of Life Institute).
Eu estou entre as pessoas que consideram que a evolução da Inteligência Artificial é um tópico a ser discutido. E não, eu não acho que é inevitável as máquinas assumirem a Terra ou mesmo que elas nos superem. Isso porque há muitas variáveis a serem consideradas, incluindo como será simbiótico a evolução humana e das máquinas. Uma das possibilidades é que podemos nos juntar com uma nova espécie.
Entretanto, há outros riscos a serem considerados. E diria que acontecerão até mais cedo do que o momento em que as máquinas tenham inteligência equivalente à dos seres humanos. Estou muito preocupado com o risco existencial associado com o período em que a Inteligência Artificial ainda não é mais inteligente do que nós, seres humanos, e mesmo assim começamos a acreditar que ela é. E neste momento, decidimos transferir o poder para ela que pode sim nos “deletar”, não porque ela quer, mas porque não sabe realmente o que é o melhor.
Entre muitas coisas a serem discutidas, ainda tem a Inteligência Artificial Geral (General AI) – não especializada em uma única função –, que gera uma discussão mais crítica ainda. Com relação a outra vertente já presente em nossas vidas e cada dia se tornará mais comum, a Inteligência Artificial Estreita (Narrow AI) – focada em um tipo de função –, está o real entendimento de sua capacidade tecnológica, bem como seus limites técnicos. O que mantem esta tecnologia em cheque por um período prolongado, antes que possamos realmente confiar nela.
Deixo como um alívio para quem acredita que as máquinas irão virar contra a humanidade a realidade que nós, seres humanos, não analisamos apenas os dados para tomar uma decisão. Chegar a uma conclusão envolve, entre outras coisas, a empatia e nós não conseguimos nem mesmo simulá-la completamente em nosso estágio atual da evolução tecnológico.
Sim, precisamos seguir em frente, como em Star Trek, indo para onde nenhum homem tenha ido antes. Ao mesmo tempo, não podemos esquecer que estamos indo para onde nenhum homem tenha ido antes, arriscando todo nosso planeta.