A ideia da IA (inteligência artificial) derrubando a humanidade tem sido discutida há décadas e, em 2021, os cientistas deram seu veredicto sobre se seríamos capazes de controlar uma superinteligência computacional de alto nível.
A resposta? Quase definitivamente não. A teoria foi exposta em artigo publicado no Journal of Artifical Intelligence Research.
O problema é que controlar uma superinteligência muito além da compreensão humana exigiria uma simulação dessa superinteligência que pudéssemos analisar (e controlar). Mas, se não formos capazes de compreendê-lo, é impossível criar tal simulação.
Regras, como “não causar danos aos humanos” não podem ser estabelecidas se não entendermos o tipo de cenário que uma IA apresentará, sugerem os autores de novo artigo.
Uma vez que um sistema de computador está funcionando em nível acima do escopo dos programadores, não podemos mais estabelecer limites. “Uma superinteligência apresenta problema fundamentalmente diferente daqueles tipicamente estudados sob a bandeira da ‘ética robótica'”, escreveram os pesquisadores.
“Isso ocorre porque uma superinteligência é multifacetada e, portanto, potencialmente capaz de mobilizar diversidade de recursos para atingir objetivos potencialmente incompreensíveis para os humanos, muito menos controláveis”, salientaram.
Parte do raciocínio da equipe veio do problema da parada, proposto por Alan Turing em 1936. O problema se concentra em saber se um programa de computador chegará ou não a uma conclusão e responderá (portanto, ele para), ou se entrará em loop eterno tentando encontrar uma conclusão.
Como Turing provou por meio de matemática inteligente, embora possamos saber isso para alguns programas específicos, é logicamente impossível encontrar uma maneira que nos permita saber isso para cada programa potencial que possa ser escrito.
Isso nos traz de volta à IA, que, em estado superinteligente, poderia armazenar todos os programas de computador possíveis em sua memória de uma só vez.
“Se não vamos usá-lo (IA) para resolver problemas além do escopo dos humanos, então por que criá-lo?” (Imagem: Lidiia/Shutterstock) |
Qualquer programa escrito para impedir que a IA prejudique os humanos e destrua o mundo, por exemplo, pode chegar a uma conclusão (e parar) ou não – é matematicamente impossível para nós ter certeza absoluta de qualquer maneira, o que significa que não é possível de conter.
“Na verdade, isso torna o algoritmo de contenção inutilizável”, disse o cientista da computação Iyad Rahwan, do Instituto Max-Planck de Desenvolvimento Humano, na Alemanha, em 2021.
A alternativa para ensinar alguma ética à IA e dizer a ela para não destruir o mundo – algo que nenhum algoritmo pode ter certeza absoluta de fazer, disseram os pesquisadores – é limitar as capacidades da superinteligência. Pode ser cortado de partes da internet ou de certas redes, por exemplo.
O estudo, porém, também rejeitou essa ideia, sugerindo que ela limitaria o alcance da inteligência artificial. O argumento é que, se não vamos usá-lo para resolver problemas além do escopo dos humanos, então por que criá-lo?
Se vamos avançar com a inteligência artificial, talvez nem saibamos quando chega uma superinteligência além do nosso controle, tamanha é sua incompreensibilidade.
Isso significa que precisamos começar a fazer algumas perguntas sérias sobre as direções em que estamos indo. “Uma máquina superinteligente que controla o mundo soa como ficção científica”, disse o cientista da computação Manuel Cebrian, do Instituto Max-Planck, também em 2021.
“Mas já existem máquinas que realizam certas tarefas importantes de forma independente, sem que seus programadores entendam totalmente como aprenderam. Surge, portanto, a questão de saber se isso pode, em algum momento, se tornar incontrolável e perigoso para a humanidade”, concluiu.
Imagem destacada: maxuser/Shutterstock
-
Por Science Alert / Olhar Digital.