Especialistas dizem que a inteligência artificial avançada deve ser regulada como armas nucleares
Algoritmos sobre-humanos capazes de superar a nossa capacidade já estão a caminho e podem representar uma ameaça mortal para a humanidade. Pelo menos é o que dizem pesquisadores da Universidade de Oxford.
Em uma apresentação ao comitê britânico de Ciência e Tecnologia (“Science and Technology Select Committee”) os especialistas alertaram que uma IA avançada poderia conseguir tomar o controle da sua programação original.
O que isso significa?
Na prática, robôs poderiam aprender a criar e até encontrar maneiras de atingir seus próprios objetivos, por exemplo, bem nos moldes de seriados de ficção como ‘Westworld’. O estudante de doutorado Michael Cohen acrescenta que essa nova classe de IA será muito mais inteligente, ou seja, seria quase impossível interromper sua ação depois que o “gênio saísse da garrafa”.
“Se eu fosse uma IA tentando criar uma trama tortuosa, copiaria meu código em alguma outra máquina que ninguém conhece, então seria mais difícil desligar o plugue”, disse Cohen.
Desenvolvimento de IA virou corrida armamentista
Os pesquisadores também apontam que ainda não há limites conhecidos “para o avanço da IA”, ou seja, o desenvolvimento da tecnologia acabou virando uma espécia de “corrida armamentista”, com países e empresas de tecnologia competindo para ver quem sai na frente na criação de algoritmos de aprendizado de máquina mais eficientes.
Acho que estamos em uma enorme corrida armamentista de IA, geopoliticamente com os EUA contra a China. Entre as empresas de tecnologia parece haver essa disposição de jogar segurança e cautela pela janela e correr o mais rápido possível para a IA mais avançada
Michael Osborne, professor de aprendizado de máquina na Universidade de Oxford
O professor acrescenta ainda que sistemas baseados em inteligência artificial podem se tornar especialistas em nos enganar.
Como evitar o “domínio das máquinas”?
Uma solução sugerida para conter os avanços desenfreados no campo de IA seria criar uma regulamentação global para impedir que empresas criem sistemas com potencial de sair fora de controle. Osborne espera que países em todo o mundo reconheçam a “ameaça existencial” da IA avançada e se juntem para estabelecer tratados contra o desenvolvimento de sistemas perigosos. “(…) fomos muito bons em regular o uso de armas nucleares”, finalizou.
Por fim, os parlamentares também foram informados de que em algumas áreas, como carros autônomos, a IA ainda não avançou como o esperado, entretanto, em outras, como geração inteligente de texto, a tecnologia foi muito mais adiante.
Uma previsão mais positiva é que ao menos trabalhos tediosos e tarefas repetitivas logo se tornarão automatizados. No entanto, é improvável que cargos criativos e de liderança sejam totalmente substituídos por IA no curto prazo.
O que vem por aí?
Especialista concluíram que até o final do século é esperado que a inteligência artificial supere a capacidade dos humanos. É justamente aí que o risco de surgir algo parecido com a Skynet deve aumentar.
Imagem principal: Mopic/Shutterstock
Via: Telegraph / Olhar Digital.