Warning: "continue" targeting switch is equivalent to "break". Did you mean to use "continue 2"? in C:\xampp\htdocs\templates\gk_evonews\lib\menu\GKBase.class.php on line 96
Ex-presidente do Google diz que “humanos terão uma espécie de ‘segundo eu’ feito por inteligência artificial”
Quinta, Outubro 31, 2024
Follow Us
Ex-presidente do Google diz que “humanos terão uma espécie de ‘segundo eu’ feito por inteligência artificial”

Por André Lucena, do Olhar Digital

Em uma das palestras mais impactantes da Collision Conference, realizada em Toronto, no Canadá, e com cobertura in loco do Olhar Digital, Eric Schmidt, fundador da Schmidt Futures, afirmou que, nos próximos cinco anos, os humanos terão uma espécie de “segundo eu” feito por inteligência artificial que vai representá-los em certas ocasiões.

“Você terá um sistema que vai assistir você, que você poderá treinar, que poderá falar como você, e que poderá representar você com algumas limitações em certas situações”, disse ele.

“Também teremos um poderoso assistente de inteligência artificial que nos dará conselhos. ‘Essa é uma boa pessoa, essa é uma má pessoa, você pode ir para este lugar e você não deve contar esta história pois ela é ruim'”, acrescentou Schmidt.




Ex-presidente e CEO do Google, Eric Schmidt, comentou a declaração de Blake Lemoine, engenheiro de software sênior do Google, de que a ferramenta de inteligência artificial do Google chamada LaMDA (Modelo de Linguagem para Aplicações de Diálogo) ganhou vida própria: “O que acontece é que a LaMDA é assustadora no sentido de que você realmente pensa que está falando com alguém que tem conhecimento. Ela é útil, mas não consciente. Nenhum dos pesquisadores de IA acredita que seja”.

Schmidt acrescentou dizendo que a “inteligência artificial é um sistema que sempre está aprendendo”. “Mas não podemos deixar que as inovações mudem as nossas vidas. O melhor amigo de uma criança não pode ser um robô. Ela não pode chegar em um robô e dizer: ‘vou te contar um segredo'”.

Por fim, ele ressaltou que os “humanos não podem deixar as máquinas decidirem se vão atacar pois isso é perigoso”.

-
Por Olhar Digital.

Log in or Sign up