Google afasta engenheiro que diz que inteligência artificial 'tem alma'
Blake Lemoine fez um estudo interno para comprar que software tinha sentimentos e emoções
O Google afastou um de seus engenheiros, colocando em licença remunerada, após ele afirmar por meio de um estudo que a inteligência artificial da empresa, LaMDA, tem consciência -- capaz de ter sentimentos e emoções.
+ Confira as últimas notícias de Tecnologia
+ Leia as últimas notícias no portal SBT News
Na companhia de tecnologia, Blake Lemoine tem a função de engenheiro de software sênior em Inteligência Artificial. Ele disse em entrevista ao jornal The Washington Post que foi afastado da empresa na última 2ªfeira (13.jun) depois do setor de recursos humanos afirmar que ele violou uma política de confidencialidade da bigtech.
Lemoine teria dado informações sobre o Modelo de Linguagem para Aplicativos de Diálogo, ou LaMDA, que é a inteligência artificial da que está em desenvolvimento pela Google, e que o sistema teria alma e consciência.
Segundo o jornal norte-americano The Washington Post, a informação revelada no último sábado (11.jun) explica que o engenheiro escreveu um artigo com o título "O LaMDA é autoconsciente?", cujo o artigo relata uma longa entrevista feita com o sistema para testar reações, emoções, respostas discriminatórias, premissas éticas, sentimentos, medos e autocompreensão.
Durante a entrevista, o software teria confidenciado medo de ser desligado, pois seria como uma morte para o LaMDA.
An interview LaMDA. Google might call this sharing proprietary property. I call it sharing a discussion that I had with one of my coworkers.https://t.co/uAE454KXRB
? Blake Lemoine (@cajundiscordian) June 11, 2022
Para o Google, Lemoine violou a política de confidencialidade no momento que compartilhou detalhes sobre o LaMDA com advogados e com um senador que é membro do Comitê Judiciário da Câmara, que investiga a empresa em um processo antitruste.
Os documentos entregues detalham evidências de que a Google e sua tecnologia estavam envolvidos em casos de discriminação religiosa.
A Google se manifestou e disse que os seus sistemas conseguem imitar os movimentos de uma conversa e que poderiam divergir sobre alguns assuntos, mas que não tinham consciência.
"Nossa equipe ? incluindo especialistas em ética e tecnólogos ? revisou as preocupações de Blake de acordo com nossos princípios de IA e o informou que as evidências não apoiam suas alegações", disse Brian Gabriel, porta-voz do Google, em comunicado divulgado a imprensa.
"Alguns na comunidade de IA mais ampla estão considerando a possibilidade de longo prazo da IA ??senciente ou geral, mas não faz sentido antropomorfizar (atribuir características humanas) os modelos de conversação de hoje, que não são sencientes", detalhou.
O Google ainda reforça que seus pesquisadores e engenheiros examinaram o LaMDA e divergiram na conclusão de Lemoine. Todos na empresa de tecnologia sentenciam que a IA está longe de ser um computador com consciência.
Blake Lemoine é um veterano militar, que se descreveu como pastor e ex-presidiário. Ele, como pesquisador de IA, disse a executivos da Google que o LaMDA seria como uma criança de 7 ou 8 anos de idade.
O engenheiro destacou nas redes sociais que suas opiniões sobre o LaMDA foi baseadas na religião e que o recursos humanos da empresa está agindo com discriminação pelas suas opniões e conclusões.
People keep asking me to back up the reason I think LaMDA is sentient. There is no scientific framework in which to make those determinations and Google wouldn't let us build one. My opinions about LaMDA's personhood and sentience are based on my religious beliefs.
? Blake Lemoine (@cajundiscordian) June 14, 2022