Recentemente, um engenheiro da companhia foi afastado por suas alegações controversas relativas à IA
Recentemente, Blake Lemoine, um engenheiro de software da Google, chamou a atenção da internet ao alegar que a LaMDA, uma inteligência artificial da companhia, havia se tornado consciente, e publicar uma série de "conversas" que tivera com o programa.
O funcionário da gigante de tecnologia foi colocado em licença administrativa remunerada devido às suas ações, que foram consideradas pela empresa como uma quebra de confidencialidade, conforme apurado pela CNN.
Em um comunicado divulgado na última segunda-feira, 13, a Google procurou esclarecer a situação, que causou temores entre o público, afirmando que as "preocupações" mostradas por Lemoine haviam sido revisadas mais de dez vezes e os dados encontrados "não apoiam suas alegações".
É claro que alguns na comunidade de IA [inteligência artificial] estão considerando a possibilidade de longo prazo de IA senciente, mas não faz sentido antropomorfizar os modelos de conversação de hoje, que não são sencientes", afirmou a gigante de tecnologia.
"Centenas de pesquisadores e engenheiros conversaram com o LaMDA e não temos conhecimento de mais ninguém fazendo as afirmações abrangentes ou antropomorfizando o LaMDA, da maneira que Blake fez”, concluiu a nota, ainda de acordo com a CNN.
O LaMDA (uma sigla que, traduzida para o português, diz 'Modelo de Linguagem para Aplicações de Diálogo'), vale dizer, é um software que foi treinado pelo Google através de um sistema de inteligência artificial para que seja capaz de manter conversações fluidas em vários assuntos.