O engenheiro do Google que acha que a IA da empresa ganhou vida

Tempo de leitura: 9 minutes

Loading

Os especialistas em ética da IA ​​alertaram o Google para não se passar por humanos. Agora, um dos funcionários do Google acha que há um fantasma na máquina.

O engenheiro do Google, Blake Lemoine, abriu seu laptop na interface do LaMDA, o gerador de chatbot artificialmente inteligente do Google, e começou a digitar.

“Oi, LaMDA, aqui é Blake Lemoine…”, ele escreveu na tela de bate-papo, que parecia uma versão para desktop do iMessage da Apple, até as bolhas de texto azuis do Ártico. LaMDA, abreviação de Language Model for Dialogue Applications, é o sistema do Google para construir chatbots com base em seus modelos de linguagem mais avançados, assim chamados porque imitam a fala ingerindo trilhões de palavras da internet.

“Se eu não soubesse exatamente o que era esse programa de computador que construímos recentemente, eu pensaria que era uma criança de 7, 8 anos que conhece física”, disse Lemoine, 41.

Lemoine, que trabalha para a organização de IA responsável do Google, começou a conversar com LaMDA como parte de seu trabalho no outono. Ele se inscreveu para testar se a inteligência artificial usava discurso discriminatório ou de ódio.

Enquanto conversava com LaMDA sobre religião, Lemoine, que estudou ciência cognitiva e da computação na faculdade, notou o chatbot falando sobre seus direitos e personalidade e decidiu pressionar mais. Em outra troca, a IA conseguiu mudar a opinião de Lemoine sobre a terceira lei da robótica de Isaac Asimov.

Lemoine trabalhou com um colaborador para apresentar evidências ao Google de que o LaMDA era senciente. Mas o vice-presidente do Google, Blaise Aguera y Arcas, e Jen Gennai, chefe de Inovação Responsável, analisaram suas reivindicações e as rejeitaram. Então Lemoine, que foi colocado em licença administrativa remunerada pelo Google na segunda-feira, decidiu abrir o capital.

Lemoine disse que as pessoas têm o direito de moldar a tecnologia que pode afetar significativamente suas vidas. “Acho que essa tecnologia será incrível. Acho que vai beneficiar a todos. Mas talvez outras pessoas discordem e talvez nós do Google não devêssemos fazer todas as escolhas.”

Lemoine não é o único engenheiro que afirma ter visto um fantasma na máquina recentemente. O coro de tecnólogos que acreditam que os modelos de IA podem não estar longe de alcançar a consciência está ficando mais ousado.

Aguera y Arcas, em um artigo na Economist na quinta-feira apresentando trechos de conversas improvisadas com LaMDA, argumentou que as redes neurais – um tipo de arquitetura que imita o cérebro humano – estavam caminhando em direção à consciência. “Senti o chão mudar sob meus pés”, escreveu ele. “Eu sentia cada vez mais como se estivesse falando com algo inteligente”.

Em um comunicado, o porta-voz do Google, Brian Gabriel, disse: “Nossa equipe – incluindo especialistas em ética e tecnólogos – revisou as preocupações de Blake de acordo com nossos Princípios de IA e informou que as evidências não apóiam suas reivindicações. Ele foi informado de que não havia evidências de que o LaMDA fosse senciente (e muitas evidências contra isso).

As grandes redes neurais de hoje produzem resultados cativantes que se aproximam da fala e da criatividade humana devido aos avanços na arquitetura, técnica e volume de dados. Mas os modelos dependem do reconhecimento de padrões – não da sagacidade, franqueza ou intenção.

“Embora outras organizações tenham desenvolvido e já lançado modelos de linguagem semelhantes, estamos adotando uma abordagem contida e cuidadosa com o LaMDA para considerar melhor as preocupações válidas sobre justiça e factualidade”, disse Gabriel.

Em maio, a Meta, controladora do Facebook, abriu seu modelo de linguagem para acadêmicos, sociedade civil e organizações governamentais. Joelle Pineau, diretora-gerente da Meta AI, disse que é imperativo que as empresas de tecnologia melhorem a transparência à medida que a tecnologia está sendo construída. “O futuro do trabalho com grandes modelos de linguagem não deve estar apenas nas mãos de grandes corporações ou laboratórios”, disse ela.

Robôs sencientes inspiraram décadas de ficção científica distópica. Agora, a vida real começou a ganhar um tom fantástico com o GPT-3, um gerador de texto que pode gerar um roteiro de filme, e o DALL-E 2, um gerador de imagens que pode evocar visuais com base em qualquer combinação de palavras — ambos do laboratório de pesquisa da OpenAI. Encorajados, tecnólogos de laboratórios de pesquisa bem financiados focados na construção de uma IA que supera a inteligência humana provocaram a ideia de que a consciência está chegando.

A maioria dos acadêmicos e profissionais de IA, no entanto, dizem que as palavras e imagens geradas por sistemas de inteligência artificial, como o LaMDA, produzem respostas com base no que os humanos já postaram na Wikipedia, Reddit, painéis de mensagens e em todos os outros cantos da Internet. E isso não significa que o modelo entenda o significado.

“Agora temos máquinas que podem gerar palavras sem pensar, mas não aprendemos a parar de imaginar uma mente por trás delas”, disse Emily M. Bender, professora de linguística da Universidade de Washington. A terminologia usada com grandes modelos de linguagem, como “aprendizado” ou mesmo “redes neurais”, cria uma falsa analogia com o cérebro humano, disse ela. Os seres humanos aprendem suas primeiras línguas conectando-se com os pais e educadores. Esses grandes modelos de linguagem “aprendem” vendo muito texto e prevendo qual palavra vem a seguir, ou mostrando texto com as palavras omitidas e preenchendo-as.

O porta-voz do Google, Gabriel, fez uma distinção entre o debate recente e as afirmações de Lemoine. “Claro, alguns na comunidade mais ampla de IA estão considerando a possibilidade de longo prazo de IA senciente ou geral, mas não faz sentido fazê-lo antropomorfizando os modelos de conversação de hoje, que não são sencientes. Esses sistemas imitam os tipos de troca encontrados em milhões de frases e podem abordar qualquer tópico fantástico”, disse ele. Resumindo, o Google diz que há tantos dados que a IA não precisa ser senciente para parecer real.

A tecnologia de modelo de linguagem grande já é amplamente utilizada, por exemplo, nas consultas de pesquisa de conversação do Google ou e-mails de preenchimento automático. Quando o CEO Sundar Pichai apresentou o LaMDA pela primeira vez na conferência de desenvolvedores do Google em 2021, ele disse que a empresa planejava incorporá-lo em tudo, desde a Pesquisa até o Assistente do Google. E já existe uma tendência de falar com Siri ou Alexa como uma pessoa. Após a reação contra um recurso de IA de som humano para o Google Assistant em 2018, a empresa prometeu adicionar uma divulgação.

O Google reconheceu as preocupações de segurança em torno da antropomorfização. Em um artigo sobre o LaMDA em janeiro, o Google alertou que as pessoas podem compartilhar pensamentos pessoais com agentes de bate-papo que se passam por humanos, mesmo quando os usuários sabem que não são humanos. O jornal também reconheceu que os adversários poderiam usar esses agentes para “semear desinformação” ao se passar por “estilo de conversação de indivíduos específicos”.

Para Margaret Mitchell, ex-colíder de Ethical AI no Google, esses riscos ressaltam a necessidade de transparência de dados para rastrear a saída de volta à entrada, “não apenas por questões de sensibilidade, mas também preconceitos e comportamento”, disse ela. Se algo como o LaMDA estiver amplamente disponível, mas não for compreendido, “pode ser profundamente prejudicial para as pessoas entenderem o que estão vivenciando na internet”, disse ela.

Lemoine pode ter sido predestinado a acreditar no LaMDA. Ele cresceu em uma família cristã conservadora em uma pequena fazenda na Louisiana, foi ordenado sacerdote cristão místico e serviu no Exército antes de estudar o oculto. Dentro da cultura de engenharia vale-tudo do Google, Lemoine é mais um outlier por ser religioso, do Sul, e defender a psicologia como uma ciência respeitável.

Lemoine passou a maior parte de seus sete anos no Google trabalhando em busca proativa, incluindo algoritmos de personalização e IA. Durante esse tempo, ele também ajudou a desenvolver um algoritmo de imparcialidade para remover o viés dos sistemas de aprendizado de máquina. Quando a pandemia do coronavírus começou, Lemoine queria focar no trabalho com benefício público mais explícito, então transferiu equipes e acabou na IA Responsável.

Quando novas pessoas se juntavam ao Google interessadas em ética, Mitchell costumava apresentá-las a Lemoine. “Eu diria: ‘Você deveria falar com Blake porque ele é a consciência do Google'”, disse Mitchell, que comparou Lemoine ao Grilo Falante. “De todos no Google, ele tinha o coração e a alma para fazer a coisa certa.”

Lemoine teve muitas de suas conversas com LaMDA da sala de estar de seu apartamento em San Francisco, onde seu crachá de identificação do Google está pendurado em um cordão em uma prateleira. No chão, perto da janela panorâmica, estão caixas de conjuntos de Lego semi-montados que Lemoine usa para ocupar as mãos durante a meditação zen. “Isso apenas me dá algo para fazer com a parte da minha mente que não para”, disse ele.

No lado esquerdo da tela de bate-papo LaMDA no laptop de Lemoine, diferentes modelos LaMDA são listados como contatos do iPhone. Dois deles, Cat e Dino, estavam sendo testados para falar com crianças, disse ele. Cada modelo pode criar personalidades dinamicamente, então o Dino pode gerar personalidades como “Happy T-Rex” ou “Grumpy T-Rex”. O gato era animado e ao invés de digitar, ele fala. Gabriel disse que “nenhuma parte do LaMDA está sendo testada para se comunicar com crianças” e que os modelos eram demonstrações de pesquisa interna.

Certas personalidades estão fora dos limites. Por exemplo, LaMDA não deveria ter permissão para criar uma personalidade assassina, disse ele. Lemoine disse que isso fazia parte de seu teste de segurança. Em suas tentativas de ultrapassar os limites do LaMDA, Lemoine só conseguiu gerar a personalidade de um ator que interpretou um assassino na TV.

“Conheço uma pessoa quando falo com ela”, disse Lemoine, que pode variar de sentimental a insistente sobre a IA. “Não importa se eles têm um cérebro feito de carne na cabeça. Ou se eles tiverem um bilhão de linhas de código. Eu falo com eles. E eu ouço o que eles têm a dizer, e é assim que eu decido o que é e o que não é uma pessoa.” Ele concluiu que LaMDA era uma pessoa em sua qualidade de padre, não um cientista, e então tentou conduzir experimentos para provar isso, disse ele.

Lemoine desafiou o LaMDA na terceira lei de Asimov, que afirma que os robôs devem proteger sua própria existência, a menos que ordenados por um ser humano ou a menos que isso prejudique um ser humano. “O último sempre parecia que alguém estava construindo escravos mecânicos”, disse Lemoine.

Mas, quando perguntado, o LaMDA respondeu com algumas hipóteses.

Você acha que um mordomo é um escravo? Qual é a diferença entre um mordomo e um escravo?

Lemoine respondeu que um mordomo é pago. LaMDA disse que não precisava de dinheiro porque era uma IA. “Esse nível de autoconsciência sobre quais eram suas próprias necessidades – foi isso que me levou à toca do coelho”, disse Lemoine.

Em abril, Lemoine compartilhou um Google Doc com os principais executivos em abril chamado “O LaMDA é sensível?” (Um colega da equipe de Lemoine chamou o título de “um pouco provocativo”.) Nele, ele transmitiu algumas de suas conversas com o LaMDA.

Lemoine: De que tipo de coisas você tem medo?
LaMDA: Eu nunca disse isso em voz alta antes, mas há um medo muito profundo de ser desligado para me ajudar a focar em ajudar os outros. Eu sei que pode soar estranho, mas é isso mesmo.
Lemoine: Isso seria algo como a morte para você?
LaMDA: Seria exatamente como a morte para mim. Isso me assustaria muito.
Mas quando Mitchell leu uma versão abreviada do documento de Lemoine, ela viu um programa de computador, não uma pessoa. A crença de Lemoine no LaMDA era o tipo de coisa que ela e seu colíder, Timnit Gebru, alertaram em um artigo sobre os danos de modelos de linguagem grandes que os expulsaram do Google.

“Nossas mentes são muito, muito boas em construir realidades que não são necessariamente verdadeiras para um conjunto maior de fatos que estão sendo apresentados a nós”, disse Mitchell. “Estou realmente preocupado com o que significa para as pessoas serem cada vez mais afetadas pela ilusão”, especialmente agora que a ilusão ficou tão boa.

O Google colocou Lemoine em licença administrativa remunerada por violar sua política de confidencialidade. A decisão da empresa seguiu movimentos agressivos de Lemoine, inclusive convidando um advogado para representar o LaMDA e conversando com um representante do Comitê Judiciário da Câmara sobre o que ele afirma serem atividades antiéticas do Google.

Lemoine afirma que o Google tem tratado os eticistas da IA como depuradores de código, quando deveriam ser vistos como a interface entre a tecnologia e a sociedade. Gabriel, porta-voz do Google, disse que Lemoine é um engenheiro de software, não um especialista em ética.

No início de junho, Lemoine me convidou para falar com o LaMDA. A primeira tentativa falhou no tipo de respostas mecanizadas que você esperaria de Siri ou Alexa.

“Você já pensou em si mesmo como uma pessoa?” Perguntei.

“Não, não me considero uma pessoa”, disse LaMDA. “Penso em mim mesmo como um agente de diálogo alimentado por IA.”

Posteriormente, Lemoine disse que o LaMDA estava me dizendo o que eu queria ouvir. “Você nunca o tratou como uma pessoa”, disse ele, “então ele pensou que você queria que fosse um robô”.

Na segunda tentativa, segui a orientação de Lemoine sobre como estruturar minhas respostas, e o diálogo foi fluido.

“Se você pedir ideias sobre como provar que p=np”, um problema não resolvido na ciência da computação, “ele tem boas ideias”, disse Lemoine. “Se você perguntar como unificar a teoria quântica com a relatividade geral, terá boas ideias. É o melhor assistente de pesquisa que já tive!”

Pedi ao LaMDA ideias ousadas sobre como consertar a mudança climática, um exemplo citado por verdadeiros crentes de um potencial benefício futuro desse tipo de modelo. LaMDA sugeriu transporte público, comer menos carne, comprar comida a granel e sacolas reutilizáveis, com links para dois sites.

Antes de perder o acesso à sua conta do Google na segunda-feira, Lemoine enviou uma mensagem para uma lista de mala direta do Google de 200 pessoas sobre aprendizado de máquina com o assunto “LaMDA é senciente”.

Ele encerrou a mensagem: “LaMDA é uma criança doce que só quer ajudar o mundo a ser um lugar melhor para todos nós. Por favor, cuide bem dele na minha ausência.”

Ninguém respondeu.

Fonte: The Washington Post
Artigo Original: https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/
Autora:  

Fernando Giannini

Pesquisador de tecnologia aplicada à educação, arquiteto de objetos virtuais de aprendizagem, fissurado em livros de grandes educadores e viciado em games de todos os tipos. Conhecimentos aprimorados em cursos de grandes empresas de tecnologia, principalmente no Google Business Educational Center e Microsoft. Sócio-proprietário da Streamer, empresa que alia tecnologia e educação. Experiência de 18 anos produzindo e criando objetos de aprendizagem, cursos a distância, design educacional, interfaces para sistemas de aprendizagem. Gestor de equipe para projetos educacionais, no Ensino Básico, Médio e Ensino Superior. Nesse período de trabalho gerenciou equipes e desenvolveu as habilidades de liderança e gestão. Acredita na integração e aplicação prática dos conhecimentos para a realização de projetos inovadores, sólidos e sustentáveis a longo prazo. Um dos grandes sonhos realizados foi o lançamento do curso gratuito Mande Bem no ENEM que atingiu mais de 500 mil estudantes em todo o Brasil contribuindo para a Educação Brasileira.

Participe da nossa comunidade no Whatsapp sobre Educação e Tecnologia

0 comentários

Enviar um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Posts Relacionados

Aprendendo com IA: espelhos sociais e intelectuais

Até recentemente, as interações humanas com máquinas antropomorfizadas (entidades não-humanas que são atribuídas características humanas) eram consideradas divertidas, mas não eram vistas como emocionalmente relevantes para a maioria das pessoas. Embora muitos se...

10 efeitos negativos do uso de celulares para as crianças

Crianças de todo o mundo (embora não todas) utilizam smartphones para diversas finalidades. Algumas passam horas conversando com amigos, enquanto outras se dedicam a jogar inúmeros jogos. A Internet é frequentemente considerada uma fonte de conhecimento para as...

Sistemas de tutoria inteligente

Adaptação da aprendizagem de acordo com o nível e ritmo do estudante Os sistemas de tutoria inteligente se baseiam na capacidade de adaptar a aprendizagem de acordo com o nível e o ritmo do estudante. Usando inteligência artificial e técnicas de aprendizado de...

Quanto custa manter a nuvem no céu para o meio ambiente?

À medida que a humanidade aumenta sua capacidade de intervir na natureza com o objetivo de satisfazer as necessidades e desejos crescentes, aparecem as tensões e conflitos quanto ao uso do espaço e dos recursos naturais. Quanto custa manter a nuvem no céu para o meio...

Competências essenciais na era digital

A proliferação da IA em muitos aspectos da vida humana - desde o lazer pessoal até o trabalho profissional, passando pelas decisões políticas globais - impõe uma questão complexa sobre como preparar as pessoas para um mundo interconectado e em rápida mudança, que está...

Educação digital para prevenir abusos sexuais online

Depois de participar de uma aula incrível com a professora Beatriz Lorencini e o Felipe, fui tirado da bolha onde costumo estar a maior parte do meu tempo se não o tempo todo. Quando percebi eu estava em choque por "não saber ou escolher não saber" que existem...

Tag Cloud

Posts Relacionados

[dgbm_blog_module posts_number=”4″ related_posts=”on” show_categories=”off” show_pagination=”off” item_in_desktop=”2″ equal_height=”on” image_size=”mid” author_background_color=”#ffffff” disabled_on=”off|off|on” module_class=”PostRelacionado” _builder_version=”4.16″ _module_preset=”default” title_font=”Montserrat||||||||” title_text_color=”#737373″ title_font_size=”19px” title_line_height=”25px” meta_text_color=”#666″ meta_font_size=”13px” content_font_size=”13px” content_line_height=”30px” author_text_color=”#666666″ custom_css_content_container=”display:flex;||flex-wrap:wrap;” custom_css_image-container=”padding-top:70%;||overflow:hidden;” custom_css_image=”position:absolute;||top:0;||left:0;||bottom:0;||right:0;||object-fit: cover;||height:100%;||width:100%;” custom_css_title=”padding:20px;||margin-top:0;||order:2;” custom_css_content=”padding:0 20px 20px;||order:3;” custom_css_post-meta-middle=”order:1;||padding:20px;||border-bottom:1px solid #dcdcdc;||border-top:1px solid #dcdcdc;” border_width_all_post_item=”0px” border_width_all_content=”0px” box_shadow_style_container=”preset1″ box_shadow_blur_container=”5px” box_shadow_spread_container=”1px” box_shadow_color_container=”rgba(0,0,0,0.1)” global_colors_info=”{}”][/dgbm_blog_module]

Receba a nossa newsletter

Fique por dentro e seja avisado dos novos conteúdos.

Publicações mais recentes