O efeito ELIZA: Por que amamos a IA

Tempo de leitura: 8 minutes

Loading

Os usuários rapidamente atribuem características semelhantes às humanas aos sistemas artificiais, que refletem sua personalidade de volta para eles. Esse fenômeno é chamado de efeito ELIZA.

Interfaces de IA de conversação, como o ChatGPT da OpenAI, o Bing Chat da Microsoft ou o Bard do Google, são divertidas de usar, em parte, porque parecem pessoais e, de certa forma, humanas; conversar com a IA dessa forma pode parecer como conversar com outra pessoa. Algumas pessoas chegaram ao ponto de relatar que desenvolveram sentimentos de apego a determinados chatbots. Outros ficaram tão convencidos da inteligência da IA que publicaram com confiança seus temores de senciência. As empresas claramente não veem problema em fazer com que os bots pareçam humanos: A Meta anunciou um conjunto completo de personalidades de IA com as quais os usuários podem interagir e aprender. Mas o fato de os chatbots parecerem humanos não significa que sejam bons produtos de IA.

Idolatrando máquinas

Há muito tempo as pessoas são fascinadas por dispositivos mecânicos que imitam os seres humanos. Os antigos egípcios construíam estátuas de divindades em madeira e pedra e as consultavam para obter conselhos. Os primeiros estudiosos budistas descreveram “pessoas de metal precioso” que recitavam textos sagrados. Os gregos antigos contavam histórias de Hefesto, o deus da ferraria, e seu amor pela criação de robôs. Ainda assim, foi somente nas décadas de 1940 e 50 que os computadores modernos começaram a trazer essas fantasias para mais perto do reino da realidade. À medida que os computadores se tornaram mais potentes e difundidos, as pessoas começaram a ver o potencial das máquinas inteligentes.

Em 1950, o matemático britânico Alan Turing escreveu o seminal Computing Machinery and Intelligence. Brian Christian, autor de The Most Human Human, observa que esse artigo foi publicado “no início da ciência da computação (…) mas Turing já (…) estava enxergando o século XXI e imaginando” um mundo no qual as pessoas poderiam construir uma máquina que realmente “pensasse”. No artigo, Turing propôs seu agora famoso “teste de Turing”, no qual uma pessoa conversa com um humano e um robô localizados em salas diferentes e precisa descobrir qual é qual. Se o robô for convincente, ele passa no teste. Turing previu que isso acabaria acontecendo de forma tão consistente que falaríamos que as máquinas são inteligentes “sem esperar sermos contrariados”.

O teste de Turing levantou questões fundamentais sobre o que significa ter uma mente e ser consciente – questões que não são tanto sobre tecnologia, mas sobre a essência da humanidade.

Enquanto isso, os cientistas da computação estavam avançando com o trabalho prático de programar computadores para raciocinar, planejar e perceber. Eles criaram programas que podiam jogar damas, resolver problemas com palavras e provar teoremas lógicos. A imprensa da época descreveu seu trabalho como “surpreendente”. Herbert Simon, um dos mais proeminentes pesquisadores de IA da época, previu que, na década de 1980, as máquinas seriam capazes de fazer qualquer trabalho que uma pessoa pudesse fazer. Assim como acontece ainda hoje, essa ideia deixou muitas pessoas ansiosas. De repente, coisas que diferenciavam os seres humanos como criaturas lógicas estavam sendo assumidas pelas máquinas.

 

 

Não confunda nossa capacidade inerente de atribuir características humanas a modelos de inteligência artificial (IA) com verdadeiros avanços técnicos. Um psicoterapeuta virtual simulado chamado ELIZA fornece uma lição valiosa para contextualizar o atual boom da IA.

 

Captura de tela da interface original da ELIZA, desenvolvida por Joseph Weisenbaum (Fonte: https://99percentinvisible.org/episode/the-eliza-effect/)

A ELIZA foi desenvolvido por Joseph Weizenbaum, professor do M.I.T., na década de 1960. A ELIZA assumia a posição de um terapeuta baseado em texto. Ela perguntava: Alguma coisa está incomodando você? Em seguida, identificava uma palavra-chave na resposta do usuário (estou me sentindo triste) e a repetia em uma pergunta como: É importante que você esteja se sentindo triste? ou Por que você está se sentindo triste? Quando a ELIZA não conseguia identificar uma palavra-chave em seu vocabulário simples, ela respondia com uma frase genérica: Por favor, continue ou qual é a conexão, você acha?

Ao comunicar sua função como psicoterapeuta, a ELIZA definiu o contexto da conversa e as expectativas dos usuários. Esse contexto de conversação, combinado com uma lógica programática simples, levou os usuários a tratar a ELIZA como se fosse um ser humano. Eles divulgaram segredos profundos ao seu psicoterapeuta virtual. De fato, a secretária de Joseph Weizenbaum ficou tão ligada ao programa que pediu para ter conversas particulares com a ELIZA. ELIZA parecia ouvir as pessoas e entender seus problemas.

Mas ELIZA realmente não entendia nada. De fato, ELIZA era menos do que um humano, até mesmo menos do que um papagaio. Com base no contexto de uma conversa semelhante à humana, os usuários estavam predispostos a atribuir suas próprias palavras e sentimentos a um programa. A ELIZA estava simplesmente segurando um espelho para seus usuários, refletindo seus pensamentos e sentimentos de volta para eles.

Os usuários ficam fascinados ao verem aspectos de si mesmos refletidos para eles. Na verdade, eles podem até encontrar utilidade em um programa que simplesmente retorna suas opiniões e sentimentos, reformulados e reenquadrados.

Idioma de espelhamento

Mas, apesar dos grandes avanços, houve uma área, em particular, que se mostrou especialmente desafiadora para os computadores. Eles se esforçaram para dominar a linguagem humana, que, no campo da inteligência artificial, costuma ser chamada de “linguagem natural”. Como explica a cientista da computação Melanie Mitchell, “o processamento de linguagem natural é provavelmente o problema mais difícil para a IA, e o motivo é que a linguagem é quase equivalente, em certo sentido, ao pensamento”. O uso da linguagem reúne todo o nosso conhecimento sobre como o mundo funciona, incluindo nossa compreensão de outros seres humanos e nosso senso intuitivo de conceitos fundamentais. Como exemplo, Mitchell apresenta a afirmação “uma bola de aço caiu em uma mesa de vidro e ela se quebrou”. Os seres humanos, observa ela, entendem imediatamente que “isso” se refere à mesa de vidro. As máquinas, por outro lado, podem ou não ter conhecimento contextual suficiente programado sobre materiais e física para chegar a essa mesma determinação. Para as pessoas, ela explica, é uma questão de senso comum.

Essa falta de jeito com a linguagem humana significava que os primeiros Chatbots, criados nas décadas de 1950 e 60, eram muito limitados. Eles podiam conversar sobre um tópico muito específico, como beisebol. Ao limitar o mundo de possíveis perguntas e respostas, os pesquisadores podiam criar máquinas que se passavam por “inteligentes”. Mas conversar com elas era como conversar com a Wikipédia, não com uma pessoa real.

Pouco depois de Joseph Weizenbaum chegar ao MIT, na década de 1960, ele começou a buscar uma solução para esse problema de linguagem natural. Ele percebeu que poderia criar um chatbot que não precisasse saber nada sobre o mundo. Ele não cuspiria fatos. Ele refletiria de volta para o usuário, como um espelho.

Há muito tempo Weizenbaum se interessava por psicologia e reconheceu que os padrões de fala de um terapeuta poderiam ser facilmente automatizados. Os resultados, no entanto, o perturbaram. As pessoas pareciam ter conversas significativas com algo que ele nunca pretendera que fosse uma ferramenta terapêutica de fato. Para outros, porém, isso parecia abrir um mundo inteiro de possibilidades.

Antes de ir para o MIT, Weizenbaum passou um tempo em Stanford, onde se tornou amigo de um psiquiatra chamado Dr. Kenneth Colby. Colby havia trabalhado em um grande hospital psiquiátrico estadual, onde os pacientes tinham a sorte de ver um terapeuta uma vez por mês. Ele viu potencial no ELIZA e começou a promover a ideia de que o programa poderia de fato ser útil do ponto de vista terapêutico. A comunidade médica começou a prestar atenção. Eles pensaram que talvez esse programa – e outros semelhantes – pudessem ajudar a expandir o acesso à saúde mental. E ele poderia até ter vantagens sobre um terapeuta humano. Seria mais barato e as pessoas poderiam de fato falar mais livremente com um robô. Cientistas voltados para o futuro, como Carl Sagan, escreveram sobre essa ideia, imaginando, em seu caso, uma rede de terminais de computadores psicoterapêuticos nas cidades.

E, embora a ideia de terminais de terapia em cada esquina nunca tenha se concretizado, as pessoas que trabalhavam com saúde mental continuaram fazendo experimentos sobre como usar os computadores em seu trabalho. Colby criou um chatbot chamado PARRY, que simulava o estilo de conversação de uma pessoa com esquizofrenia paranoide. Mais tarde, ele desenvolveu um programa interativo chamado “Overcoming Depression” (Superando a depressão).

Weizenbaum, por sua vez, afastou-se das implicações expansivas de seu próprio projeto. Ele se opôs à ideia de que algo tão sutil, íntimo e humano como a terapia pudesse ser reduzido a código. Ele começou a argumentar que os campos que exigem compaixão e compreensão humanas não deveriam ser automatizados. E também se preocupava com o mesmo futuro que Alan Turing havia descrito – um futuro em que os chatbots enganavam regularmente as pessoas, fazendo-as pensar que eram humanos. Weizenbaum acabaria escrevendo sobre a ELIZA: “O que eu não tinha percebido é que exposições extremamente curtas a um programa de computador relativamente simples poderiam induzir um pensamento delirante poderoso em pessoas bastante normais”.

Weizenbaum passou de alguém que trabalhava no coração da comunidade de IA do MIT para alguém que pregava contra ela. Enquanto alguns viam potencial terapêutico, ele via uma perigosa ilusão de compaixão que poderia ser distorcida por governos e corporações.

As implicações do efeito ELIZA para a inteligência artificial

O fato de um sistema enganar alguém, fazendo-o pensar que é uma pessoa real, é apenas a superfície da inteligência artificial. A IA pode ser muito mais do que isso. Trata-se de desenvolver soluções significativas, úteis e inovadoras para os problemas. Para criar produtos impactantes e fáceis de usar, não basta criar programas que fingem ser humanos. Designers, engenheiros e pesquisadores de UX precisam saber por que os usuários se comportam da maneira que fazem, por que eles se divertem com os produtos e por que têm determinadas experiências.

Relatos anedóticos sugerem que a natureza conversacional da IA pode dificultar o recebimento de informações úteis e acionáveis de um chatbot; a aparência de humanidade pode impedir que os usuários aprendam a melhor forma de obter utilidade de um produto. Precisamos fazer mais pesquisas para verificar essa hipótese e entender até que ponto as interfaces de conversação afetam a capacidade dos usuários de obter utilidade de um produto.

A pesquisa de UX é essencial para o desenvolvimento de IA

Melhorar as interfaces para que sejam agradáveis e fáceis de usar é exatamente o que os profissionais de UX vêm fazendo há décadas. Muitos dos conceitos fundamentais de UX e abordagens de pesquisa que foram estabelecidos pelo campo de UX se aplicam diretamente ao desenvolvimento de IA. O conforto e a leniência podem beneficiar substancialmente a experiência do usuário dos produtos. No entanto, ao realizar pesquisas para produtos de IA, os profissionais de UX devem estabelecer objetivos claros para o produto. O objetivo é estimular um sentimento de conexão emocional ou compreensão, ou otimizar a aprendizagem  e a produtividade de um trabalhador? Os pesquisadores de experiência do usuário têm as habilidades necessárias para avaliar objetivamente os benefícios e as desvantagens de diferentes abordagens de interface de IA e podem fazer isso mantendo o foco na experiência dos usuários.

 

 


Autor:
Caleb Sponheim, Delaney Hall
Fonte: 99% invisible, Nielsen Norman Group
Artigo original:
https://bit.ly/48EEdW6, https://bit.ly/46Iiwml

Fernando Giannini

Pesquisador de tecnologia aplicada à educação, arquiteto de objetos virtuais de aprendizagem, fissurado em livros de grandes educadores e viciado em games de todos os tipos. Conhecimentos aprimorados em cursos de grandes empresas de tecnologia, principalmente no Google Business Educational Center e Microsoft. Sócio-proprietário da Streamer, empresa que alia tecnologia e educação. Experiência de 18 anos produzindo e criando objetos de aprendizagem, cursos a distância, design educacional, interfaces para sistemas de aprendizagem. Gestor de equipe para projetos educacionais, no Ensino Básico, Médio e Ensino Superior. Nesse período de trabalho gerenciou equipes e desenvolveu as habilidades de liderança e gestão. Acredita na integração e aplicação prática dos conhecimentos para a realização de projetos inovadores, sólidos e sustentáveis a longo prazo. Um dos grandes sonhos realizados foi o lançamento do curso gratuito Mande Bem no ENEM que atingiu mais de 500 mil estudantes em todo o Brasil contribuindo para a Educação Brasileira.

Participe da nossa comunidade no Whatsapp sobre Educação e Tecnologia

0 comentários

Enviar um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Posts Relacionados

Escrita à Mão Aumenta Conexões Cerebrais

Como a escrita tradicional à mão está sendo progressivamente substituída por dispositivos digitais, é essencial investigar as implicações para o cérebro humano. A atividade elétrica cerebral foi registrada em 36 estudantes universitários enquanto eles escreviam à mão...

IA na Educação

O salto para uma nova era de inteligência artificial de máquina traz riscos e desafios, mas também muitas promessas No romance de ficção científica de Neal Stephenson, The Diamond Age (A Era do Diamante), de 1995, os leitores conhecem Nell, uma jovem que recebe um...

As 10 melhores ferramentas de IA para estudantes

A Inteligência Artificial (IA) tem se tornado cada vez mais predominante em vários setores, e a educação não é exceção. Com o rápido avanço da tecnologia, graças a empresas como a Open AI, as ferramentas de IA surgiram como recursos valiosos para os estudantes que...

Seis perguntas que ditarão o futuro da IA generativa

A IA generativa tomou o mundo de assalto em 2023. Seu futuro - e o nosso - será moldado pelo que fizermos a seguir. Foi uma pessoa desconhecida que me mostrou pela primeira vez o quão grande seria a mudança de vibração deste ano. Enquanto esperávamos juntas por um...

IA e o crescimento da mediocridade

Como a maioria das pessoas, gosto de me considerar um indivíduo, mas há uma semana entrei em um estacionamento e encontrei cinco carros idênticos ao meu em termos de marca, modelo, ano e cor. Fiquei feliz por ter me lembrado do número da minha placa e que meu chaveiro...

Tag Cloud

Posts Relacionados

IA na Educação

IA na Educação

O salto para uma nova era de inteligência artificial de máquina traz riscos e desafios, mas também muitas promessas No...

Receba a nossa newsletter

Fique por dentro e seja avisado dos novos conteúdos.

Publicações mais recentes