O efeito ELIZA: Por que amamos a IA

Tempo de leitura: 8 minutes

Os usuários rapidamente atribuem características semelhantes às humanas aos sistemas artificiais, que refletem sua personalidade de volta para eles. Esse fenômeno, conhecido como o efeito ELIZA, ilustra por que amamos a IA: ela nos permite interagir com máquinas de maneira que se assemelha à comunicação humana, tornando a experiência pessoal e, de certa forma, humana. Interfaces de IA de conversação, como o ChatGPT da OpenAI, o Bing Chat da Microsoft ou o Bard do Google, são divertidas de usar, em parte, porque parecem pessoais e humanas; conversar com a IA dessa forma pode parecer como conversar com outra pessoa. Algumas pessoas chegaram ao ponto de relatar que desenvolveram sentimentos de apego a determinados chatbots. Outros ficaram tão convencidos da inteligência da IA que publicaram com confiança seus temores de senciência. As empresas claramente não veem problema em fazer com que os bots pareçam humanos: A Meta anunciou um conjunto completo de personalidades de IA com as quais os usuários podem interagir e aprender. Mas o fato de os chatbots parecerem humanos não significa que sejam bons produtos de IA.

Idolatrando máquinas

Idolatrando Máquinas: O Efeito ELIZA e Por Que Amamos a IA

Há muito tempo as pessoas são fascinadas por dispositivos mecânicos que imitam os seres humanos. Os antigos egípcios construíam estátuas de divindades em madeira e pedra e as consultavam para obter conselhos. Os primeiros estudiosos budistas descreveram “pessoas de metal precioso” que recitavam textos sagrados. Os gregos antigos contavam histórias de Hefesto, o deus da ferraria, e seu amor pela criação de robôs. Ainda assim, foi somente nas décadas de 1940 e 50 que os computadores modernos começaram a trazer essas fantasias para mais perto do reino da realidade. À medida que os computadores se tornaram mais potentes e difundidos, as pessoas começaram a ver o potencial das máquinas inteligentes.

Em 1950, o matemático britânico Alan Turing escreveu o seminal Computing Machinery and Intelligence. Brian Christian, autor de The Most Human Human, observa que esse artigo foi publicado “no início da ciência da computação (…) mas Turing já (…) estava enxergando o século XXI e imaginando” um mundo no qual as pessoas poderiam construir uma máquina que realmente “pensasse”. No artigo, Turing propôs seu agora famoso “teste de Turing”, no qual uma pessoa conversa com um humano e um robô localizados em salas diferentes e precisa descobrir qual é qual. Se o robô for convincente, ele passa no teste. Turing previu que isso acabaria acontecendo de forma tão consistente que falaríamos que as máquinas são inteligentes “sem esperar sermos contrariados”.

O teste de Turing levantou questões fundamentais sobre o que significa ter uma mente e ser consciente – questões que não são tanto sobre tecnologia, mas sobre a essência da humanidade.

Enquanto isso, os cientistas da computação estavam avançando com o trabalho prático de programar computadores para raciocinar, planejar e perceber. Eles criaram programas que podiam jogar damas, resolver problemas com palavras e provar teoremas lógicos. A imprensa da época descreveu seu trabalho como “surpreendente”. Herbert Simon, um dos mais proeminentes pesquisadores de IA da época, previu que, na década de 1980, as máquinas seriam capazes de fazer qualquer trabalho que uma pessoa pudesse fazer. Assim como acontece ainda hoje, essa ideia deixou muitas pessoas ansiosas. De repente, coisas que diferenciavam os seres humanos como criaturas lógicas estavam sendo assumidas pelas máquinas.

 

 

Não confunda nossa capacidade inerente de atribuir características humanas a modelos de inteligência artificial (IA) com verdadeiros avanços técnicos. Um psicoterapeuta virtual simulado chamado ELIZA fornece uma lição valiosa para contextualizar o atual boom da IA.

 

Captura de tela da interface original da ELIZA, desenvolvida por Joseph Weisenbaum (Fonte: https://99percentinvisible.org/episode/the-eliza-effect/)

A ELIZA foi desenvolvido por Joseph Weizenbaum, professor do M.I.T., na década de 1960. A ELIZA assumia a posição de um terapeuta baseado em texto. Ela perguntava: Alguma coisa está incomodando você? Em seguida, identificava uma palavra-chave na resposta do usuário (estou me sentindo triste) e a repetia em uma pergunta como: É importante que você esteja se sentindo triste? ou Por que você está se sentindo triste? Quando a ELIZA não conseguia identificar uma palavra-chave em seu vocabulário simples, ela respondia com uma frase genérica: Por favor, continue ou qual é a conexão, você acha?

Ao comunicar sua função como psicoterapeuta, a ELIZA definiu o contexto da conversa e as expectativas dos usuários. Esse contexto de conversação, combinado com uma lógica programática simples, levou os usuários a tratar a ELIZA como se fosse um ser humano. Eles divulgaram segredos profundos ao seu psicoterapeuta virtual. De fato, a secretária de Joseph Weizenbaum ficou tão ligada ao programa que pediu para ter conversas particulares com a ELIZA. ELIZA parecia ouvir as pessoas e entender seus problemas.

Mas ELIZA realmente não entendia nada. De fato, ELIZA era menos do que um humano, até mesmo menos do que um papagaio. Com base no contexto de uma conversa semelhante à humana, os usuários estavam predispostos a atribuir suas próprias palavras e sentimentos a um programa. A ELIZA estava simplesmente segurando um espelho para seus usuários, refletindo seus pensamentos e sentimentos de volta para eles.

Os usuários ficam fascinados ao verem aspectos de si mesmos refletidos para eles. Na verdade, eles podem até encontrar utilidade em um programa que simplesmente retorna suas opiniões e sentimentos, reformulados e reenquadrados.

Idioma de espelhamento

Idioma de Espelhamento: O Efeito ELIZA e a Fascinação Humana pela IA

Mas, apesar dos grandes avanços, houve uma área, em particular, que se mostrou especialmente desafiadora para os computadores. Eles se esforçaram para dominar a linguagem humana, que, no campo da inteligência artificial, costuma ser chamada de “linguagem natural”. Como explica a cientista da computação Melanie Mitchell, “o processamento de linguagem natural é provavelmente o problema mais difícil para a IA, e o motivo é que a linguagem é quase equivalente, em certo sentido, ao pensamento”. O uso da linguagem reúne todo o nosso conhecimento sobre como o mundo funciona, incluindo nossa compreensão de outros seres humanos e nosso senso intuitivo de conceitos fundamentais. Como exemplo, Mitchell apresenta a afirmação “uma bola de aço caiu em uma mesa de vidro e ela se quebrou”. Os seres humanos, observa ela, entendem imediatamente que “isso” se refere à mesa de vidro. As máquinas, por outro lado, podem ou não ter conhecimento contextual suficiente programado sobre materiais e física para chegar a essa mesma determinação. Para as pessoas, ela explica, é uma questão de senso comum.

Essa falta de jeito com a linguagem humana significava que os primeiros Chatbots, criados nas décadas de 1950 e 60, eram muito limitados. Eles podiam conversar sobre um tópico muito específico, como beisebol. Ao limitar o mundo de possíveis perguntas e respostas, os pesquisadores podiam criar máquinas que se passavam por “inteligentes”. Mas conversar com elas era como conversar com a Wikipédia, não com uma pessoa real.

Pouco depois de Joseph Weizenbaum chegar ao MIT, na década de 1960, ele começou a buscar uma solução para esse problema de linguagem natural. Ele percebeu que poderia criar um chatbot que não precisasse saber nada sobre o mundo. Ele não cuspiria fatos. Ele refletiria de volta para o usuário, como um espelho.

Há muito tempo Weizenbaum se interessava por psicologia e reconheceu que os padrões de fala de um terapeuta poderiam ser facilmente automatizados. Os resultados, no entanto, o perturbaram. As pessoas pareciam ter conversas significativas com algo que ele nunca pretendera que fosse uma ferramenta terapêutica de fato. Para outros, porém, isso parecia abrir um mundo inteiro de possibilidades.

Antes de ir para o MIT, Weizenbaum passou um tempo em Stanford, onde se tornou amigo de um psiquiatra chamado Dr. Kenneth Colby. Colby havia trabalhado em um grande hospital psiquiátrico estadual, onde os pacientes tinham a sorte de ver um terapeuta uma vez por mês. Ele viu potencial no ELIZA e começou a promover a ideia de que o programa poderia de fato ser útil do ponto de vista terapêutico. A comunidade médica começou a prestar atenção. Eles pensaram que talvez esse programa – e outros semelhantes – pudessem ajudar a expandir o acesso à saúde mental. E ele poderia até ter vantagens sobre um terapeuta humano. Seria mais barato e as pessoas poderiam de fato falar mais livremente com um robô. Cientistas voltados para o futuro, como Carl Sagan, escreveram sobre essa ideia, imaginando, em seu caso, uma rede de terminais de computadores psicoterapêuticos nas cidades.

E, embora a ideia de terminais de terapia em cada esquina nunca tenha se concretizado, as pessoas que trabalhavam com saúde mental continuaram fazendo experimentos sobre como usar os computadores em seu trabalho. Colby criou um chatbot chamado PARRY, que simulava o estilo de conversação de uma pessoa com esquizofrenia paranoide. Mais tarde, ele desenvolveu um programa interativo chamado “Overcoming Depression” (Superando a depressão).

Weizenbaum, por sua vez, afastou-se das implicações expansivas de seu próprio projeto. Ele se opôs à ideia de que algo tão sutil, íntimo e humano como a terapia pudesse ser reduzido a código. Ele começou a argumentar que os campos que exigem compaixão e compreensão humanas não deveriam ser automatizados. E também se preocupava com o mesmo futuro que Alan Turing havia descrito – um futuro em que os chatbots enganavam regularmente as pessoas, fazendo-as pensar que eram humanos. Weizenbaum acabaria escrevendo sobre a ELIZA: “O que eu não tinha percebido é que exposições extremamente curtas a um programa de computador relativamente simples poderiam induzir um pensamento delirante poderoso em pessoas bastante normais”.

Weizenbaum passou de alguém que trabalhava no coração da comunidade de IA do MIT para alguém que pregava contra ela. Enquanto alguns viam potencial terapêutico, ele via uma perigosa ilusão de compaixão que poderia ser distorcida por governos e corporações.

As implicações do efeito ELIZA para a inteligência artificial

Desvendando o Coração da Tecnologia: As Implicações do Efeito ELIZA para a Inteligência Artificial e Nossa Afeição pela IA

O fato de um sistema enganar alguém, fazendo-o pensar que é uma pessoa real, é apenas a superfície da inteligência artificial. A IA pode ser muito mais do que isso. Trata-se de desenvolver soluções significativas, úteis e inovadoras para os problemas. Para criar produtos impactantes e fáceis de usar, não basta criar programas que fingem ser humanos. Designers, engenheiros e pesquisadores de UX precisam saber por que os usuários se comportam da maneira que fazem, por que eles se divertem com os produtos e por que têm determinadas experiências.

Relatos anedóticos sugerem que a natureza conversacional da IA pode dificultar o recebimento de informações úteis e acionáveis de um chatbot; a aparência de humanidade pode impedir que os usuários aprendam a melhor forma de obter utilidade de um produto. Precisamos fazer mais pesquisas para verificar essa hipótese e entender até que ponto as interfaces de conversação afetam a capacidade dos usuários de obter utilidade de um produto.

A pesquisa de UX é essencial para o desenvolvimento de IA

A Fundação do Progresso: Por que a Pesquisa de UX é Vital no Desenvolvimento de IA

Melhorar as interfaces para que sejam agradáveis e fáceis de usar é exatamente o que os profissionais de UX vêm fazendo há décadas. Muitos dos conceitos fundamentais de UX e abordagens de pesquisa que foram estabelecidos pelo campo de UX se aplicam diretamente ao desenvolvimento de IA. O conforto e a leniência podem beneficiar substancialmente a experiência do usuário dos produtos. No entanto, ao realizar pesquisas para produtos de IA, os profissionais de UX devem estabelecer objetivos claros para o produto. O objetivo é estimular um sentimento de conexão emocional ou compreensão, ou otimizar a aprendizagem  e a produtividade de um trabalhador? Os pesquisadores de experiência do usuário têm as habilidades necessárias para avaliar objetivamente os benefícios e as desvantagens de diferentes abordagens de interface de IA e podem fazer isso mantendo o foco na experiência dos usuários.

 


Autor:
Caleb Sponheim, Delaney Hall
Fonte: 99% invisible, Nielsen Norman Group
Artigo original:
https://bit.ly/48EEdW6, https://bit.ly/46Iiwml

Participe da nossa comunidade no Whatsapp sobre Educação e Tecnologia

0 comentários

Enviar um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Posts Relacionados

As ferramentas de transcrição de IA também “alucinam”

Estudo encontra fabricações surpreendentemente prejudiciais no algoritmo de fala para texto da OpenAI Até o momento, a tendência dos chatbots alimentados por inteligência artificial (IA) de ocasionalmente inventar coisas, ou "alucinar", está bem documentada. Os...

Estrutura para a aprendizagem de IA

Essa proposta de estrutura busca fornecer a elaboração de programas de estudo e o planejamento de atividades de aprendizagem que promovam uma compreensão profunda da IA e desenvolvam as competências para que cada estudante seja capaz de analisar, projetar e resolver...

O que é inteligência artificial?

O Que é Inteligência Artificial? Esse artigo explora a definição e implicações da AI, uma das tecnologias mais transformadoras e debatidas da atualidade. Descubra como a AI está moldando o futuro e os desafios éticos envolvidos. Todos acham que sabem, mas ninguém...

Tutoria com IA: reformulando o dia a dia dos professores

Quando o ChatGPT e o advento da inteligência artificial não estão sugando todo o oxigênio da sala onde os educadores se encontram, o próximo maior candidato a receber atenção deve ser a tutoria. Em particular, muito tem sido escrito recentemente sobre as lições...

Pensando o poder da IA para a aprendizagem do futuro

Nos últimos anos, observamos uma corrida para o estudo e o desenvolvimento de ferramentas tecnológicas de aprendizagem eletrônica que aprimoram o ensino e a aprendizagem. A literatura científica mostra claramente que essas ferramentas podem desempenhar um papel...

Tag Cloud

Posts Relacionados

[dgbm_blog_module posts_number=”4″ related_posts=”on” show_categories=”off” show_pagination=”off” item_in_desktop=”2″ equal_height=”on” image_size=”mid” author_background_color=”#ffffff” disabled_on=”off|off|on” module_class=”PostRelacionado” _builder_version=”4.16″ _module_preset=”default” title_font=”Montserrat||||||||” title_text_color=”#737373″ title_font_size=”19px” title_line_height=”25px” meta_text_color=”#666″ meta_font_size=”13px” content_font_size=”13px” content_line_height=”30px” author_text_color=”#666666″ custom_css_content_container=”display:flex;||flex-wrap:wrap;” custom_css_image-container=”padding-top:70%;||overflow:hidden;” custom_css_image=”position:absolute;||top:0;||left:0;||bottom:0;||right:0;||object-fit: cover;||height:100%;||width:100%;” custom_css_title=”padding:20px;||margin-top:0;||order:2;” custom_css_content=”padding:0 20px 20px;||order:3;” custom_css_post-meta-middle=”order:1;||padding:20px;||border-bottom:1px solid #dcdcdc;||border-top:1px solid #dcdcdc;” border_width_all_post_item=”0px” border_width_all_content=”0px” box_shadow_style_container=”preset1″ box_shadow_blur_container=”5px” box_shadow_spread_container=”1px” box_shadow_color_container=”rgba(0,0,0,0.1)” global_colors_info=”{}”][/dgbm_blog_module]

Receba a nossa newsletter

Fique por dentro e seja avisado dos novos conteúdos.

Publicações mais recentes