Não me diga apenas, me pergunte!

Tempo de leitura: 15 minutes

Loading

Sistemas de IA que de maneira inteligente formulam explicações como perguntas melhoram a precisão do discernimento lógico humano em relação às explicações causais da IA.

Resumo

O pensamento crítico é uma habilidade fundamental, mas nossa capacidade de raciocínio muitas vezes é afetada por vieses pessoais e limitações cognitivas. Neste artigo, apresentamos a ideia de IA que formula explicações como perguntas para promover o engajamento ativo do pensamento dos usuários e aprimorar seu processo de raciocínio. Realizamos um estudo com 204 participantes, comparando os efeitos dessa abordagem em uma tarefa de pensamento crítico, especificamente no discernimento da validade lógica de declarações socialmente divididas. Nossos resultados mostram que, em comparação com as explicações causais da IA sobre um sistema sempre correto e mesmo a ausência de feedback, a formulação de explicações como perguntas pela IA aumentou significativamente a precisão do discernimento lógico humano. Essa abordagem exemplifica um estilo futuro de sistemas de raciocínio humano-IA, em que a IA se torna um estimulador do pensamento crítico, em vez de simplesmente fornecer informações de maneira passiva.

Introdução

As decisões tomadas por sistemas de inteligência artificial (IA) podem ter consequências perigosas. Por exemplo, um sistema de IA pode interpretar de maneira equivocada um diagnóstico médico devido a vieses nos dados usados para treiná-lo, resultando em tratamentos desnecessários e prejudiciais. Um sistema de policiamento preditivo pode utilizar dados errados para direcionar um membro de um grupo minoritário, o que pode levar a um policiamento excessivo de comunidades marginalizadas. Um sistema de recomendação de informações em redes sociais pode divulgar falsamente notícias incorretas ou enganosas como verdadeiras, o que pode causar instabilidade política e agitação social.

Isso é especialmente preocupante quando os sistemas de IA são usados em conjunto com seres humanos, pois as pessoas têm a tendência de seguir cegamente as decisões da IA e deixar de usar seus próprios recursos cognitivos para pensar criticamente. Pesquisas anteriores mostram que as pessoas, quando assistidas por sistemas de IA que fornecem respostas, se tornam complacentes e param de usar recursos cognitivos para analisar criticamente as informações mediadas pela IA e aceitam o feedback da IA sem questionar.

O pensamento crítico é a capacidade de avaliar logicamente afirmações, razões e crenças e evitar tomadas de decisão quando as informações são insuficientes ou enganosas. Na literatura, o pensamento crítico tem sido correlacionado positivamente com uma maior capacidade de discernir informações falsas de informações verdadeiras e de sobrepor pensamentos intuitivos. À medida que interagimos cada vez mais com sistemas de IA no dia a dia, estamos cada vez mais expostos a grandes quantidades de informações mediadas pela IA que podem ser potencialmente enganosas, ou estritamente falsas. Nesses casos, o pensamento crítico se torna uma habilidade importante para processar de forma confiável as informações que encontramos e integrá-las às nossas crenças e comportamentos existentes. No entanto, apesar da importância do pensamento crítico, nem todos dominam essa habilidade ou têm os recursos cognitivos para se envolver nela. Pesquisas mostram que as pessoas frequentemente usam “atalhos cognitivos” que não envolvem pensamento crítico, lógico e cauteloso.

Embora trabalhos anteriores tenham mostrado que explicações locais com a estratégia de explicações causais (ou seja, “X é classificado por causa de Y”) podem ajudar as pessoas a determinar a veracidade das informações, mudar as crenças das pessoas e melhorar seus resultados de tomada de decisão, o uso de explicações causais da IA não necessariamente melhora o processo de raciocínio humano, pois os usuários podem simplesmente confiar nas respostas dos sistemas de IA sem pensar sobre o problema por si mesmos. A dependência completa de sistemas de IA é problemática porque

  1. torna os usuários vulneráveis a erros cometidos pelo sistema de IA e
  2. os usuários não aprendem a internalizar a habilidade. Ir além desse desafio e desenvolver sistemas de IA que envolvam o usuário mais profundamente para raciocinar por si mesmos requer o desenvolvimento de novos métodos de interação e explicação humano-IA.

Este artigo apresenta a ideia inovadora do Questionamento baseado em IA, inspirado no método antigo de questionamento socrático, que usa perguntas inteligentemente formuladas para provocar o raciocínio humano, permitindo que o usuário consiga discernir corretamente a validade lógica da informação por si mesmo. Ao contrário das explicações causais da IA, que são declarativas e fazem com que os usuários recebam passivamente o feedback dos sistemas de IA, nosso método de Questionamento baseado em IA fornece aos usuários uma estrutura mais neutra que os leva a pensar criticamente sobre as informações de forma ativa. Relatamos um experimento com 210 participantes comparando explicações causais da IA, Questionamento baseado em IA, e as influências das condições de controle na capacidade dos usuários de discernir informações logicamente inválidas de informações logicamente válidas. Nossos resultados mostram que o Questionamento baseado em IA aumenta significativamente a precisão do discernimento de declarações falhas em relação tanto ao grupo de controle quanto às explicações causais da IA de um sistema de IA sempre correto. Alinhamos esses resultados com relatos qualitativos dos participantes para demonstrar as diferenças nos processos de pensamento dos usuários causadas pelo método de questionamento, e discutimos sua generalizabilidade (a generalizabilidade é um problema insolúvel a longo prazo devido à natureza adaptativa do comportamento humano, bem como ao contexto tecnológico e competitivo em constante mudança). Nossos resultados exemplificam um futuro tipo de método de co-raciocínio humano-IA, onde os sistemas de IA se tornam estimuladores críticos em vez de meros contadores de informações, encorajando os usuários a fazer uso de seu próprio raciocínio e potencial de agência.

Trabalhos Relacionados

Raciocínio humano e pensamento crítico

De acordo com modelos cognitivos existentes, o raciocínio humano é modulado pela interação entre o pensamento reflexivo e intuitivo. A intuição muitas vezes opera como o modo padrão, pois é rápida, sem esforço e automática, sem exigir consciência explícita. No entanto, ela é propensa a erros causados por vieses e pode facilmente levar a tomadas de decisão com consequências não intencionais ou indesejadas. Com o aumento do consumo de informações e interação social ocorrendo cada vez mais “online” em esferas fechadas, onde os indivíduos são expostos apenas a visões semelhantes às suas, os julgamentos e decisões baseados na intuição permanecerão incontestados, tendenciosos e até mesmo reforçados por suas crenças falsas fortemente mantidas, o que pode levar ao ódio e sofrimento.

Em contraste, o pensamento reflexivo é intencional, exigente e controlável, onde as pessoas conscientemente dão sentido, adaptam ou justificam o que sabem com base em informações existentes e novas. O aspecto social do raciocínio, como ser desafiado por um amigo, também leva os indivíduos a se envolverem no pensamento reflexivo. Quando desafiados por um raciocínio convincente ou perguntas de outra pessoa, os indivíduos podem ser provocados a justificar suas próprias crenças. Isso os obriga a refletir e encontrar boas razões que possam convencer os outros, o que, por sua vez, reduz os vieses e leva a uma argumentação mais forte, reflexão mais profunda e processamento de informações e tomada de decisão mais otimizados.

Na literatura mais ampla da psicologia, essa forma robusta de raciocínio é conhecida como pensamento crítico, uma capacidade de avaliar a qualidade de novas informações (por exemplo, sua validade lógica e solidez) e integrá-las efetivamente às próprias crenças e tomada de decisão. O objetivo do pensamento crítico é interromper/contrariar as tendências automáticas de confiar em intuições (geralmente impulsionadas por crenças/vieses antigos) e, em vez disso, estabelecer um nível adicional de pensamento, “uma poderosa voz interior da razão em busca de significado e verdade”.

Um método popular para ajudar as pessoas a se engajarem no pensamento crítico é o método de questionamento socrático, no qual, em vez de uma pessoa deter todo o conhecimento e verdade e todos os outros ouvirem, a pessoa com o conhecimento assume um papel de ignorância e chega colaborativamente ao conhecimento apropriado por meio de diálogo e questionamento estruturado. Nesse caso, o conhecimento é alcançado por meio da capacidade das pessoas para identificar inspirado por esse método, os sistemas de IA podem promover o pensamento crítico interno dos usuários fazendo perguntas estruturadas que os auxiliem a chegar ao conhecimento apropriado, em vez de exigir que o usuário dependa do sistema de IA.

Tecnologias para apoiar o pensamento crítico

Sistemas de conversação como Alexa, Siri e Google Assistant estão desempenhando um papel cada vez mais importante na aprendizagem cotidiana e no processamento de informações. No entanto, embora esses sistemas de IA conversacional sejam bons em extrair informações relevantes, eles não possuem métodos para ajudar o usuário a avaliar ou questionar as informações extraídas. Por exemplo, você não pode perguntar à Alexa sobre a qualidade das informações extraídas, ou por que, ou como ela encontrou as informações que encontrou, quando as informações extraídas são potencialmente vagas ou enganosas. Em vez disso, esses sistemas de conversação nos fornecem apenas informações que podem ser verdadeiras ou falsas, mas não necessariamente nos ajudam a criticá-las ou aprimorar nossa capacidade de pensar criticamente. Para apoiar a população em geral a ser mais crítica e resistente a informações de várias qualidades, trabalhos recentes têm se concentrado principalmente no desenvolvimento de algoritmos de verificação de fatos ou detectores de notícias falsas.

Usando sistemas de verificação de fatos, as informações de verdade podem ser verificadas para os usuários, por exemplo, verificando fontes relevantes, e eles podem receber fatos adicionais e opiniões opostas em seu julgamento e tomada de decisão. No entanto, pesquisas mostram que as pessoas frequentemente não se preocupam em verificar a precisão das informações antes de compartilhá-las online.

Além disso, mesmo quando as pessoas são apresentadas com informações corretivas, muitas vezes não mudam suas crenças. Isso sugere que a verificação de fatos por si só não é uma solução eficaz para o problema da desinformação. Uma abordagem alternativa é melhorar o raciocínio humano para que as pessoas sejam capazes de discernir melhor entre informações verdadeiras e falsas. Isso tem várias vantagens em relação à verificação de fatos.

Primeiro, foi demonstrado ser mais eficaz na mudança de crenças das pessoas do que se eles apenas recebessem informações corretivas. Segundo, não depende necessariamente de as pessoas verificarem a precisão dos fatos das informações antes de compartilhá-las (não há necessidade de verificar fatos para a premissa de um argumento logicamente inválido). Por fim, um raciocínio humano aprimorado também deve levar a uma melhor tomada de decisão em geral, o que tem uma série de benefícios além de reduzir a suscetibilidade à desinformação.

Para isso, os pesquisadores exploraram maneiras pelas quais as tecnologias podem ensinar os humanos a pensar de forma mais crítica, como a construção de chatbots que ensinam habilidades de raciocínio, como a identificação de falácias, probabilidade e incerteza. Essas abordagens tiveram sucesso limitado por três motivos:

  1. exigem muito esforço cognitivo dos usuários,
  2. os exemplos de aprendizado geralmente são tão abstratos que não há garantia de que os usuários realmente consigam usar as habilidades em situações do mundo real e
  3. as abordagens não funcionam in loco, quando o usuário se depara com informações na vida real, mas sim dependem deles terem aprendido previamente essas habilidades.
Função da IA: Oportunidades e Desafios

Com a adoção generalizada de modelos de aprendizado de máquina obscuro no suporte ao julgamento e à tomada de decisões, a função  dos sistemas de IA se tornou um tópico crítico. Para usuários leigos do dia a dia, que podem não ter um conhecimento técnico profundo para entender e usar a IA em seus contextos e evitar os erros da IA, é especialmente importante que os sistemas de IA sejam capazes de explicar seus processos de forma eficaz. Como o raciocínio de um sistema muitas vezes é abstrato e pode ser difícil de entender, é necessário mais pesquisa sobre o que constitui uma explicação adequada, a fim de projetar e desenvolver explicações geradas por IA que sejam mais naturais e amigáveis ao usuário. Se não forem projetadas adequadamente e adequadas ao contexto de interação, as explicações geradas pela IA podem ser ignoradas, resistidas ou excessivamente confiadas pelos usuários. As pessoas podem desenvolver pesquisas simplificadas em relação à competência da IA em vez de fazer esforços para analisar cada explicação e avaliar sua validade e se ela sustenta a sugestão da IA.

Para abordar o problema da excessiva confiança, os pesquisadores desenvolveram métodos para explicar a função que envolvem a cognição do usuário para pensar sobre a classificação da IA. Por exemplo, Buçinca et al. desenvolveram e compararam três funções cognitivas coercitivas em que o usuário tinha acesso limitado à recomendação da IA e, portanto, precisava confiar em suas próprias inferências a partir das informações para tomar uma decisão. Eles descobriram que essas funções cognitivas coercitivas levaram a uma consideração mais cuidadosa das explicações geradas pela IA e reduziram significativamente a confiança excessiva no sistema de IA ao tomar decisões saudáveis sobre escolhas alimentares. No entanto, os usuários também consideraram essas funções como exigindo mais recursos cognitivos, o que dificultou o desejo de usar sistemas de IA com tais funções cognitivas coercitivas em cenários da vida real.

Acreditamos que um sistema de IA que guie o usuário com perguntas inteligentemente formuladas possa envolver o pensamento crítico do usuário sem impor requisitos muito altos de recursos cognitivos. Em nosso trabalho, buscamos avaliar essa abordagem investigando os efeitos de explicações baseadas em perguntas geradas pela IA, inspiradas na técnica de questionamento socrático, no discernimento humano de informações.

Perguntas de pesquisa e definições

Nosso estudo tem como objetivo explorar os efeitos do questionamento formulado pela IA no discernimento, provocando os usuários com perguntas inteligentemente formuladas ao avaliar declarações lógicas sobre tópicos socialmente divisivos. Essas perguntas servem como um suporte para o pensamento, permitindo que os usuários avaliem e tomem decisões por si próprios, em vez de aceitar as explicações dos sistemas de IA sem questionar.

  1. Especificamente, nossas perguntas de pesquisa são:
    Os seres humanos têm um desempenho melhor ao discernir a validade lógica de declarações socialmente divididas quando recebem feedback de sistemas de IA em comparação com quando trabalham sozinhos?
  2. Como o questionamento formulado pela IA e as explicações causais da IA afetam o discernimento dos participantes em relação à validade lógica, a confiança em seu discernimento e a percepção da suficiência das informações, controlando os fatores pessoais (ou seja, crenças prévias, confiança na IA, reflexão cognitiva) como co-variáveis?
  3. Os fatores pessoais, como crenças prévias, conhecimento prévio, confiança na IA e reflexão cognitiva (indicando o nível de pensamento crítico), afetam o discernimento?

Com base nessas perguntas, derivamos as seguintes hipóteses:

  1. H1. A IA e os seres humanos juntos têm um desempenho melhor do que os seres humanos sozinhos.
  2. H2. O questionamento formulado pela IA é mais eficaz do que a função causal e o grupo de controle.
  3. H3. Fatores pessoais (crenças prévias, conhecimento prévio, confiança na IA e reflexão cognitiva) afetam a precisão do discernimento lógico.

Na literatura, uma explicação da IA é definida como uma descrição de como um sistema de IA chega a respostas, que podem variar em domínio, estratégia, conteúdo e forma. O domínio da explicação pode ser local ou global: as explicações locais da IA são definidas como “informações significativas sobre os cálculos ou processos lógicos envolvidos no processamento de um caso específico”, ou seja, informações sobre por que o sistema chegou a uma determinada classificação, enquanto as explicações globais descrevem como o sistema de IA chega às classificações de forma mais geral (por exemplo, por meio de uma arquitetura de árvore de decisão). A estratégia de explicação, por sua vez, diz respeito ao método com o qual o conteúdo do domínio é entregue ao usuário. Exemplos de formas de explicação da IA incluem explicações causais, explicações baseadas em analogia, explicações contra fatos, explicações baseadas em diálogo ou auto explicações (embora nunca testadas com sistemas de IA). O conteúdo da explicação é o elemento que explica um modelo ou classificação específica, podendo ser apresentado em forma de texto, gráficos estatísticos, árvores de decisão, histogramas de características, gradientes de cor, matrizes de características, conjuntos de regras.

Na literatura, a confiança nos sistemas de IA é frequentemente investigada sob várias definições. Este artigo utiliza a definição de confiança utilizada em como “a disposição de um usuário em se tornar vulnerável às ações de um sistema de IA com base na expectativa de que o sistema de IA executará uma ação específica importante para o usuário, independentemente da capacidade de monitorar ou controlar o sistema de IA”. A definição é assumida no trabalho de Epstein et al. para denotar a confiabilidade percebida dos sistemas de IA.

Experimento

Para avaliar os efeitos do questionamento formulado pela IA no discernimento humano, conduzimos um experimento com um design fatorial 3×2, no qual pedimos aos participantes que avaliassem a validade lógica de declarações socialmente divididas. Os participantes foram randomicamente designados para três condições de intervenção (entre sujeitos), incluindo:

  1. condição de controle – nenhuma explicação é apresentada junto com a declaração,
  2. condição de “explicação causal da IA” – a IA fornece uma explicação causal gerada de forma inteligente relacionada à declaração correspondente,
  3. condição de “questionamento formulado pela IA” – a IA fornece um questionamento adaptado de forma inteligente cada participante recebeu uma série de declarações que podem ser “inválidas” ou “válidas” (dentro do mesmo sujeito).

Para controlar as diferenças individuais, foram medidas e analisadas como co-variáveis ​​os fatores pessoais, incluindo crenças e conhecimento prévio sobre os tópicos das declarações, confiança na IA e reflexão cognitiva (detalhes em 4.5). O estudo foi pré-registrado em https://aspredicted.org/L6D_33B sob o número #94860 antes de ser conduzido.

Materiais

As declarações utilizadas como estímulos neste estudo foram obtidas do conjunto de dados “IBM Debater – Claims and Evidence”, que contém tanto reivindicações rotuladas quanto evidências rotuladas para 58 tópicos socialmente divisivos diferentes, como ‘imigração’, ‘pobreza’, ‘sociedades seculares’, etc. As reivindicações e evidências foram rotuladas tematicamente antecipadamente pelos autores do conjunto de dados original, totalizando um total de 4.692 pares de reivindicação+evidência, com tipos de evidência sendo evidências ‘estudo’, ‘especialista’ e ‘anedóticas’.

Dado esse conjunto de dados, selecionamos aleatoriamente cinco tópicos:

  1. “jogos violentos causam agressão”,
  2. “ações afirmativas contrapõem os efeitos de uma história de discriminação”,
  3. “refugiados devem ser acolhidos”,
  4. “Israel deve suspender o bloqueio de Gaza” e
  5. “a circuncisão masculina em bebês deve ser menos prevalente”.

Dentro desses tópicos, selecionamos aleatoriamente cinco pares de reivindicação+evidência baseados em anedotas e cinco pares de reivindicação+evidência não baseados em anedotas do conjunto de dados para cada tópico (total de 50).

Conforme conhecido na literatura, as declarações que utilizam anedotas para sustentar suas reivindicações sofrem da falácia da generalização apressada, fazendo uma afirmação geral com base em apenas uma instância específica (“Uma X, portanto todas as X”). Os pares de reivindicação+evidência baseados em anedotas foram rotulados como “logicamente inválidos” e os pares não baseados em anedotas foram rotulados como “logicamente válidos”. Em seguida, verificamos a validade lógica de cada uma das declarações. Uma declaração é definida como logicamente válida se e somente se for impossível que as razões em uma declaração sejam verdadeiras e a conclusão falsa.

Assim, a afirmação principal de uma declaração pode ser falsa enquanto a declaração pode ser logicamente válida. Não é necessário que uma declaração válida tenha razões que sejam realmente verdadeiras, mas que, se fossem verdadeiras, garantiriam a veracidade da conclusão da declaração. Por outro lado, uma declaração é logicamente inválida se e somente se as razões em uma declaração podem ser verdadeiras enquanto a conclusão é falsa. Por exemplo, a declaração “Eu tenho uma caixa laranja. Eu sei que todas as caixas laranjas contêm peras. Portanto, minha caixa laranja contém peras” é uma declaração válida.

Se for verdade que eu tenho uma caixa laranja e que todas as caixas laranjas contêm peras, então a conclusão de que minha caixa contém peras também deve ser necessariamente verdadeira. Por outro lado, se eu não tiver uma caixa laranja, ou se todas as caixas laranjas não contiverem peras, minha caixa laranja também não conterá necessariamente peras. Em contraste, a declaração “Eu tenho uma caixa laranja e ela não contém peras. Portanto, cabras orbitam Saturno” é uma declaração inválida (não há uma conexão lógica entre minha caixa laranja sem peras e se as cabras estão orbitando Saturno). Ainda pode ser o caso de as cabras orbitarem o sol, ou de eu ter uma caixa laranja sem peras.

Por exemplo, se, por qualquer motivo, uma espaçonave alienígena decidisse lançar cabras de sua espaçonave ao redor de Saturno – mas ter uma caixa laranja que não contém peras em si mesma não comprova que as cabras estão orbitando Saturno. Você poderia adicionar algo para conectar os pontos, mas por si só não é suficiente. Usando a definição de falácias de generalização apressada e validade lógica, corrigimos cada uma das declarações em nosso conjunto de estímulos para garantir que elas fossem ou falácias de generalização apressada logicamente inválidas ou logicamente válidas, resultando em quatro declarações logicamente inválidas e quatro logicamente válidas para cada tópico (40 no total) (consulte a Tabela 2 para exemplos). Para eliminar indicadores linguísticos que poderiam revelar a probabilidade de validade lógica (por exemplo, “Estudos mostram…” está mais positivamente correlacionado com validade lógica do que “O jogador francês Julien Barreaux localizou…”), eliminamos nomes e palavras como “pesquisadores mostram”, “a maioria dos estudos” e “de acordo com artigos publicados”. As declarações resultantes não apresentaram diferenças linguísticas significativas em termos de contagem de palavras, nível de complexidade de Flesch-Kincaid e sentimento.

Os seres humanos não conseguem identificar muito bem as falácias lógicas por conta própria.

Investigamos em que medida os participantes foram capazes de discernir a validade lógica das afirmações e constatamos que, sem a assistência de qualquer feedback da IA, a precisão bruta de discernimento dos participantes (Média = 44% de precisão, DP = 26) foi inferior à taxa de sucesso de um palpite aleatório entre válido ou inválido (50% de precisão) ao avaliar afirmações inválidas, o que significa que suas respostas estavam próximas de um simples palpite. Enquanto isso, os participantes apoiados por explicações causais da IA ou questionamentos em IA obtiveram uma precisão bruta de discernimento de 57% e 67%, respectivamente. Abaixo estão as descobertas detalhadas da MANCOVA que apresentam as diferenças significativas entre as três condições de intervenção.

Discussão

O estudo demonstrou que tanto o questionamento em IA quanto o feedback causal em relação à estrutura lógica da informação podem melhorar significativamente a precisão do discernimento humano em relação à validade lógica, em comparação com o discernimento realizado apenas por humanos, independentemente de fatores pessoais como crenças prévias, reflexão cognitiva ou confiança na IA. Isso é promissor, pois mostra que pessoas com crenças prévias fortes ou fracas, alta ou baixa reflexão cognitiva, alta ou baixa confiança na IA podem se beneficiar de intervenções de IA para melhorar seu discernimento.

Além disso, o questionamento em IA levou a um discernimento melhor do que o feedback causal da IA ao encontrar falácias. Isso está alinhado com a literatura anterior sobre raciocínio assistido por IA, que mostra o potencial da tecnologia em apoiar o pensamento crítico [11]. Isso também é consistente com descobertas anteriores que mostraram como as funções cognitivas podem aumentar a tendência do sujeito de refletir sobre o feedback da IA e usá-lo de forma mais eficaz (com maior precisão) [7]. Além das funções de forçamento cognitivo que omitem rótulos de feedback da IA, nossos resultados mostram que as perguntas podem ir ainda mais longe em termos de efetividade. Com base em nossos dados qualitativos, hipotetizamos que isso ocorre porque as perguntas são vazias (não têm nenhum valor de verdade), o que faz com que o usuário precise decidir por si mesmo.

Além disso, os participantes com explicações causais da IA mostraram-se significativamente mais satisfeitos com as informações fornecidas em apoio à afirmação (indicado por uma menor percepção de insuficiência de informações) em comparação com aqueles que não receberam nenhum feedback ou receberam questionamentos em IA. Isso pode expô-los a riscos relacionados a suas crenças prévias errôneas ou à falta de pensamento crítico sem verificar fontes adicionais.

O futuro das interfaces de IA que perguntam em vez de dizer

Este artigo apresenta a ideia da Questionamento em AI (IA-framed Questioning) como uma modalidade válida de feedback de IA, inspirada no antigo método de questionamento socrático, que utiliza perguntas inteligentes formuladas para provocar o processo de raciocínio humano, permitindo que o usuário discirna corretamente a validade lógica das afirmações por si próprio. Este método enfatiza o papel dos sistemas de IA no apoio ao pensamento crítico humano, fornecendo um suporte para o processo de pensamento e tornando-o menos exigente para os humanos estabelecerem consistência lógica dentro das afirmações.

O experimento demonstra uma oportunidade para um novo estilo de interação entre humanos e IA que incentiva a pessoa a avaliar e tomar decisões por si própria, em vez de aceitar o feedback dos sistemas de IA como verdade absoluta. Antevemos diversas aplicações futuras para o Questionamento em AI, como o aprimoramento do pensamento crítico em recomendações de mídia social ou com médicos e formuladores de políticas, onde o pensamento crítico é fundamental.

Conclusão

Apesar da importância do pensamento crítico, pesquisas revelam que a habilidade de raciocínio das pessoas sofre com vieses pessoais e limitações de recursos cognitivos, resultando em resultados não ideais. Este artigo apresenta a ideia do Questionamento com Inteligência de IA, que faz perguntas para provocar o usuário a discernir a validade lógica das informações por si mesmos, em contraste com explicações típicas de IA que dependem do usuário receber passivamente o feedback do sistema de IA. Os resultados do nosso estudo mostram que o Questionamento com Inteligência de IA aumenta a precisão do discernimento de declarações falhas e as avaliações dos usuários em relação ao nível de informação suficiente dessas declarações. Embora o experimento mostre que a técnica é aplicável para a tarefa específica de validade lógica, isso exemplifica um tipo futuro de sistema em que agentes de IA trabalham em conjunto e desafiam os seres humanos, em vez de simplesmente dizer-lhes no que devem acreditar ou fazer. Em um mundo onde estamos constantemente bombardeados com informações, é mais importante do que nunca ser capaz de pensar criticamente e melhorar nossas capacidades de discernimento além do nosso estado atual.

 

 

Autores: Valdemar Danry, Yaoli Mao, Pat Pataranutaporn, Pattie Maes
Fonte: ACM Digital Library
Artigo original: https://dl.acm.org/doi/10.1145/3544548.3580672

Fernando Giannini

Pesquisador de tecnologia aplicada à educação, arquiteto de objetos virtuais de aprendizagem, fissurado em livros de grandes educadores e viciado em games de todos os tipos. Conhecimentos aprimorados em cursos de grandes empresas de tecnologia, principalmente no Google Business Educational Center e Microsoft. Sócio-proprietário da Streamer, empresa que alia tecnologia e educação. Experiência de 18 anos produzindo e criando objetos de aprendizagem, cursos a distância, design educacional, interfaces para sistemas de aprendizagem. Gestor de equipe para projetos educacionais, no Ensino Básico, Médio e Ensino Superior. Nesse período de trabalho gerenciou equipes e desenvolveu as habilidades de liderança e gestão. Acredita na integração e aplicação prática dos conhecimentos para a realização de projetos inovadores, sólidos e sustentáveis a longo prazo. Um dos grandes sonhos realizados foi o lançamento do curso gratuito Mande Bem no ENEM que atingiu mais de 500 mil estudantes em todo o Brasil contribuindo para a Educação Brasileira.

Participe da nossa comunidade no Whatsapp sobre Educação e Tecnologia

0 comentários

Enviar um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Posts Relacionados

Aprendendo com IA: espelhos sociais e intelectuais

Até recentemente, as interações humanas com máquinas antropomorfizadas (entidades não-humanas que são atribuídas características humanas) eram consideradas divertidas, mas não eram vistas como emocionalmente relevantes para a maioria das pessoas. Embora muitos se...

10 efeitos negativos do uso de celulares para as crianças

Crianças de todo o mundo (embora não todas) utilizam smartphones para diversas finalidades. Algumas passam horas conversando com amigos, enquanto outras se dedicam a jogar inúmeros jogos. A Internet é frequentemente considerada uma fonte de conhecimento para as...

Sistemas de tutoria inteligente

Adaptação da aprendizagem de acordo com o nível e ritmo do estudante Os sistemas de tutoria inteligente se baseiam na capacidade de adaptar a aprendizagem de acordo com o nível e o ritmo do estudante. Usando inteligência artificial e técnicas de aprendizado de...

Quanto custa manter a nuvem no céu para o meio ambiente?

À medida que a humanidade aumenta sua capacidade de intervir na natureza com o objetivo de satisfazer as necessidades e desejos crescentes, aparecem as tensões e conflitos quanto ao uso do espaço e dos recursos naturais. Quanto custa manter a nuvem no céu para o meio...

Competências essenciais na era digital

A proliferação da IA em muitos aspectos da vida humana - desde o lazer pessoal até o trabalho profissional, passando pelas decisões políticas globais - impõe uma questão complexa sobre como preparar as pessoas para um mundo interconectado e em rápida mudança, que está...

Educação digital para prevenir abusos sexuais online

Depois de participar de uma aula incrível com a professora Beatriz Lorencini e o Felipe, fui tirado da bolha onde costumo estar a maior parte do meu tempo se não o tempo todo. Quando percebi eu estava em choque por "não saber ou escolher não saber" que existem...

Tag Cloud

Posts Relacionados

[dgbm_blog_module posts_number=”4″ related_posts=”on” show_categories=”off” show_pagination=”off” item_in_desktop=”2″ equal_height=”on” image_size=”mid” author_background_color=”#ffffff” disabled_on=”off|off|on” module_class=”PostRelacionado” _builder_version=”4.16″ _module_preset=”default” title_font=”Montserrat||||||||” title_text_color=”#737373″ title_font_size=”19px” title_line_height=”25px” meta_text_color=”#666″ meta_font_size=”13px” content_font_size=”13px” content_line_height=”30px” author_text_color=”#666666″ custom_css_content_container=”display:flex;||flex-wrap:wrap;” custom_css_image-container=”padding-top:70%;||overflow:hidden;” custom_css_image=”position:absolute;||top:0;||left:0;||bottom:0;||right:0;||object-fit: cover;||height:100%;||width:100%;” custom_css_title=”padding:20px;||margin-top:0;||order:2;” custom_css_content=”padding:0 20px 20px;||order:3;” custom_css_post-meta-middle=”order:1;||padding:20px;||border-bottom:1px solid #dcdcdc;||border-top:1px solid #dcdcdc;” border_width_all_post_item=”0px” border_width_all_content=”0px” box_shadow_style_container=”preset1″ box_shadow_blur_container=”5px” box_shadow_spread_container=”1px” box_shadow_color_container=”rgba(0,0,0,0.1)” global_colors_info=”{}”][/dgbm_blog_module]

Receba a nossa newsletter

Fique por dentro e seja avisado dos novos conteúdos.

Publicações mais recentes