Competências essenciais na era digital

Tempo de leitura: 64 minutes

Loading

A proliferação da IA em muitos aspectos da vida humana – desde o lazer pessoal até o trabalho profissional, passando pelas decisões políticas globais – impõe uma questão complexa sobre como preparar as pessoas para um mundo interconectado e em rápida mudança, que está cada vez mais saturado de dispositivos tecnológicos e máquinas agênticas (códigos ou mecanismos que atuam para atingir metas predeterminadas). Como podemos conceituar essas capacidades? Como podemos ajudar os estudantes a desenvolvê-las? Como podemos estudar e avaliar empiricamente seu desenvolvimento? Com este artigo, abrimos a discussão adotando uma abordagem dialógica de criação de conhecimento. Nossa equipe de 11 coautores participou de uma discussão escrita orquestrada. Em um escrito semi-independente e semi-conjunto, reunimos um conjunto de ideias sobre o que são esses recursos e como os alunos poderiam ser ajudados a desenvolvê-los. Ao mesmo tempo, discutimos ideias conceituais e metodológicas que nos permitiriam testar e refinar nossas visões hipotéticas. Ao sintetizar essas ideias, propomos que é necessário ir além das visões de recursos centradas na IA e considerar a ecologia da tecnologia, da cognição, da interação social e dos valores para descobrir quais são as competências essenciais na era digital.

1. Introdução

O surgimento dos computadores nos locais de trabalho na virada do século XXI acrescentou o “pensamento algorítmico” e a “alfabetização em computação” ao repertório de habilidades e alfabetizações de pensamento consideradas essenciais para o funcionamento e o emprego bem-sucedidos na sociedade (Knuth, 1985; Papert, 1972; Sloan & Halaris, 1985). A proliferação de computadores pessoais e outros dispositivos digitais na vida cotidiana das pessoas aumentou a necessidade de diferentes tipos de habilidades e alfabetizações, como “habilidades em TIC”, “alfabetização midiática” e “alfabetização digital” (Markauskaite, 2005, 2006).

O recente surgimento do big data, do aprendizado de máquina, da robótica e da IA deu origem à “alfabetização em dados”, ao “pensamento computacional”, à “alfabetização em IA” e a outras novas habilidades (Bull, Garofalo e Hguyen, 2020; Long e Magerko, 2020; Mandinach e Gummer, 2013). Simultaneamente, o aumento da interconectividade, da complexidade e das rápidas mudanças no conhecimento e nas habilidades necessárias para a vida cotidiana e para os empregos desviaram a atenção das habilidades e alfabetizações centradas na tecnologia para um conjunto mais amplo de competências genéricas, como criatividade, pensamento analítico, autoaprendizagem ativa e cidadania global (Fórum Econômico Mundial, 2018, 2020).

A atual proliferação da IA nos locais de trabalho está gerando grandes expectativas e entusiasmo em relação a uma força de trabalho inteligente, capacitada pela IA, e o surgimento simultâneo de trabalho mal remunerado, orientado por algoritmos e não qualificado (Ekbia & Nardi, 2017). No entanto, as metas sobre as melhores tomada de decisões, mais justas e inclusivas foram entrelaçadas com preocupações sobre a governança e a exclusão da IA (Ames, 2018; Williamson & Eynon, 2020).

Os temores iniciais de que as máquinas substituiriam os seres humanos foram seguidos pela constatação de que as pessoas já estão, na verdade, trabalhando ao lado das máquinas (Nardi, 2017); e é necessário entender muito melhor como os seres humanos poderiam cooperar com a IA de forma a contribuir para sua inteligência e bem-estar (Dafoe et al., 2021). Há pouca dúvida de que a IA reconfigura a distribuição da inteligência, do trabalho e do poder entre humanos e máquinas e, portanto, são necessários novos tipos de recursos (Luengo-Oroz et al., 2020). No entanto, esses recursos ainda são pouco identificados e compreendidos.

De que tipo de recursos as pessoas precisam para uma cooperação, funcionamento e bem-estar bem-sucedidos em um mundo interconectado e em rápida mudança, permeado pela IA? Como podemos conceituar essas capacidades? Como podemos ajudar os alunos a desenvolvê-las? Como podemos estudar e avaliar empiricamente seu desenvolvimento? Com este artigo, abrimos um diálogo sobre as principais capacidades que as pessoas precisam para trabalhar, aprender e ter bem-estar em um mundo saturado de IA.

O objetivo é oferecer uma plataforma para diferentes vozes, críticas construtivas e trabalho conjunto, desenvolvendo uma compreensão mais nítida e inclusiva dessas capacidades. Adotamos uma abordagem dialógica de criação de conhecimento. Nossa equipe de 11 coautores participou de uma discussão escrita orquestrada sobre repensar os recursos para um mundo com IA. Nossa equipe representa diferentes disciplinas, perspectivas conceituais, estágios de carreira e gêneros. Ao participar de um polílogo escrito semi-independente e semi-conjunto, nosso objetivo era reunir um conjunto de ideias e participar de uma crítica construtiva e de um trabalho colaborativo para conceituar os recursos necessários para um mundo com IA. Simultaneamente, discutimos como os alunos poderiam ser ajudados a desenvolver esses recursos e que tipos de métodos de pesquisa poderiam nos permitir testar e refinar nossas visões hipotéticas.

2. Definição do território

Antes de iniciarmos o nosso dialogo transdisciplinar e erudito, precisamos esclarecer nossa terminologia. Diferentes termos têm sido usados na literatura para descrever o que as pessoas precisam saber e ser capazes de fazer para funcionar com sucesso na sociedade, como “alfabetização”, “habilidades”, “competências” e “capacidades”. As noções técnicas iniciais de alfabetização, como a capacidade de usar o alfabeto, foram substituídas pelas noções funcionais de alfabetização, como a capacidade de usar habilidades técnicas para atingir objetivos pessoais e funcionar na sociedade.

Por exemplo, o recente relatório da OCDE (2019) sobre habilidades de adultos descreve a alfabetização como “a capacidade de entender, avaliar, usar e se envolver com textos escritos para participar da sociedade, atingir seus objetivos e desenvolver seu conhecimento e potencial” (p. 18). Noções semelhantes de alfabetização têm sido aplicadas para conceituar várias habilidades relacionadas à tecnologia, como “alfabetização em TIC” e “alfabetização digital” (veja a revisão de Markauskaite, 2006).

Uma visão semelhante de alfabetização é usada no contexto da IA (Long & Magerko, 2020). O termo “habilidades”, em vez de “alfabetização”, tornou-se mais comum recentemente, especialmente em discussões sobre “habilidades do século XXI” ou “habilidades genéricas” e em contextos de educação profissional e aprendizagem ao longo da vida (OECD, 2019). Esse termo, no entanto, tem sido muito criticado na literatura educacional. Essa crítica se concentra em dois aspectos principais. Primeiro, o termo “habilidades” geralmente está associado à instrução sistemática e a níveis de desempenho mensuráveis pré-especificados. Assim, ele costuma ser específico demais para lidar com a imprevisibilidade do que as pessoas precisarão ser capazes de fazer no futuro.

Em segundo lugar, quando esse termo é usado para se referir a “prova futura” ou “habilidades do século XXI”, ele geralmente inclui traços ou características pessoais (por exemplo, criatividade) em vez de habilidades (Kirschner & Stoyanov, 2020) e, portanto, é visto como semanticamente impreciso. Outra literatura, entretanto, atribui pouca importância às diferenças entre esses termos. Por exemplo, o relatório da OCDE (2019) sobre habilidades de adultos mencionado acima usa os termos “habilidades” e “competência” como sinônimos, embora reconheça que “competência” é um termo mais amplo que inclui “conhecimentos, habilidades e atitudes (crenças, disposições, valores)” e se refere à “aplicação e uso de conhecimentos e habilidades em situações comuns da vida, em oposição ao domínio de um conjunto de conhecimentos ou de um repertório de técnicas” (p. 98).

Em tempos mais recentes, termos mais amplos, como “capacidade” e “habilidade”, têm sido comumente usados (Gangas, 2016; Markauskaite & Goodear, 2017; Poquet & de Laat, 2021). Esses termos se referem principalmente às qualidades humanas e ao potencial para fazer determinadas coisas e alcançar os resultados desejados. Ele muda o foco dos comportamentos demonstrados para o potencial, as disposições e as oportunidades que estão ao alcance de uma pessoa para buscar valores e resultados específicos.

Para sermos inclusivos, adotamos o termo mais amplo “capacidades” em vez de “alfabetização”, “habilidades” ou “competência” neste documento. Isso está de acordo com o nosso objetivo de explorar o espaço do que as pessoas devem ser capazes de fazer para ter sucesso em um mundo com IA, em vez de fornecer uma definição específica do que as capacidades diretamente relacionadas à IA implicam. Embora seja certamente importante entender também os últimos recursos, esse trabalho já foi parcialmente realizado por outros.

Por exemplo, Long e Magerko (2020), com base em uma extensa revisão da literatura de escopo, exploraram a noção de alfabetização em IA. Eles definiram “alfabetização em IA” como “um conjunto de competências que permite que os indivíduos avaliem criticamente as tecnologias de IA; comuniquem-se e colaborem efetivamente com a IA; e usem a IA como uma ferramenta on-line, em casa e no local de trabalho” (p. 598). Sua análise resultou em 17 competências essenciais relacionadas ao entendimento das pessoas sobre o que é IA, o que a IA pode fazer, como a IA funciona, como a IA deve ser usada e como as pessoas percebem a IA. No entanto, as questões induzidas pela IA vão muito além das habilidades e conhecimentos ou atitudes diretamente relacionadas à IA, incluindo características e competências que foram essenciais para muitas gerações anteriores, mas que agora assumem novas formas, como cooperação, criatividade, resolução complexa de problemas, flexibilidade e mudança (Buchanan et al., 2018; Markauskaite, 2020).

Em suma, uma visão das capacidades centrada na IA pode não captar muitas outras capacidades que os alunos precisam desenvolver para um mundo com IA, o que inevitavelmente traz o perigo de ser muito amplo e responder à pergunta “Que tipos de capacidades são necessárias para um mundo com IA” dizendo “As mesmas de sempre”. Mesmo assim, é importante considerar como esses recursos mudam em um contexto de IA. O que distingue as tecnologias baseadas em IA é a capacidade de automatizar determinados processos e emular (até mesmo superar, em alguns casos) o desempenho humano.

É essencial considerar as novas possibilidades e barreiras que podem ser encontradas na implementação e no aprimoramento desses recursos que agora são distribuídos entre humanos e máquinas inteligentes quando humanos e máquinas atuam em cooperação. Nesse contexto, pedimos aos especialistas que respondessem às perguntas acima sobre os recursos de que as pessoas precisam em um mundo com IA.

Neste artigo de autoria múltipla, adotamos uma abordagem de pesquisa policrônica e polifônica, semelhante àquelas usadas para a criação de conhecimento coletivo em diálogos pós-digitais experimentais (Jandri’c et al.,2019; Matusov, Marjanovic-Shane, & Gradovski, 2019). Jandri’c et al.(2019), com base no trabalho de Peters (2015), descrevem os diálogos pós-digitais como uma forma de “inteligência coletiva”:

3. Metodologia

Neste artigo de autoria múltipla, adotamos uma abordagem de pesquisa policrônica (é fazer várias coisas ao mesmo tempo) e polifônica (simultaneidade de vozes diferentes), semelhante àquelas usadas para a criação de conhecimento coletivo em diálogos pós-digitais experimentais (Jandri’c et al.,2019; Matusov, Marjanovic-Shane, & Gradovski, 2019). Jandri’c et al.(2019), com base no trabalho de Peters (2015), descrevem os diálogos pós-digitais como uma forma de “inteligência coletiva”:

“um projeto científico, técnico e político que visa a tornar as pessoas mais inteligentes com os computadores, em vez de tentar tornar os computadores mais inteligentes do que as pessoas. Portanto, a inteligência coletiva não é o oposto da estupidez coletiva nem o oposto da inteligência individual. Ela é o oposto da inteligência artificial. É uma maneira de desenvolver um sistema cognitivo humano/cultural renovado, explorando nosso crescente poder de computação e nossa memória onipresente.” (Peters, 2015, p. 261, citado em; Jandri’c et al., 2019, p. 164).

Pode-se questionar se a oposição entre inteligência humana e artificial é necessária. No entanto, dada a complexidade do desafio que nos propusemos a explorar e a importância de várias perspectivas humanas na busca de soluções aceitáveis, essa abordagem foi apropriada. Durante cerca de três meses, participamos de uma conversa escrita orquestrada, caracterizada por uma organização policrônica da nossa redação, que ocorreu de forma não linear na forma de diálogo assíncrono. A escrita colaborativa foi orientada pela estrutura polifônica, com o objetivo de garantir que uma voz independente de cada autor, representando uma tradição intelectual específica, fosse inicialmente ouvida e, em seguida, justaposta a outras vozes e sintonizada entre si.

Antes de iniciar esse polílogo, trabalhamos juntos como parte de uma equipe multidisciplinar mais ampla por cerca de 12 meses na criação de fundamentos intelectuais para um projeto conjunto, “Capacitando alunos na era da IA”. O primeiro autor, que orquestrou o diálogo, convidou os membros da equipe com experiência em diferentes domínios a participar de um diálogo escrito em conjunto para discutir os recursos de que os alunos precisam para um mundo com IA. Esses membros, que se tornaram coautores, tinham formação em diversos campos disciplinares (por exemplo, educação, ciências da aprendizagem, ciência da computação e engenharia) e representavam diferentes perspectivas conceituais em relação às capacidades e à IA na educação.

Cada coautor pôde convidar seus colaboradores que representavam uma perspectiva conceitual semelhante para participarem do polílogo junto com ele. Mais um coautor se juntou à equipe nessa fase. O polílogo foi realizado on-line usando o Google Docs para escrita colaborativa. Na Fase 1, foi solicitado a cada coautor que adotasse uma perspectiva que representasse seu domínio de especialização e respondesse a um conjunto de cinco perguntas:

  1. de que tipo de recursos as pessoas precisarão em um mundo com IA,
  2. como esses recursos poderiam ser conceituados,
  3. como poderiam ser desenvolvidos,
  4. como esse desenvolvimento poderia ser estudado e avaliado empiricamente e
  5. o que mais deveria ser considerado quando pensamos em como preparar as pessoas para um mundo com IA.

Para garantir que todas as vozes fossem ouvidas e evitar o “pensamento de grupo”, foi solicitado a cada coautor que escrevesse sua contribuição inicial de forma independente e não lesse as contribuições de outros coautores antes de redigir suas respostas.

Na Fase 2, todos os autores foram convidados a

  1. ler as contribuições uns dos outros e deixar perguntas e comentários para seus coautores;
  2. ler os comentários dos colegas e fazer as alterações que considerassem necessárias em suas respostas; e
  3. refletir sobre as contribuições de todos e acrescentar suas percepções à discussão conjunta.

Todos os autores foram convidados a coescrever esta seção, integrando suas ideias e críticas e respeitando os pontos de cada um. O primeiro autor editou levemente o texto produzido em conjunto e o enviou para revisão por pares.

A Fase 3 foi realizada em resposta aos comentários dos revisores. Eles recomendaram que apresentássemos nossas contribuições individuais de forma contínua, cada subseção abordando todas as questões, informando uma comparação mais extensa de nossas perspectivas. Em resposta a isso, reestruturamos o artigo. Garantimos que todas as vozes fossem representadas de forma equilibrada e fortalecemos ainda mais a síntese. Durante a o processo, o autor coordenador identificou características distintas de cada perspectiva e propôs quatro dimensões iniciais para compará-las.

Duas dimensões se concentraram na distribuição da agência: entre indivíduos e coletivos e entre humanos e IA. Duas outras dimensões se concentraram em 3) o foco dos recursos (para que servem esses recursos) e 4) o local dos recursos (onde esses recursos são realizados). Usando essas dimensões, ela elaborou tabelas e figuras de síntese iniciais. Eles foram discutidos com todos os autores em uma reunião e revisados várias vezes até que se chegasse a um consenso entre todos os autores.

Cada autor revisou e assegurou que sua perspectiva fosse representada com precisão na síntese. Na seção “Resultados” a seguir, apresentamos nossas contribuições individuais, passando para a seção “Discussão conjunta”, na qual apresentamos uma síntese do nosso dando sentido ao conjunto. Para garantir a confiabilidade (Korstjens & Moser, 2018), tornamos nossas perspectivas explícitas e o projeto metodológico transparente.

Também conduzimos nosso polílogo on-line, deixando um “rastro digital espesso” de como nossas ideias evoluíram. Não estamos de forma alguma reivindicando objetividade, cobertura exaustiva ou generalização de nossas descobertas. No entanto, assim como outros envolvidos em experimentos semelhantes de criação de conhecimento, podemos afirmar que “estamos provisoriamente confiantes de que este artigo produz mais conhecimento do que a soma aritmética de suas partes constituintes” (Jandri’c, 2019, p. 180). Considerando o estado da arte nesse domínio, esperamos que nosso conhecimento produzido coletivamente ofereça uma plataforma valiosa para futuros diálogos e pesquisas nesse espaço.

4. Resultados

Nossas perspectivas individuais sobre os recursos de um mundo infundido com IA variaram de visões mais individuais e cognitivamente orientadas a perspectivas mais relacionais e socialmente orientadas. Usamos essa dimensão como guia para sequenciar nossas contribuições, começando pelas perspectivas que enfatizam os indivíduos e avançando para conceitualizações mais amplas e relacionais.

4.1. Usando a IA para se tornar um aluno autêntico

Uma perspectiva de aprendizagem autorregulada (Dragan Gasevic, DG)

De que tipo de recursos as pessoas precisam em um mundo com IA?

Os desenvolvimentos em IA aceleram as mudanças tecnológicas nos locais de trabalho e as demandas por aprendizado contínuo, aprimoramento e requalificação. Para manter a relevância do trabalho e apoiar futuras transições de carreira em um mundo com IA, os indivíduos precisarão de habilidades de aprendizagem autorregulada (SRL) altamente desenvolvidas (Winne et al., 2017). Elas não são importantes apenas para questões relacionadas aos mercados de trabalho, mas também para outros aspectos da vida, como finanças pessoais, saúde, cultura e clima. As habilidades de SRL desempenham um papel crítico em todas as facetas do aprendizado e do desenvolvimento humano. Por exemplo, o SRL sustenta a forma como os alunos navegam e operam com informações on-line, formam consultas para pesquisar informações na Web ou nas mídias sociais e examinam e reúnem informações. Em cada etapa, os alunos decidem quais informações são relevantes e julgam como elas contribuem para a realização de suas metas de aprendizagem (Dunlosky & Thiede, 2013). A necessidade de habilidades de SRL é ainda mais enfatizada na era da IA devido a dois motivos importantes: (i) a necessidade de se adaptar (re) ou aprimorar as habilidades) com frequência devido à velocidade das mudanças no trabalho e na vida; e (ii) a necessidade de manter a agência na tomada de decisões ao trabalhar com sistemas de IA.

Como podemos conceituar esses recursos?

Em geral, eu me baseio na literatura sobre aprendizagem autorregulada (SRL) para conceituar esses recursos, especificamente, o grau em que os alunos exercem controle sobre seus pensamentos, sentimentos e meios para atingir as metas de aprendizagem é o núcleo da SRL (Winne, 2011). Os principais pressupostos da teoria do SRL são a agência do aluno e a construção do conhecimento. Os alunos escolhem o que aprender e como aprenderão, no contexto de metas, recursos e restrições externas (Winne & Hadwin, 1998). Eles constroem o conhecimento usando operações (ou ferramentas de aprendizagem) para interagir com a informação. Em minha pesquisa sobre SRL em conexão com a IA, concentro-me no desenvolvimento de técnicas de IA orientadas pela teoria para a análise de construções de SRL, como estratégias de aprendizagem, motivação e gerenciamento de tempo (Gaˇsevi’c, Dawson, & Siemens, 2015). Esta pesquisa tem como objetivo melhorar a instrumentação dos ambientes de aprendizagem e desenvolver técnicas analíticas que possam oferecer percepções profundas sobre o SRL à medida que ele se desenvolve para aumentar a compreensão da pesquisa e informar futuras intervenções.

Como podemos ajudar os alunos a desenvolver essas capacidades?

Quando se trata de desenvolver capacidades para aprender a mediação por professores e os feedbacks eficazes são essenciais (Wisniewski, Zierer, & Hattie, 2020). Os estudantes geralmente não escolhem práticas de aprendizagem eficazes, como autoteste e aprendizagem espaçada (Bjork & Bjork, 2020). Essas escolhas ruins podem ser atribuídas a três motivos (Winne, 2006):

  1. os alunos não têm conhecimento das práticas de aprendizagem eficazes,
  2. não sabem que algumas práticas de aprendizagem podem ser usadas em diferentes tarefas e
  3. não têm habilidades suficientes para usar efetivamente algumas práticas de aprendizagem.

Além disso, como agentes, os alunos também fazem julgamentos ruins sobre o quanto aprenderam, a qualidade, a relevância das informações que encontraram, quando e por quanto tempo precisam estudar. Em minha pesquisa, pretendo desenvolver suportes estruturados e orientados por IA que analisem as atividades dos alunos em tempo real e ofereçam orientação aos alunos na forma de feedback, avisos e dicas (van der Graaf et al., 2020).

A razão para isso está no fato de que os alunos precisam receber feedback personalizado (de professores e/ou colegas) sobre se usaram práticas eficazes de aprendizagem. No entanto, o principal desafio é que o feedback personalizado exige recursos significativos que os sistemas educacionais, as escolas e os professores muitas vezes não podem pagar. É por isso que o trabalho futuro sobre o apoio e o feedback deve andar de mãos dadas com o trabalho sobre métodos orientados por IA na análise da aprendizagem para estudo empírico e avaliação do desenvolvimento das habilidades de SRL (Molenaar, Horvers, & Baker, 2019).

Como podemos estudar e avaliar empiricamente o desenvolvimento dessas capacidades?

Embora o uso de tecnologias digitais permita a coleta de quantidades sem precedentes de dados, esses dados geralmente não são suficientes para fornecer medições confiáveis e válidas. Em minha pesquisa, abordo essa questão usando dados multicanais, como fluxos de cliques, movimentos do mouse e rastreamento ocular (Azevedo & Gaˇsevi’c, 2019), instrumentação aprimorada de ambientes de aprendizagem, como o uso de destaques com significado específico que reflete fatores motivacionais, cognitivos e metacognitivos (Jovanovi’c, Gaˇsevi’c, Pardo, Dawson, & Whitelock-Wainwright,2019; van der Graaf et al, 2021) e desenvolver métodos de análise que combinem diferentes técnicas de IA e de análise de dados, como aprendizagem profunda e de máquina, mineração de processos e análise de rede (Ahmad Uzir, Gaˇsevi’c, Matcha, Jovanovi’c, & Pardo, 2020; Fan, Saint, Singh, Jovanovic, & Gaˇsevi’c, 2021; Saint, Gaˇsevi’c, Matcha, Uzir, & Pardo, 2020).

Todos esses desenvolvimentos formam uma base para avanços na compreensão das habilidades de SRL na era da IA e informam o projeto e a validação de sistemas de IA que promovem o desenvolvimento de habilidades de IA:

  1. Avançar em técnicas de coleta de dados discretas que aprofundem a compreensão sobre o SRL como um processo dinâmico traçado em termos de dados baseados em teoria, com amostragem intensiva, de granulação fina e temporalmente ordenados sobre as atividades dos alunos. Isso deve resultar em big data significativamente mais abrangente do que o usado atualmente na pesquisa e na prática. Esses dados serão analisados com o uso de algoritmos de IA e os resultados dessas análises serão traduzidos em análises de aprendizagem personalizadas que apoiem o SRL.
  2. Desenvolver e validar novos métodos automatizados para analisar informações que os alunos acessam, com as quais interagem (por exemplo, conteúdo destacado) e criam (por exemplo, conceitos mencionados em notas) para acompanhar o progresso, conceitos mencionados em notas) para acompanhar o progresso na aprendizagem e no desenvolvimento das habilidades de SRL.
  3. Avaliar formativamente e aumentar progressivamente os benefícios dos princípios que visam promover a aprendizagem efetiva de SRL personalizados com base em IA em relação a (i) abordagens existentes para feedback adaptativo, (ii) cronogramas para feedback de enfraquecimento e (iii) questões que afetam a aceitação.
O que mais devemos considerar?

Precisamos desenvolver estruturas que reconceitualizem o SRL para reconhecer a regulação híbrida humano-IA que informará nossa pesquisa e prática de aprendizagem e ensino (Holstein, Aleven, & Rummel, 2020; Molenaar et al., 2019). Embora os modelos existentes de SRL reconheçam o papel das condições externas, eles não conceituam suficientemente o papel ativo que os agentes baseados em IA podem desempenhar na regulação da aprendizagem de modo semelhante ao reconhecimento do papel de outros alunos nos modelos de regulação da aprendizagem socialmente compartilhada (J¨arvel¨a, Miller, Hadwin, & Malmberg, 2018).

4.2 Desenvolvimento de inteligência ampla

Uma perspectiva de sistema cognitivo híbrido (George Siemens, GS)

Que tipo de recursos as pessoas precisam em um mundo com IA?

Atualmente, apesar da propaganda, a IA ainda é rudimentar em sua contribuição para o pensamento e a cognição humana. Embora haja um avanço significativo em inteligência específica de domínio ou estreita – como o reconhecimento de tecidos cancerígenos ou a detecção de um ataque cibernético -, a verdadeira inteligência permanece indefinida. Portanto, os principais recursos de que as pessoas precisarão em um mundo com IA se encaixam em quatro categorias:

  1. Interpretar e compreender os resultados do sistema de IA. Isso inclui habilidades para entender as fontes de dados e a confiabilidade dos resultados do sistema de IA, bem como a sensibilidade a possíveis erros. O principal objetivo do uso da IA é aumentar e ampliar o conhecimento humano ou reduzir os erros no desempenho humano. Ter habilidades técnicas e conceituais para avaliar os resultados de um sistema de IA é fundamental para entender o que pode ser feito de forma confiável com esses resultados.
  2. Integrar os resultados da IA aos sistemas de conhecimento humano. Quando a IA produz um resultado, ele precisa ser utilizado por um ser humano. Mesmo nos casos em que as decisões são tomadas rapidamente pela IA em um nível que os seres humanos não podem realizar (como negociação automatizada no mercado de ações ou detecção de riscos por software de segurança), os seres humanos continuam sendo os agentes finais da ação em nível agregado. As habilidades para processar e os métodos que apoiam a integração dos resultados da IA nos sistemas humanos permitirão a tomada de decisões e o sensemaking em tempo hábil.
  3. Avaliar as implicações éticas dos resultados da IA. A IA contém e produz preconceitos. Os dados e as decisões tomadas com esses dados podem criar resultados injustos para diferentes populações. Reconhecer onde os vieses e os resultados antiéticos ou preocupantes são gerados se tornará um recurso cada vez mais importante.
  4. Elevar o trabalho cognitivo humano aos domínios da criatividade e da criação de sentido. A IA pode executar mais rapidamente tarefas cognitivas de rotina em muitas áreas do que os humanos. Como resultado, os seres humanos precisarão elevar seu trabalho cognitivo para um domínio em que a IA seja menos capaz. As práticas de conhecimento, como a criação de sentido e a criação de significado, crescerão em importância. Da mesma forma, ações criativas, como brainstorming e pensamento divergente, se tornarão capacidades mais importantes.
Como podemos conceituar esses recursos?

Meu interesse é principalmente entender as interseções entre a cognição humana e a artificial. Como resultado, o foco está no que acontece quando um resultado de conhecimento produzido artificialmente (por exemplo, avaliação de risco, pesquisa automatizada ou tendências de mídia social criadas pela categorização de uma grande quantidade de informações) entra no sistema de conhecimento humano. O sistema de conhecimento humano pode ser definido como qualquer tipo de trabalho de conhecimento que os humanos realizam e no qual eles são o árbitro final.

Isso pode incluir um radiologista que avalia os resultados de uma análise automatizada de imagens médicas, um oficial militar que analisa os resultados de um algoritmo de detecção de ameaças ou um professor que avalia os modelos de risco de evasão dos alunos. Quando o resultado da IA se cruza com o trabalho de conhecimento humano, a literatura existente da HCI e da psicologia cognitiva (principalmente sobre tomada de decisões) fornece alguns modelos conceituais. Infelizmente, esses modelos não se concentram em atividades cognitivas granulares ou específicas. Para avaliar quem deve ser capaz de fazer o quê (humano ou IA), é necessário um modelo conceitual que avalie quais tarefas cognitivas específicas devem ser realizadas por qual agente e em quais circunstâncias. As tarefas cognitivas específicas são a base para avaliar a interação entre humanos e IA.

Como podemos ajudar os alunos a desenvolver essas capacidades?

A ênfase atual na aprendizagem como forma de aquisição de informações precisará dar lugar a formas mais complexas de criação de conhecimento. O desenvolvimento de habilidades para ter sucesso em um mundo de IA exige atividades autênticas, como resolução de problemas, aprendizagem baseada em problemas ou trabalho de conhecimento semelhante, em que a criação, e não o consumo ou a duplicação de conhecimento, é fundamental.

Por exemplo, em uma reunião de equipe, um agente de IA poderia ser encarregado de buscar ativamente informações de fundo com base na conversa existente. Essas informações poderiam incluir um resumo da literatura acadêmica, projetos anteriores comparáveis realizados na empresa ou pesquisas abertas na Web. Um agente também poderia fornecer resumos das conversas durante a reunião, o que, por sua vez, poderia ajudar a melhorar o desenvolvimento de ideias. Esse processo – envolvimento ativo com a IA no trabalho rotineiro de conhecimento – é provavelmente a melhor maneira dos estudantes desenvolverem as habilidades de coordenação necessárias para se envolverem com a IA.

Como podemos estudar e avaliar empiricamente o desenvolvimento dessas capacidades?

Diversas agências governamentais, incluindo a OCDE e os governos nacionais de Cingapura e da Austrália, estão explorando como avaliar as habilidades “não cognitivas” (Joksimovic, Siemens, Wang, San Pedro e Way, 2020; Kautz, Heckman, Diris, ter Weel e Borghans, 2014). Isso inclui atributos como pensamento crítico, resolução de problemas complexos, aprendizado social e emocional. Como esses são construtos integrados que dependem de múltiplas funções cognitivas, como planejamento, monitoramento, geração de ideias e pensamento crítico, a avaliação é mais desafiadora do que as abordagens tradicionais, em que a medição se concentra nas informações adquiridas ou no conhecimento obtido (por exemplo, ao aprender um novo conceito).

Não estou convencido de que muitas de nossas metodologias e abordagens de pesquisa existentes sejam capazes de avaliar com precisão esses tipos de construções integradas. Os pesquisadores precisarão recorrer à ciência da complexidade e aos métodos de pesquisa de modelagem para avaliar empiricamente o estudo e o desenvolvimento dessas habilidades (Deakin Crick, 2017).

O que mais devemos considerar?

Há coisas que não entendemos sobre a consciência nos seres humanos. A visão de que em algum momento poderemos ter máquinas conscientes parece uma declaração prematura. Do ponto de vista de 2022, ainda estamos mistificados quanto à base biológica da consciência. Uma declaração provocativa sobre “máquinas conscientes” é uma boa opção para atrair a atenção da imprensa e da mídia social. A realidade, pelo menos no curto prazo, é que o trabalho mais pragmático e prático será feito em inteligência artificial restrita, ou seja, IA que se concentra em uma única tarefa em um domínio que não se transfere bem para outros domínios.

Uma preocupação que tenho, no entanto, está relacionada à sistematização de aspectos crescentes da vida moderna. Os sistemas criam rotinas. E as rotinas podem ser automatizadas. Há uma possibilidade real de que, à medida que mais de nossas vidas se tornarem estruturadas, acabaremos encontrando a IA no meio do caminho, tendo otimizado todos os aspectos de nossas vidas para algum objetivo utilitário.

Promovendo a criatividade humana: Uma perspectiva dos “4Cs” (Rebecca Marrone,RM)

Que tipo de recursos as pessoas precisam em um mundo com Al?

A criatividade é uma habilidade essencial do século XXI, ensinada em vários sistemas educacionais (Patston, Kaufman, Cropley, & Marrone, 2021), e precisaremos continuar a fomentá-la. A criatividade é definida como uma maneira nova e eficaz de resolver um problema (Plucker, Beghetto, & Dow, 2004). Isoladamente, as máquinas podem ser solucionadoras de problemas mais eficazes do que os humanos e podem apresentar novidades. Mas a novidade ou a eficácia por si só não é criatividade.

O desafio de ser criativo é apresentar novidade, eficácia e sensibilidade contextual simultaneamente. Por exemplo, no âmbito da criatividade automatizada, as máquinas são capazes de reproduzir arte e poesia que são de fato inéditas. Entretanto, a criatividade também depende de fatores contextuais, como o ambiente, as normas sociais e o meio histórico em que estamos situados. Os seres humanos estão naturalmente mais sintonizados com esses fatores sociais do que as máquinas e, em muitas áreas de nossas vidas, ser criativo continua sendo algo exclusivamente humano.

Tomemos como exemplo uma criança de 5 anos que está aprendendo a amarrar os sapatos. A criança pode descobrir e aprender uma técnica nova e eficaz e, nesse momento, está demonstrando criatividade. No entanto, para a criança de 6 anos que está amarrando os sapatos usando o mesmo método há 12 meses, não há mais criatividade. A IA criativa não pode substituir esse tipo de criatividade humana, pois seu valor é extremamente pessoal.

Como podemos conceituar essas capacidades?

Eu vejo a criatividade em um mundo com IA por meio de um modelo 4C: mini c, little c, Pro C e Big C (Kaufman & Beghetto, 2009). O mini c ou “criatividade pessoal” representa os aspectos pessoais (Runco, 1996; Vygotsky, 2004) e de desenvolvimento (Cohen, 1989) da criatividade. A minicriatividade diz respeito a autodescobertas subjetivas que são importantes para a pessoa envolvida, mesmo que outras pessoas não reconheçam a atividade como sendo criativa.

Um exemplo é a criança de 5 anos que aprende a amarrar os sapatos, como mencionado acima. A pequena criatividade também é chamada de “criatividade cotidiana” e se refere a algo que as outras pessoas reconhecem como criativo. Exemplos de pequena criatividade incluem criar uma nova maneira de ensinar estatística e depois escrever planos de aula para compartilhar com outros professores.

Pro C ou “criatividade profissional” envolve a prática deliberada de se tornar um especialista em qualquer área ou disciplina. O Big C, ou “criatividade lendária”, é o ápice do trabalho genial, pois esse trabalho será apreciado e lembrado por séculos. A IA pode apoiar a criatividade, especialmente o Pro C e, potencialmente, o Big C, pois pode ampliar o conhecimento de um especialista. No entanto, ela não substitui a criatividade mini-c ou little-c. Nos níveis mini-c e little-c, o resultado criativo não é tão importante quanto a autodescoberta que ocorre por meio do processo criativo. Portanto, é importante desenvolver uma apreciação e uma compreensão de quando e onde a IA é mais útil.

Como podemos ajudar os alunos a desenvolver essas capacidades?

Podemos ajudar as pessoas a aprender a ser mais criativas apresentando problemas de novas maneiras e criando ambientes que lhes permitam experimentar novas formas de resolver esses problemas. A IA pode nos ajudar a ampliar nosso pensamento criativo quando somos “especialistas” em um domínio, pois ela pode experimentar ou testar coisas que talvez não sejam tão prontamente possíveis na vida real (Kaufman & Beghetto, 2009).

Por exemplo, a IA pode permitir que um astrofísico desenvolva sua compreensão dos buracos negros sem exigir que os seres humanos se aventurem em direção a eles. No entanto, no contexto educacional, a mini e a pequena criatividade também são muito importantes, pois desempenham papéis essenciais no desenvolvimento humano e permitem que os alunos tenham um senso de realização e autoestima (Kaufman & Beghetto, 2009). Por exemplo, aprender uma nova maneira de escrever sua redação na 8ª série é gratificante tanto em nível individual quanto social. A IA certamente também pode ser usada para incentivar e apoiar esse tipo de criatividade.

Como podemos estudar e avaliar empiricamente o desenvolvimento dessas capacidades?

Pesquisadores em análise de aprendizagem/IA estão tentando avaliar empiricamente a criatividade por meio de dados registrados; no entanto, atualmente, apenas um pequeno aspecto da criatividade (por exemplo, pensamento divergente) é medido dessa forma (Gal, Hershkovitz, Mor’an, Guenaga e Garaizar, 2017).

Outros elementos da criatividade, como o produto criativo, também precisam ser medidos e pontuados. Vários fatores individuais e contextuais, como características pessoais e ambiente, também precisam ser avaliados e considerados. Nessa perspectiva, as técnicas de aprendizado de máquina sozinhas podem não avaliar a criatividade de forma confiável e eficaz, e o ser humano no circuito é crucial.

Portanto, os pesquisadores devem ter como objetivo desenvolver o aprendizado de máquina técnicas e ferramentas de IA que ajudem as pessoas a avaliar e estudar empiricamente a criatividade, em vez de deixar a avaliação da criatividade apenas para as ferramentas de IA.

O que mais devemos considerar?

Para integrar com sucesso a IA em nossas vidas, precisamos entender que tanto as máquinas quanto os seres humanos podem contribuir para resultados criativos em momentos diferentes e de forma diferente, e precisamos entender que há um tempo e um lugar para ambos. Para resumir, apresento e respondo a estas perguntas. A IA pode ser criativa? Sim. A IA precisa desenvolver uma nova maneira de usar sapatos para ajudar crianças de 5 anos? Provavelmente não. A IA pode auxiliar ou ajudar a criança de 5 anos a aprender novas técnicas? Sim. Trabalhar em conjunto com a IA como um “colega de equipe” é onde a IA apoiará a criatividade. A IA nunca substituirá a criatividade humana, mas pode estendê-la a novas fronteiras e apoiar seu desenvolvimento.

Capacitar as pessoas a fazer livres escolhas sobre IA: a perspectiva de capacidade de Sen (Oleksandra Poquet, SP)

Que tipo de recursos as pessoas precisam em um mundo com IA?

A integração das ferramentas de IA às práticas diárias exige que as pessoas se tornem deliberadas quanto ao uso das ferramentas digitais. O cultivo do engajamento deliberado foi defendido por Salomon, Perkins e Globerson (1991), que diferenciaram dois efeitos que as tecnologias inteligentes têm sobre a cognição humana: “efeitos com” e “efeitos de”. Os “efeitos com” afetam o resultado da tarefa compartilhada entre um ser humano e uma máquina; por exemplo, uma correção automática afeta a eficiência da tarefa, pois é possível escrever mais rápido. Por outro lado, os “efeitos de” referem-se ao resíduo cognitivo que uma tarefa executada com tecnologia tem na mente humana.

Ou seja, a constante automação da escrita pode resultar em falta de autenticidade ou esquecimento da ortografia. Tanto os “efeitos com” quanto os “efeitos de” podem afetar negativamente a cognição humana, exigindo, portanto, que os indivíduos se envolvam conscientemente com as ferramentas digitais (Salomon et al., 1991). O envolvimento consciente exige que os indivíduos entendam como a tecnologia de IA funciona.

Notavelmente, esse conhecimento técnico é inseparável da disponibilidade de liberdade sistêmica: as pessoas precisam ter a opção de escolher entre “efeitos de” ou “efeitos com” para alcançar o que eles valorizam em um determinado momento.

Como podemos conceituar essas capacidades?

Penso nas capacidades humanas em um mundo com IA por meio da perspectiva de capacidade de Amartya Sen (Sen, 1985). Essa visão filosófica se concentra nos valores que os indivíduos podem escolher livremente e nas restrições estruturais que impedem a realização do que é valorizado pelos indivíduos. A capacidade se concentra na “agência”, “o que uma pessoa é livre para fazer e realizar em busca de quaisquer objetivos e valores que considere importantes” (Sen, 1985, p. 203).

A falta de liberdade de escolha de um indivíduo, capturada por Sen por meio dos chamados “fatores de conversão”, pode ser sistêmica; portanto, a capacidade de Sen descreve conceitualmente tanto os indivíduos quanto os sistemas dos quais eles fazem parte. Aplicada às capacidades no mundo da IA, essa perspectiva exige que os indivíduos entendam como a tecnologia baseada em IA pode alterar sua atividade, ou seja, os “efeitos da” e os “efeitos com” a IA na cognição, na exposição às informações, na participação ampliada etc. A partir daí, os indivíduos precisam ter a liberdade de escolher entre os “efeitos da” ou os “efeitos com”.

Essa escolha não está necessariamente presente na abordagem do capital humano para o aprendizado, que domina o discurso político atualmente. A abordagem do capital humano se concentra no desenvolvimento de habilidades como um investimento econômico, não na disponibilidade de escolha ou nas oportunidades sistêmicas de escolher com quais “efeitos da” IA os humanos se sentem confortáveis. Portanto, a perspectiva do capital humano pode privilegiar os “efeitos com IA” porque a automação pode permitir um resultado mais rápido que promete um retorno de investimento de curto prazo para o empregador.

Como podemos ajudar os alunos a desenvolver essas capacidades?

Sen defendeu o apoio às escolhas para alcançar o que um indivíduo valoriza. Em um contexto contemporâneo, isso requer uma habilidade adicional: ser capaz de resolver as tensões entre os valores individuais e coletivos que podem estar em conflito. A consciência dos próprios valores e do possível efeito prejudicial das ações individuais amplificadas pela IA é necessária para apoiar o desenvolvimento da capacidade humana. Explico isso com base em um estudo de Lee, Yang, Inchoco, Jones e Satyanarayan (2021). Os autores descrevem como indivíduos capacitados em pensamento científico e alfabetização em dados contribuem para a disseminação de falsas crenças amplificadas pela IA em ecossistemas informativos nas mídias sociais.

Habilidades individuais, como pensamento científico, trabalho com fontes diretas e capacidade de interrogar dados como parte da alfabetização de dados, não foram suficientes para combater a desinformação coletiva. A mídia social orientada por algoritmos apoiava a liberdade individual de agir (que, na visão de Sen, é exercer a própria liberdade), e a IA apoiava a aceleração da criação de sentido coletivo e da construção de conhecimento. Para evitar esse cenário, a capacidade humana de questionar a própria identidade e os valores como um prisma mais amplo que governa as ações e decisões de uma pessoa também deve ser enfatizada.

Dada a diversidade de valores e escolhas humanas, a necessidade de certos princípios ou metas coletivas aceitos pela maioria é necessária para navegar pelas tensões entre valores individuais e coletivos. O foco na educação e no aprendizado ao longo da vida para a cidadania democrática em prol da equidade, da sustentabilidade ou da valorização da vida humana acima de tudo pode se tornar um desses princípios. O foco nos valores humanísticos e na sustentabilidade pode ser uma parte essencial do currículo no mundo em que as tecnologias baseadas em IA têm potencial para ampliar as ações individuais e distorcer os padrões coletivos em direção a processos emergentes inesperados.

Como podemos estudar e avaliar empiricamente o desenvolvimento desses recursos?

Os recursos que apoiam o envolvimento deliberado com a IA, a tomada de decisões e a navegação pelos valores individuais e coletivos estão enraizados no entendimento científico do desenvolvimento da agência, da identidade e do papel do contexto. A agência, a identidade e o contexto precisam ser estudados mais profundamente e por meio de uma interseção de métodos quantitativos e qualitativos, de forma a abranger diferentes escalas e dimensões de aprendizagem do ponto de vista sistêmico. Do ponto de vista empírico, a análise da mudança do aluno em vários níveis como um processo dinâmico pode explicar as trajetórias de desenvolvimento do aluno e informar como as tecnologias podem aumentá-las e apoiá-las (Poquet et al., 2021).

O que mais devemos considerar?

Acho que as ciências humanas são fundamentais para desenvolver a capacidade e o desenvolvimento humano por meio do aprendizado. O pensamento histórico pode ajudar a posicionar os eventos dentro dos contextos, além de proporcionar uma compreensão mais ampla da evolução das ferramentas e de suas funções na atividade e no desenvolvimento humano. O pensamento evolutivo, a literatura, as artes e a filosofia podem promover a empatia e a compreensão da diversidade de contextos, possibilitando uma visão mais empática dos valores dos outros e o respeito por eles. Assim, o enfoque técnico e científico, característico do discurso educacional contemporâneo, pode se beneficiar ao ser colocado em um conjunto mais amplo de valores humanísticos, dentro e fora dos ambientes educacionais.

Criando IA para valores humanos: Uma perspectiva de IA centrada no ser humano (Roberto Martinez-Maldonado, RMM)

Que tipo de recursos as pessoas precisarão em um mundo com IA?

As pessoas precisarão de recursos relacionados a design, ética e filosofia. De modo geral, identificar os recursos de que as pessoas precisarão em um mundo com IA requer uma compreensão profunda dos recursos que o software inteligente apresentará a curto e médio prazo nos diferentes setores da nossa sociedade. Infelizmente, essa é uma tarefa muito difícil. Ninguém sabe realmente com que rapidez a IA se desenvolverá e até que ponto ela afetará cada um desses setores.

A única certeza é que as pessoas precisarão se reinventar em ciclos mais rápidos em um futuro próximo como um impacto direto da IA sobre a força de trabalho, o que já estamos experimentando, especialmente para tarefas rotineiras (Nabi, 2019). O design thinking e as habilidades de design permitirão que os seres humanos decidam o grau de controle humano e a automação computacional para resolver os principais desafios humanos. Ajudar as pessoas a desenvolver o pensamento ético e filosófico desde os estágios iniciais da educação permitirá que os futuros projetistas e desenvolvedores de IA criem inovações que mantenham os valores humanos no centro. Uma forte postura filosófica também permitirá que os seres humanos explorem mais profundamente os domínios da consciência humana e vão além de uma visão algorítmica de si mesmos.

Como podemos conceituar esses recursos?

Eu vejo os recursos a partir de uma perspectiva de design centrada no ser humano. Da mesma forma que presumimos que a IA afetará a relevância de algumas de nossas capacidades humanas, também é necessário repensar como nossas capacidades humanas podem moldar a materialização das inovações da IA. Do ponto de vista da ergonomia, a teoria da gênese instrumental descreve dois processos mútuos que explicam a co-evolução dos seres humanos e dos artefatos com os quais interagimos (Rabardel & Beguin, 2005).

Quando nos apropriamos de um novo artefato, geramos um esquema mental que nos permite usá-lo para realizar alguma tarefa. Supondo que as pessoas irão interagir com a IA em algum momento, esse primeiro processo, conhecido como instrumentação, exigirá a identificação cuidadosa dos recursos humanos relevantes que serão necessários. Trata-se de mudar “a nós mesmos”. No entanto, esse segundo processo, a instrumentalização, trata de fazer alterações no artefato ou na ferramenta em si para que se adapte ao propósito dos humanos. Isso significa que há espaço para projetar a IA e adaptá-la não apenas à tarefa em si, mas à maneira como os produtos de IA serão usados pelas pessoas.

A partir dessa perspectiva de design, precisamos pensar nas capacidades da IA voltada para os seres humanos e também nas capacidades das pessoas de projetar a IA de forma que possa se adequar efetivamente ao contexto da atividade humana. Essa perspectiva teórica é conhecida como IA centrada no ser humano (Oppermann, Boden, Hofmann, Prinz, & Decker, 2019). Embora essa abordagem esteja em sua infância, ela visa combinar a pesquisa sobre algoritmos de IA com a experiência do usuário e métodos de design para moldar tecnologias que aumentem, capacitem e aprimorem eticamente o desempenho humano.

Como podemos ajudar os alunos a desenvolver esses recursos?

O design, a ética e a filosofia centrados no ser humano são comumente ensinados de forma não extensiva nos currículos do ensino fundamental e médio ou das universidades, e há uma ausência especial desses tópicos nos cursos de engenharia e ciência da computação (Fiesler, Garrett e Beard, 2020). Isso é uma ameaça ao desenvolvimento de uma IA ética. Sch¨on (1983) explicou como os profissionais (como engenheiros e designers) têm seus próprios “códigos de conhecimento” entrelaçados em suas práticas.

O pensamento ético e filosófico deve fazer parte desses códigos, pois esses profissionais estão projetando sistemas de IA que acabarão tomando decisões importantes que podem afetar a vida de outras pessoas. Um grande número de possíveis problemas com os futuros desenvolvimentos da IA pode ser evitado se os estudantes forem educados hoje para imbuir o desenvolvimento e os usos futuros da IA com valores humanos críticos. Além disso, o design é uma matéria essencial para desenvolver as capacidades dos estudantes para promover a IA centrada no ser humano por meio de suas práticas de design prático.

Como podemos estudar e avaliar empiricamente o desenvolvimento dessas capacidades?

Já existem abordagens estabelecidas para estudar e avaliar o desenvolvimento de diferentes capacidades dos componentes que mencionei, como habilidades de design, ética e filosofia. Mas uma questão fundamental é: como avaliá-las no contexto do design da IA e das práticas associadas? Como a IA é um campo em rápida evolução, é um grande desafio para os educadores acompanhar todas as inovações atuais e as possíveis implicações éticas e de design dos novos desenvolvimentos.

Uma maneira possível de lidar com isso é recorrer a práticas de avaliação autênticas (Gulikers, Bastiaens e Kirschner, 2004). A avaliação autêntica concentra-se nos alunos que aplicam conhecimentos e habilidades em contextos reais de alta fidelidade. Os alunos seriam então solicitados a demonstrar competências relevantes por meio de uma realização significativa de tarefas. Por exemplo, as aspirações de IA centradas no ser humano, como a criação de IA confiável, segura e fidedigna (Shneiderman, 2021), e sua transferência para outras situações poderiam ser o foco da avaliação.

O que mais devemos considerar?

Para criar uma IA centrada no ser humano, precisamos adotar práticas centradas no ser humano em vários níveis (por exemplo, política centrada no ser humano, currículo de ciência da computação centrado no ser humano). Na verdade, estão sendo feitas incursões para criar análises de aprendizagem centradas no ser humano (Buckingham Shum, Ferguson e Martinez-Maldonado, 2019). Isso está criando uma IA sensível ao valor para ampliar o suporte fornecido aos alunos, dando voz ativa a diferentes partes interessadas na educação no projeto de tais inovações com uso intensivo de dados (Carvalho, Martinez-Maldonado, Tsai, Markauskaite e de Laat, 2022).

Vendo o eu e a IA em um sistema maior: Uma perspectiva realista social (Sarah Howard e Jo Tondeur, SH/JT)

Que tipo de capacidades as pessoas precisam em um mundo com IA?

Diferentemente de outros, consideramos as capacidades necessárias em um “mundo com IA” a partir da posição do professor, mas nosso argumento pode ser estendido a outras profissões. Quais são as competências de que os professores precisam para atuar em um mundo com IA e para preparar seus alunos para um mundo com IA? Argumentamos que há dois pontos importantes a serem considerados quando se pensa em competências digitais em relação à criação de experiências de aprendizagem e oportunidades de ensino que aproveitem a IA (para uma visão geral, consulte Zhai et al., 2021). Há uma certeza nas tecnologias digitais – que elas continuarão a mudar. Ao considerar um “mundo de IA”, com certeza será um mundo que não é estático e no qual novas tecnologias estão surgindo continuamente. Portanto, uma capacidade fundamental dos professores será a de se envolver criticamente com as novas tecnologias e considerá-las em relação às experiências de aprendizagem e ao seu próprio trabalho de professor (cf. JISC, 2019). Isso exige que os professores tenham algum nível de alfabetização em dados, especificamente como tomar decisões sobre quais ferramentas usar e para quais finalidades.A segunda capacidade cabe às instituições, pois as capacidades dos professores nesse campo estão inextricavelmente ligadas às ferramentas digitais e à infraestrutura que se espera que eles usem. As instituições educacionais também precisarão ter visão e liderança para ajudar a moldar a forma como elas, como grupo, se envolvem com a IA e o aprendizado esperado. Especificamente, isso significa fornecer o suporte necessário para se envolver com tecnologias e dados digitais habilitados para IA. Portanto, um recurso adicional será a infraestrutura de dados e os recursos de suporte das instituições para permitir que os professores testem e experimentem novas ferramentas digitais em ambientes reais de aprendizagem (cf. JISC, 2020). Isso fornece aos professores uma estrutura, mas também pode orientar o tipo de suporte disponível para que eles se envolvam com as novas tecnologias digitais.

Como podemos conceituar esses recursos?

Consideramos as capacidades humanas para um mundo com IA a partir de uma perspectiva social-realista, o que significa que o uso da IA e de outras tecnologias digitais não é totalmente relativo ao indivíduo. Podemos pensar sobre a natureza das capacidades a partir da posição das possibilidades das ferramentas digitais e de como essas ferramentas apoiam o trabalho e o aprendizado dos professores, mas elas também são orientadas pelas expectativas sociais e culturais para o uso das tecnologias digitais. As ferramentas digitais têm propriedades e possibilidades que são reais, o que significa que são distintas e independentes (Bower, 2017). Além disso, a natureza das capacidades dos professores para integrar novas tecnologias digitais pode ser conceituada em relação ao tipo de aprendizado esperado ou desejado. Os professores têm algum nível de autonomia em um determinado campo, como uma disciplina ou um tipo de instituição educacional. No entanto, seu trabalho é definido pela base da realização nesse campo específico, como avaliações, desenvolvimento de disposições e o “aluno desejado”. Os recursos dos professores incluirão a capacidade de apoiar o aprendizado para atender a esses padrões por meio de tecnologias digitais. Portanto, as capacidades dos professores são uma troca entre o aprendizado ou trabalho possível com uma determinada tecnologia digital e o aprendizado ou trabalho esperado do professor em seu campo de atuação.

Como podemos ajudar os alunos a desenvolver essas capacidades?

Tanto as competências em desenvolvimento dos professores para usar ferramentas digitais quanto a capacidade da instituição de apoiar esse trabalho são considerações importantes para o desenvolvimento das capacidades dos professores. Como as capacidades dos professores precisam refletir o aprendizado esperado, é possível direcionar e abordar essas expectativas quando fazem parte de uma visão institucional clara (Tahiru, 2021). Isso também significa que o desenvolvimento dessas capacidades tem maior probabilidade de ser uma prioridade institucional, em que a infraestrutura e o suporte estão disponíveis para os professores à medida que eles se envolvem na aprendizagem profissional para desenvolver competências. Em termos de um “mundo de IA”, um componente fundamental desse desenvolvimento será tornar a IA visível e criar oportunidades para que os professores adquiram experiência com o uso de ferramentas habilitadas para IA, entendam melhor suas possibilidades de aprendizagem e desenvolvam confiança, engajamento crítico e alfabetização. Uma abordagem para isso é incluir os professores em discussões sobre como usar dados e visualizações de um painel de análise para apoiar sua aprendizagem e ensino (Gray, Schalk, Rooney e Lang, 2021).

Como podemos estudar e avaliar empiricamente o desenvolvimento dessas capacidades?

A avaliação das capacidades em desenvolvimento precisa ser sustentável e reflexiva, de modo que possa contribuir para o desenvolvimento contínuo e o refinamento da prática (Howard, Schrum, Voogt e Sligte, 2021). Isso precisa ser um processo contínuo, devido à natureza em constante mudança das tecnologias digitais, em especial das ferramentas habilitadas para IA (Tahiru, 2021). Argumentamos que a pesquisa-ação participativa e a pesquisa baseada em design são duas abordagens que podem apoiar o estudo empírico do desenvolvimento de competências e desenvolver a capacidade e as competências dos professores com as tecnologias digitais (Markauskaite & Reimann, 2008). O desenvolvimento de competências precisa estar situado nos contextos dos professores e ser relativo às necessidades institucionais e de seus alunos. Portanto, para medir o seu desenvolvimento, ele precisa ser incorporado à prática e mensurável em relação a referências significativas, co-projetadas por professores e partes interessadas.

O que mais devemos considerar?

Em termos de professores, o objetivo de considerar as competências, agora e daqui a 15 anos, é enfocar as possíveis experiências de aprendizado disponíveis por meio do uso de uma ferramenta digital, em vez de enfocar a ferramenta em si. A questão é, então, o que os professores precisam saber para usar bem as ferramentas digitais e para os fins desejados? O segundo ponto é que os recursos, o que os professores precisam saber para apoiar o aprendizado, não existem isoladamente, mas estão inseridos nos sistemas escolares e educacionais, ditados pelo currículo e pelas expectativas sociais. O sistema mais amplo é um componente importante quando se considera como os recursos mudarão e evoluirão com o tempo e em resposta às mudanças nas tecnologias digitais.

Navegando em visões de mundo mediadas por IA: uma perspectiva de discurso mediado por IA (Simon Knight, SK)

Que tipo de recursos as pessoas precisam em um mundo com Al?

Para uma sociedade em que as pessoas possam tomar decisões pessoais, profissionais e cívicas sustentáveis, elas devem ser capazes de entender várias perspectivas, avaliar evidências, navegar pela incerteza, pensar de forma divergente ou criativa e entender sua própria posição em relação aos outros. A capacidade de navegar pelos próprios pontos de vista e pelos pontos de vista dos outros e de moldá-los e remodelá-los é fundamental para isso. A IA apresenta desafios distintos nesse sentido, pois pode ser usada para limitar e enquadrar as interações humanas. Especificamente, há preocupações quando as tecnologias podem ser usadas para, entre outras coisas:- remover o julgamento humano e o crescimento na tomada de decisões, reificando os sistemas existentes em ferramentas de decisão algorítmicas e opacas, do tipo “caixa preta”;- ocultar diferenças de opinião e enfatizar excessivamente pontos de vista extremos;e – representar e direcionar falsamente a ação humana por meio de, por exemplo, deepfakes e publicidade política altamente direcionada, na qual a intenção é enganar com base no grupo demográfico, em vez de comunicar a política ou os fundamentos pretendidos. Ao considerar como os recursos de IA são instanciados por meio de políticas, inclusive em debates curriculares, devemos evitar apenas objetivos instrumentais que visem, por exemplo, a fins econômicos diretos. Em vez disso, devemos nos concentrar nas capacidades (e na aprendizagem) para permitir que os alunos entendam o mundo ao seu redor – inclusive o papel da IA nele – mas também para entender seu papel na reformulação desse mundo; alunos, tecnologias e sociedade estão interligados ou são mutuamente constitutivos nesse sentido. As habilidades e os conhecimentos desenvolvidos em torno da codificação, da alfabetização em dados, da compreensão de como funcionam os algoritmos e outras tecnologias são cruciais não apenas para a participação na força de trabalho, mas também para a participação cívica. Essa participação cívica ainda é sustentada pela capacidade das pessoas de avaliar e se envolver com as ideias dos outros e com as próprias ideias.

Como podemos conceituar essas capacidades?

As abordagens socioculturais da aprendizagem dão um enfoque especial à negociação e ao desenvolvimento mediado por ferramentas da compreensão do conhecimento (Knight & Littleton, 2017). As ferramentas baseadas em IA oferecem oportunidades e imperativos específicos para a aprendizagem dialógica. As capacidades humanas de se envolver com ideias, fazer julgamentos e criatividade serão cada vez mais importantes em um mundo de IA (o imperativo). Paralelamente, a IA também oferece oportunidades para criar ferramentas que promovam a colaboração eficaz, apoiem a exposição a ideias divergentes e criem e recriem ferramentas culturais por meio de seus recursos digitais (Knight, 2020). De fato, a mediação é precisamente um recurso da IA que a destaca como interessante; o potencial de reorientar as formas como interagimos com nosso trabalho e uns com os outros por meio de ferramentas. Por exemplo, isso pode incluir ferramentas algorítmicas que apoiam as partes interessadas conectadas, facilitando o acesso e a tradução de evidências e ideias, além de alertar em momentos críticos de argumentação. O que preocupa são os recursos sistêmicos necessários para garantir, por exemplo, a regulamentação das tecnologias de IA, o uso da IA para aprimorar e enriquecer, em vez de definir e restringir, nossos recursos, os perguntadores ou os recursos que promovem e enriquecem a participação democrática. A IA oferece um conjunto de recursos para o desenvolvimento de ferramentas (de vários tipos), que podem moldar os processos individuais e sociais, assim como esses moldam o desenvolvimento de tais ferramentas. É impossível considerar os recursos para um mundo de IA sem considerar os recursos da IA e as formas como podemos moldar, ser moldados e remodelar esses recursos.

Como podemos ajudar os alunos a desenvolver esses recursos?

Ao considerar como desenvolver capacidades em um contexto emergente, é importante não descartar as práticas existentes bem fundamentadas, reconhecer as práticas emergentes mediadas por ferramentas e não cair em narrativas deterministas sobre os impactos da tecnologia (Oliver, 2011). No entanto, aqui vou me concentrar nas características distintas da IA para ajudar os alunos a desenvolver as capacidades necessárias por meio da aprendizagem dialógica. A IA levanta novas necessidades de aprendizagem e oferece novas oportunidades de aprendizagem dialógica, com base no conjunto de trabalhos sobre aprendizagem colaborativa apoiada por computador (Wise, Knight e Buckingham Shum, 2021), inteligência artificial na educação (Grandbastien, Luckin, Mizoguchi e Aleven, 2016) e outras tecnologias, inclusive a Internet (Knight e Littleton, 2015b; Wegerif, 2012). Por exemplo, essas oportunidades incluem agentes dialógicos que atuam como “bots de bate-papo” em atividades individuais e em pequenos grupos, ferramentas que criam contextos eficazes de trabalho em grupo, ferramentas para incorporar contextos disciplinares e profissionais e orientar os alunos por meio de materiais com suporte interativo, e assim por diante. As ferramentas de IA podem ser usadas para desenvolver os recursos necessários para um mundo de IA, envolvendo as pessoas no diálogo, ajudando-as a conectar seus conhecimentos existentes a novas áreas e promovendo a solução de problemas e a colaboração por meio da formação de grupos mediados por ferramentas e da criação de artefatos.

Como podemos estudar e avaliar empiricamente o desenvolvimento dessas capacidades?

Devemos adotar as ferramentas de IA em nossas práticas de avaliação de diferentes capacidades, inclusive as necessárias para participar de diálogos mediados por IA. No entanto, o uso eficaz da IA é sustentado por nossas capacidades de projetar, implementar e aprimorar essas ferramentas em todo o sistema. Isso pode ser melhor ilustrado por meio de um exemplo: IA com a capacidade de identificar uma variedade de diálogo em sala de aula – conversa exploratória ou responsável – conhecida por estar associada ao aprendizado (Clarke, Resnick e Rose, 2018; Knight e Littleton, 2015a). A ferramenta pode ser implementada para identificar os falantes individuais em uma sala de aula e classificar corretamente as instâncias de diferentes tipos de diálogo em toda a variedade de interações que ocorrem. É fundamental para nossas interações em um mundo de IA que tenhamos a capacidade de variar esse uso, por exemplo, quando for apropriado para apoiar: indivíduos e pequenos grupos de alunos, por meio de feedback direto para eles; professores, por meio de feedback para eles, tanto em relação às suas aulas quanto às suas próprias práticas; e escolas, ajudando-as a implementar planos de aprimoramento escolar direcionados.

O que mais devemos considerar?

A questão de como preparamos as pessoas para um mundo de IA é fundamentalmente uma questão de valores. Esses são valores relacionados aos tipos de aprendizagem mediada por ferramentas que priorizamos (Heersmink & Knight, 2018), juntamente com os de participação democrática – e os recursos que sustentam isso – em nossa interação com as ferramentas. Embora a governança e a política ofereçam ferramentas úteis em si mesmas, também é fundamental desenvolver recursos para navegar pelos dilemas do uso das ferramentas (Kitto & Knight, 2019).

Alfabetização representacional para a criação de sentido coletivo (SimonBuckingham Shum, SBS)

Que tipo de recursos as pessoas precisam em um mundo com Al?

Uma abordagem para essa questão é concentrar-se nos recursos que é altamente improvável que as máquinas consigam realizar em um futuro próximo, se é que conseguirão, e que são importantes para o desenvolvimento humano, a realização e o emprego. A ergonomia cognitiva tem décadas de trabalho estabelecido sobre a “alocação de função” nos sistemas humano-computador, em que os seres humanos e as máquinas realizam as tarefas para as quais são mais adequados para o desempenho geral do sistema, mas com atenção especial para a forma como o ser humano pode ser trazido de volta de forma eficaz para o ciclo de controle automatizado em momentos críticos (Feigh & Pritchett, 2014). Voltando-se especificamente para contextos educacionais, Luckin (2018) argumentou de forma eloquente que não faz muito sentido ensinar as pessoas a fazer o que as máquinas já podem fazer tão bem quanto, se não melhor do que os humanos. Vou me concentrar aqui em uma capacidade que tem sido objeto de estudo há vários anos, ou seja, a capacidade de usar representações visuais para facilitar a criação de sentido coletivo, especialmente quando confrontada com problemas perversos (Rittel, 1972/1984), que resistem à estruturação e à formalização necessárias para a modelagem computacional. No centro do enfrentamento de tais problemas está (i) o acordo sobre a natureza do problema, (ii) e o que pode ser considerado uma solução, (iii) ao mesmo tempo em que se mantém o envolvimento das partes interessadas, de modo que haja um senso de propriedade do resultado. Nesta contribuição, apresento um trabalho sobre a compreensão da prática participativa-representativa, ou seja, o conjunto específico de recursos que auxiliam essa deliberação, utilizando inteligências múltiplas que as máquinas estão longe de apresentar. Como tal, é um forte candidato ao desenvolvimento de capacidades na era da IA. Trata-se de uma competência de alto nível que é necessária com mais urgência do que nunca na sociedade e que pode ser aprendida. As escolas, as universidades e os locais de trabalho geralmente nos treinam para ler e escrever como autores e oradores individuais, dando pouca atenção ao pensamento com visualizações e à capacitação do pensamento coletivo. Portanto, proponho que aprender a auxiliar a “ideação coletiva” usando ferramentas de representação é uma alfabetização importante para os nossos tempos.

Como podemos conceituar esses recursos?

Nosso trabalho estudou a prática por meio da qual é possível promover, sustentar ou restaurar o envolvimento dos participantes com visualizações a serviço do sensemaking coletivo. Nossa abordagem para desenvolver essa competência resultou na prática da “Arte do Conhecimento” (Selvin & Buckingham Shum, 2014). Na estrutura, a visualização participativa produtiva é realizada ao ajudar os participantes a criar uma imagem coletiva do desafio que enfrentam e das possíveis soluções. A arte do conhecimento é uma combinação de cinco recursos principais: estética (as escolhas que fazemos para moldar uma visualização – o que é colocado em primeiro plano, excluído, quão polido, quão editável); ética (como nossos movimentos afetam as outras partes interessadas: reconhecer/ignorar a contribuição delas, mudar o significado, mudar o tópico); narrativa (o contexto de uma sessão: expectativas faladas/não faladas sobre por que estamos aqui, como devemos proceder, que tipos de significados serão criados ou resultados produzidos); sensemaking (como interpretamos eventos inesperados ou anomalias); e improvisação (como fazemos movimentos espontâneos e não planejados com a visualização quando ocorrem falhas). A arte do conhecimento fluente não é um recurso que as máquinas possam desempenhar, pois elas se valem de uma combinação complexa de diferentes inteligências (cf. Gardner, 2009), incluindo as inteligências interpessoal, ética e emocional, que permanecerão – em um futuro previsível – como características humanas.

Como podemos ajudar os alunos a desenvolver esses recursos?

Em seu trabalho pioneiro, Engelbart (1963) enfatizou que tanto os seres humanos quanto as máquinas precisavam evoluir juntos para criar sistemas humano-computador que aumentassem a inteligência. Ele defendeu o “HLAMT: Humanos usando linguagem, artefatos e metodologia na qual são treinados”. Como em qualquer instrumento avançado, o desempenho competente requer prática, mas alguns atingem o nível de virtuose. A proposta, então, é que a capacidade de usar visualizações interativas de forma a convidar a construção de uma narrativa compartilhada com as partes interessadas na sala (física ou on-line) pode ser aprendida, praticada e aprimorada. Ensinar isso em um programa de mestrado em ciência de dados mostrou que os pós-graduandos conseguem entender a abordagem e podem começar a praticar de forma reflexiva os principais recursos: é possível desenvolver tarefas autênticas, treinar o desempenho, avaliar e dar feedback (Buckingham Shum, 2019). Esse é um sinal encorajador de que isso merece uma investigação mais aprofundada.

Como podemos estudar e avaliar empiricamente o desenvolvimento dessas capacidades?

Métodos mistos que combinam análise de vídeo de reuniões facilitadas, análise de artefatos das representações criadas e análise quantitativa da distribuição das ações dos profissionais nas reuniões forneceram a base empírica que levou às principais dimensões da estrutura da arte do conhecimento (Selvin, Buckingham Shum e Aakhus, 2010). Usando esses métodos, também conseguimos diferenciar iniciantes de especialistas e oferecer treinamento em habilidades específicas (Buckingham Shum, 2019).

O que mais devemos considerar?

A rápida integração da IA introduz novas reviravoltas nessa prática. Em primeiro lugar, precisamos nos tornar mais fluentes em julgar se e quando devemos trazer os agentes de IA para a conversa para ajudar a levar as deliberações adiante. Em segundo lugar, as representações visuais que usamos para expressar ideias são cada vez mais interpretáveis computacionalmente. Os agentes inteligentes agora podem se tornar parte da conversa, até mesmo contribuindo com suas próprias questões, ideias e argumentos (por exemplo, Buckingham Shum, Sierhuis, Park e Brown, 2010). Em nossa seção de síntese, reformulamos os recursos de aprendizagem pessoal no contexto das ameaças à sociedade democrática representadas pelo colapso do discurso cívico impulsionado pelas mídias sociais. Um desenvolvimento promissor que conecta essas capacidades à necessidade de reconstruir a confiança nos processos democráticos são os modelos de “democracia deliberativa” e os processos de facilitação (B¨achtiger, Dryzek, Mansbridge e Warren, 2018), em combinação com as plataformas de participação que usam interfaces e algoritmos projetados para promover um discurso de alta qualidade. Estamos aprendendo a projetar os recursos humanos/computacionais necessários para reunir um grande número de cidadãos para deliberar de forma produtiva (por exemplo, Iandoli, Quinto, De Liddo e Buckingham Shum, 2016; Ullmann, De Liddo e Bachler, 2019; Zhang, Davies e Przybylska, 2021) ou para se envolver na resolução colaborativa de problemas com base em evidências (van Gelder et al., 2020).

Aprendizagem e criação de valor em redes de seres humanos e não humanos: uma perspectiva de aprendizagem em rede (Maarten De Laat, MDL)

Que tipo de recursos as pessoas precisam em um mundo com IA?

Os profissionais precisam de recursos para aprender nas redes de sistemas inteligentes humanos e não humanos. O aumento da digitalização, combinado com o avanço da análise de aprendizagem e da IA, abre a possibilidade de projetar sistemas automatizados de feedback em tempo real capazes de oferecer suporte just-in-time e just-in-place para aprendizagem, resolução de problemas complexos e tomada de decisões (De Laat, Joksimovic, & Ifenthaler, 2020). Esses sistemas podem avaliar a aprendizagem e o desenvolvimento profissional in situ e podem afetar a colaboração humana e de máquinas durante o trabalho em equipe (Seeber et al., 2020). A aprendizagem em rede tem uma visão relacional da aprendizagem; e os sistemas de IA introduzem uma infinidade de novos atores e conexões nas redes (Thompson & Graham, 2020). A maneira como as relações homem-máquina são formadas nas redes profissionais afeta sua capacidade de aprender e resolver problemas.

Como podemos conceituar essas capacidades?

Conceituo as capacidades a partir da perspectiva da aprendizagem em rede. A aprendizagem em rede é um domínio de pesquisa dedicado a entender como as pessoas desenvolvem e mantêm uma “teia” de relações que pode ser usada para a aprendizagem e a criação de valor (Wenger, Trayner e De Laat, 2011). Como definição, “a aprendizagem em rede envolve processos de investigação colaborativa, cooperativa e coletiva, criação de conhecimento e ação de conhecimento, sustentados por relacionamentos confiáveis, motivados por um senso de desafio e possibilitados por tecnologias de convívio” (NLEC, 2021, p. 319). O que há de especial na pesquisa sobre aprendizagem em rede é sua atenção aos relacionamentos, à atividade mediada por tecnologia e ao envolvimento colaborativo em atividades valiosas. Usar uma perspectiva de aprendizagem em rede para conceituar a aprendizagem homem-máquina significaria analisar:

  1. Como os seres humanos aceitarão e se envolverão em relacionamentos híbridos com IA ou máquinas inteligentes para promover o aprendizado.
    Isso abre espaço para perguntas sobre a importância desses relacionamentos e como isso é influenciado por questões como confiança, poder, identidade, pertencimento, diferença, afeto, reciprocidade, solidariedade, compromisso e tempo (NLEC, 2021). Até recentemente, estávamos bastante à vontade para fazer essas perguntas sobre as relações de aprendizagem entre humanos, mas com a introdução da IA, precisamos expandir nossa noção do que é definido como uma prática social na qual ocorrem as interações de aprendizagem. Em contextos em que essa prática não é mais exclusivamente humana, pode não ficar claro com quem/o que se está interagindo.
  2. Como as tecnologias moldam e são moldadas pela atividade (NLEC, 2021).
    Aqui, o reconhecimento de que as ferramentas, os artefatos e a infraestrutura são configurados de maneiras complexas e, às vezes, obscuras, nos leva a fazer perguntas sobre os recursos das tecnologias, o acesso e a apropriação, a propriedade e o controle, bem como sobre como o social e o material estão interligados.
  3. Como a investigação colaborativa e a ação conjunta diante de desafios compartilhados são alcançadas?
    O que significa a construção conjunta de conhecimento em um contexto de redes híbridas? Como os sistemas de IA se desenvolveram como consequência da participação em processos complexos de solução de problemas? A pesquisa de aprendizagem em rede no contexto de redes homem-máquina abordará como a criação de significado, a negociação, a participação, o compartilhamento, a aprendizagem e a ação são evidenciados nessas práticas colaborativas e como isso ocorre em escala e ao longo do tempo (NLEC, 2021).

Esses três aspectos serão sempre abordados em relação uns aos outros para entender como eles estão interligados na ação e na prática.

Como podemos ajudar os alunos a desenvolver essas capacidades?

No que se refere ao desenvolvimento das capacidades, a estrutura de criação de valor (Wenger et al., 2011) pode servir de inspiração, Essa estrutura identifica cinco tipos de valores vivenciados pelos participantes por meio do aprendizado na rede: (i) valor imediato, como o prazer de aprender; (ii) valor potencial que resulta em aprendizado que pode ser potencialmente aplicado em situações futuras; (iii) valor aplicado que resulta em mudanças na prática; (iv) valor realizado que resulta na compreensão de como o desempenho de alguém foi aprimorado; e (v) valor de reenquadramento que resulta na transformação de como as pessoas definem e avaliam o sucesso. À medida que as redes e as comunidades se desenvolvem, elas têm histórias para contar, e é no contexto dessas histórias que se pode avaliar o aprendizado que está ocorrendo e o valor que está sendo criado. A estrutura de criação de valor oferece uma estrutura de narração de histórias para ajudar os alunos a articular como as interações homem-máquina os ajudaram a atingir suas metas e mudaram sua prática.

Como podemos estudar e avaliar empiricamente o desenvolvimento dessas capacidades?

A estrutura de criação de valor (Wenger et al., 2011) fornece uma série de indicadores associados aos ciclos de criação de valor que os alunos podem usar para contar suas histórias. Exemplos de indicadores são: nível de participação e envolvimento, qualidade das interações, habilidades adquiridas, qualidade do resultado, reutilização de produtos, inovação da prática, desempenho pessoal, reputação, novas estruturas ou procedimentos para fazer as coisas etc. A coleta de dados associados a esses indicadores é, portanto, uma maneira importante de evidenciar o valor que está sendo criado. Com o aumento da digitalização, as histórias de criação de valor podem aproveitar uma grande quantidade de dados digitais para ajudar a articular como as práticas de redes híbridas facilitaram os processos de aprendizagem com o objetivo de criar valor. As interações e estruturas em rede podem ser visualizadas para compreender o impacto que determinadas contribuições e posições em uma rede podem ter. A mudança de foco e de conteúdo pode ajudar a articular o que foi alcançado e como isso afetou uma mudança na prática ou uma forma de ver as coisas. Além disso, os rastros de dados também podem ajudar a demonstrar o crescimento da reputação, monitorando como determinados resultados foram reutilizados por outras redes e práticas.

O que mais devemos considerar?

Sob a perspectiva da aprendizagem em rede, o principal desafio é tomar consciência de como a interação dos relacionamentos mediados pelas tecnologias influencia nosso envolvimento coletivo nos processos de aprendizagem para criar valor: (i) como os seres humanos se envolvem em relacionamentos híbridos com a IA; (ii) como as tecnologias moldam e são moldadas pela atividade; e (iii) como a investigação colaborativa e a ação conjunta são alcançadas diante de desafios compartilhados. A compreensão de como esses três elementos estão interligados e desempenham seu papel na formação das práticas homem-máquina ajudará a desenvolver e projetar políticas, estruturas e arquiteturas para facilitar o aprendizado humano e a criação de valor.

Discussão conjunta

Síntese

Nosso diálogo mostra que os recursos para um mundo com IA podem ser conceituados a partir de diferentes perspectivas e incluir uma série de aspectos críticos. A Tabela 1 resume nossas principais percepções.

Tabela 1
Resumo das respostas às perguntas do polígrafo.
Autor (es)Q1: Que tipo de capacidades as pessoas precisam em um mundo com IA?Q2: Como podemos conceituar essas capacidades?Q3: Como podemos ajudar os alunos a desenvolver essas capacidades?Q4: Como podemos empiricamente estudar e avaliar o desenvolvimento dessas capacidades?Q5: O que mais devemos considerar?
DGHabilidades de aprendizado autorregulado para se adaptar às mudanças e manter a autonomia enquanto trabalha com IAUma perspectiva de aprendizado autorreguladoUsar IA para estruturar e fornecer feedback personalizadoDesenvolver técnicas de IA não invasivasPrecisamos reconhecer a regulação híbrida humano-IA e desenvolver uma cultura de uso de análises de aprendizado para melhoria
GSRealizar trabalho cognitivo onde a IA é menos capazUma perspectiva de sistema cognitivo híbridoEngajar-se com IA no trabalho de conhecimento diárioAproveitar a ciência da complexidade e métodos de modelagemPodemos acabar encontrando a IA na metade do caminho, pois mais de nossas tarefas diárias se tornarão estruturadas e automatizadas
RMSer criativo de maneiras unicamente humanasUma perspectiva de ‘4Cs’Usar IA como uma ferramenta para encorajar e apoiar a criatividadeDesenvolver ferramentas que ajudem a avaliar a criatividade mantendo os humanos no loopPrecisamos entender que tanto máquinas quanto humanos contribuem para resultados criativos
SPTornar-se deliberado sobre o uso de IAPerspectiva de capacidade de SenDesenvolver autoconhecimento, entendimento de IA e valores humanísticosEstudar a mudança do aluno como um processo dinâmico em várias dimensões e em diferentes níveisAs humanidades são críticas, incluindo pensamento histórico, pensamento evolutivo, filosofia, artes, literatura, etc.
RMMCriar IA para valores humanosUma perspectiva de IA centrada no humanoDesenvolver pensamento ético e filosófico para projetar experiências centradas no humano com IAUsar práticas de avaliação autênticas em contextos de vida real de alta fidelidadePrecisamos adotar práticas centradas no humano em muitos aspectos do aprendizado
SH/JTConsiderar e usar IA em relação ao próprio trabalho e a um sistema maiorPerspectiva realista socialTornar a IA visível e criar oportunidades para ganhar experiênciaUsar abordagens participativas e baseadas em designO sistema mais amplo é um componente importante ao considerar como a capacidade mudará
SKNavegar os próprios pontos de vista e os de outros, mediados pela IAPerspectiva de discurso mediado pela IAEngajar as pessoas em diálogos e trabalhos em grupo mediados por IAUsar IA para identificar uma variedade de diálogos em sala de aulaFundamentalmente é uma questão de valores
SBSFacilitar o senso coletivo usando ferramentas representacionaisPerspectiva de conhecimento artísticoAprender e praticar metodologias de linguagem e artefatos de conhecimento representacionalUsar métodos mistos para avaliar o processo de conhecimento artístico e os resultadosPrecisamos empoderar os cidadãos a engajarem-se criticamente com o capitalismo de vigilância
MDLAprender nas redes de humanos e sistemas inteligentes não humanosPerspectiva de aprendizado em redeCapacitar comunidades para articular narrativas alternativas de máquina-humanoUsar dados digitais para rastrear a criação de conhecimento em comunidades de aprendizado em redePrecisamos estar conscientes de como a IA molda nosso aprendizado coletivo e mudanças sociais

 

Essas capacidades, conforme observadas em nossas contribuições, vão desde aquelas relacionadas principalmente ao comportamento, à cognição e às disposições individuais até aquelas relacionadas às capacidades de se envolver na criação de valor e na realização de ações conjuntas. Embora alguns de nós vejam esses recursos como fundamentalmente humanos, outros reconhecem que esses recursos são híbridos e inseparáveis das ferramentas de IA que usamos. A Fig. 1 representa a distribuição de nossas perspectivas nesse espaço. Ela usa a distribuição de agência entre indivíduos e coletivos e entre humanos e IA como dois eixos principais. O eixo X mostra se os recursos são vistos principalmente como fundamentalmente humanos ou híbridos (ou seja, distribuídos entre e sintonizados com os recursos de IA); o eixo Y mostra se esses recursos são vistos principalmente como individuais ou coletivos (ou seja, distribuídos entre vários agentes humanos).

 

Fig. 1. Perspectivas conceituais em relação aos recursos de um mundo com IA representados no polígono a partir da perspectiva da agência distribuída.

 

De modo geral, as perspectivas nesse espaço constituem cinco grupos, mostrados em azul na Fig. 1. No canto inferior esquerdo estão principalmente as perspectivas que consideram as capacidades humanas individuais como fundamentais para moldar a IA e como ela é usada por pessoas em grupos, organizações e outros coletivos.

No canto inferior direito da figura estão as perspectivas que veem as capacidades individuais para um mundo com IA como dependentes não apenas dos seres humanos, mas dos híbridos de seres humanos e IA que moldam mutuamente as capacidades uns dos outros. Em nosso polígono, essa visão é exemplificada pela perspectiva do sistema cognitivo híbrido (SG).

Na parte superior da figura, há perspectivas que veem as capacidades individuais como moldadas por coletivos de humanos e coletivos de IA (canto superior esquerdo) e híbridos de coletivos humanos e IA (canto superior direito).

Em nosso polígono, a visão anterior é representada apenas parcialmente pela perspectiva do diálogo mediado por IA (SK), mas a última é bem exemplificada pela perspectiva do aprendizado em rede (MDL).

No meio da figura, estão as perspectivas que enfatizam a natureza relacional das capacidades humanas individuais em um mundo com IA. Essas perspectivas enfatizam que as capacidades individuais são inseparáveis dos sistemas sociais, políticos, técnicos e outros nos quais os humanos operam e, simultaneamente, nos quais eles criam. Essa visão é bem exemplificada pelas perspectivas realista social (SH/JT), IA centrada no ser humano (RMM) e arte do conhecimento (SBS).

Nenhuma das perspectivas é um modelo teórico idealizado, e algumas ocupam uma posição intermediária entre vários grupos. Por exemplo, a perspectiva da capacidade humana (SP) de Sen se concentra nas capacidades individuais e na agência humana, mas reconhece que as liberdades individuais são inseparáveis de sistemas maiores. Isso nos convida a analisar melhor quais tipos de capacidades humanas são realmente necessárias para um mundo com IA. Em primeiro lugar, alguns de nós (GS, SK, SH/JT) explicitam que essas capacidades se entrelaçam com um conjunto de competências diretamente relacionadas à IA, como projetar, interpretar, compreender, avaliar e analisar algoritmos e resultados de IA.

Outros são menos explícitos quanto à necessidade de atenção direta a esses recursos; no entanto, a maioria de nós reconhece que os alunos precisam entender como a IA funciona e como pode ser usada. Entretanto, o foco não é aprender sobre IA, mas como a IA molda o pensamento, as interações e os valores humanos – aprender a viver e aprender com a IA. Nessa perspectiva, nossas ideias vão além das visões centradas na IA sobre os recursos para um mundo com IA (ou seja, a “alfabetização em IA” apresentada anteriormente) e apresentam três orientações inter-relacionadas: cognitiva, humanística e social.

Elas estão resumidas na Fig. 2.

As perspectivas de orientação cognitiva (representadas por DG, GS e RM) enfatizam a cognição humana, a metacognição e o comportamento com a IA. Nessa visão, a IA é uma companheira de equipe ou um andaime em um sistema cognitivo humano-artificial. Muitas das capacidades subjacentes, como a autorregulação e a criatividade, têm sido pesquisadas há décadas, mas são complexas e ainda não são bem compreendidas nem bem ensinadas.

Além disso, a IA muda a forma como os seres humanos se envolvem em tarefas cognitivas; portanto, as pessoas devem aprender a usar as ferramentas de IA de forma a aumentar seu aprendizado, comportamento e inteligência. Por exemplo, apesar dos benefícios bem documentados das habilidades de SRL e das inúmeras oportunidades que os alunos têm nas escolas e nas instituições de ensino superior para explorá-las, praticá-las e usá-las, as habilidades de SRL continuam subdesenvolvidas (Bjork, Dunlosky, & Kornell, 2013).

Parte desse problema são os recursos para atender às necessidades individuais, como fornecer os dados de aprendizagem necessários e feedback personalizado aos alunos para que eles possam apoiar efetivamente o desenvolvimento das habilidades de SRL. De acordo com essa perspectiva, os sistemas capacitados por IA poderiam ajudar a resolver esse problema. Esses sistemas não só podem apoiar o desenvolvimento das habilidades de SRL, mas também aumentar as habilidades dos alunos para interagir e trabalhar com a IA.

As perspectivas de orientação humanística (representadas por SP e RMM) reconhecem a centralidade dos valores humanos. Argumenta-se que devemos promover capacidades que diferenciam os seres humanos das máquinas, como criatividade, resolução de problemas complexos e análise crítica e tomada de decisões, para manter a relevância das pessoas segura (Othman, 2019). Os algoritmos de IA estão criando peças de arte que os seres humanos acreditam ter sido criadas por artistas clássicos (Iansiti & Lakhani, 2020) e já estão resolvendo problemas considerando enormes quantidades de evidências de maneiras que os seres humanos não conseguem realizar facilmente colaborando entre si (Raisch & Krakowski, 2021).

Fig. 2. Síntese de diferentes perspectivas em relação aos recursos para um mundo com IA.

 

Quando o ser humano não for mais necessário no “ciclo de automação”, quais recursos continuarão sendo importantes para tornar os seres humanos relevantes? Portanto, essas perspectivas colocam no centro os ideais humanísticos e as capacidades dos indivíduos de usar e moldar a IA de forma a contribuir para o bem-estar pessoal e coletivo. Embora essa orientação reconheça que a IA molda as práticas humanas, ela afirma que a agência humana para moldar a IA para os valores humanos é fundamental. Na prática, as implicações recaem sobre o fato de equipar os indivíduos com ferramentas para questionar os valores individuais ao usar as tecnologias, bem como as escolhas feitas por aqueles que projetam as tecnologias.

Questionar quais valores estão embutidos no design (por exemplo, Friedman, 1996) e se esses valores estão alinhados com as aspirações coletivas (Wenger et al., 2011) são apenas duas direções possíveis para o desenvolvimento de uma postura crítica em relação às práticas de IA humana. A utilização das ciências humanas na educação e a adoção de práticas de design centradas no ser humano são sugeridas como formas eficazes de imbuir valores humanos fundamentais nos algoritmos de IA e desenvolver a agência humana para fazer escolhas livres em relação à IA. Manter uma visão mais externa do currículo obrigatório que apoie as capacidades transferíveis pode ser outra maneira de ajudar os alunos a navegar pelas práticas de IA humana.

As perspectivas socialmente orientadas (representadas por SH/JT, SBS, SK e MDL) estão menos preocupadas com a forma como a IA afeta a cognição e o comportamento individuais; em vez disso, elas apresentam um foco sociocultural sobre como a IA medeia a criação de significados compartilhados e as práticas coletivas. Dois tipos de capacidades tendem a ser fundamentais. Em primeiro lugar, as maneiras de alunos e professores usarem a IA são moldadas pelas expectativas sociais e culturais de sistemas maiores (por exemplo, escolas). Portanto, as capacidades do sistema para usar a IA são tão importantes quanto as capacidades dos indivíduos. O desenvolvimento dessas capacidades não pode ser deixado de lado. Em segundo lugar, a IA medeia e molda a criação de significados conjuntos em coletivos. As capacidades humanas de aproveitar a IA de forma a aprimorar essas práticas de criação de conhecimento colaborativo são fundamentais. Como alguns de nós apontam, as comunidades de aprendizagem em rede são mais do que redes de seres humanos; e a maneira como as relações homem-máquina são formadas nessas redes afeta sua capacidade de aprender, resolver problemas e criar valor.

Nossas perspectivas em relação aos recursos para um mundo com IA também variam em termos de foco (para que servem esses recursos) e locus (onde esses recursos são realizados). A Tabela 2 mapeia nossas perspectivas nesse espaço. Nenhuma das perspectivas se encaixa perfeitamente em uma categoria, mas nosso mapeamento ajuda a descrever as características e tendências dominantes de cada perspectiva.

Embora isso não fosse conhecido quando iniciamos esse exercício, a Tabela 2 mostra que nossas perspectivas representam um espectro completo de pontos de vista ao longo dessas duas dimensões.

 

Foco da capacidade (para que serve)Localização da capacidade (onde é realizada/exibida)Recursos individuaisIndivíduos em coletivosPráticas coletivas
Focado na pessoaAprendizado autorreguladoCapacidade individual de autorregular seu próprio aprendizadoCapacidade de fazer escolhas livres em relação à IAAprendizado dialógico
Capacidade de entender múltiplas perspectivas mediadas por IA
Focado em artefatos4Cs: Criatividade humanaCapacidade individual de produzir soluções inovadoras além da IAIA centrada no humano
Capacidade de projetar IA centrada no humano
Conhecimento artístico
Capacidade de facilitar a construção coletiva de sentido usando representações visuais
Focado no sistemaCognição híbridaCapacidade individual de trabalhar com conhecimento na interseção de sistemas de conhecimento artificial e humanoRealismo social
Capacidade individual apoiada pela capacidade institucional de abraçar a IA
Aprendizado em rede
Capacidade de aprender nas redes de humanos e sistemas inteligentes não humanos

 

Em termos de foco, as perspectivas na pessoa enfatizam as capacidades de que os alunos e cidadãos agentes precisam para participar de um mundo com IA, como regular o próprio aprendizado, fazer escolhas livres em relação à IA e entender como a IA media diversas perspectivas. As perspectivas focadas no artefato se concentram nas capacidades que permitem que as pessoas se envolvam em várias práticas de conhecimento e produzam produtos de conhecimento que tenham valor em um mundo com IA. Esses produtos envolvem diversos objetos materiais, digitais, simbólicos e imateriais, como soluções criativas de problemas, ferramentas de IA e representações visuais de conhecimento.

As perspectivas  focadas no sistema se concentram nas capacidades necessárias para criar e participar dos sistemas distribuídos de seres humanos e IA, como usar os resultados produzidos pelos sistemas de IA na tomada de decisões humanas, adotar a IA como parte das práticas institucionais e participar da criação de valor nas redes de seres humanos e sistemas de IA.Em termos de locus, algumas de nossas perspectivas conceituam as capacidades para um mundo com IA como uma questão primordial de recursos individuais. Tais capacidades são realizadas principalmente quando as pessoas se envolvem em formas altamente agênticas e exclusivamente humanas de trabalho com conhecimento, como aprendizado autorregulado, solução criativa de problemas e compreensão dos resultados da IA. Outras perspectivas também consideram esses recursos como primordialmente individuais, mas relacionados aos recursos, expectativas e propósitos coletivos. Portanto, as capacidades individuais relacionadas à IA são realizadas em relação às metas, valores, necessidades, infraestruturas institucionais e sistemas de apoio compartilhados. Algumas outras perspectivas veem essas capacidades como profundamente entrelaçadas com as práticas coletivas. Tais capacidades são realizadas por meio de diálogos conjuntos, da facilitação da criação de opiniões coletivas e da participação em redes de aprendizado. Isso mostra a necessidade de ir além de uma visão das capacidades centrada na IA e considerar as capacidades que sustentam as relações entre indivíduos, coletivos e máquinas.

Como ajudar os alunos a desenvolver esses recursos é uma questão espinhosa, pois não há muito em que se basear. Long e Magerko (2020) propõem 15 considerações de design para ajudar os alunos a desenvolverem a alfabetização em IA, tais como projetar deliberadamente a explicabilidade e a transparência das decisões de IA para os alunos e aumentar as oportunidades de programação para os alunos. No entanto, como projetar recursos que não são específicos da IA, mas que estão firmemente interligados a ela – como cooperar e compartilhar o trabalho cognitivo com as redes de humanos e máquinas – é muito menos claro. Nossas ideias compartilhadas aqui sugerem cinco abordagens amplas:- Ensino explícito, que inclui o desenvolvimento da alfabetização em IA dos alunos e professores (SK, SH/JT) e do pensamento humanístico, como ética, filosofia e formas históricas de pensar (SP, RMM).- Aprendizagem autêntica que envolve o envolvimento ativo com a IA nos locais de trabalho ou em outros contextos (GS, SH/JT).- Pensamento crítico e práticas reflexivas que aprofundam a compreensão de como a IA molda e é moldada pelas práticas e culturas humanas (SP, SH/JT). – Discurso e práticas epistêmicas que envolvem as pessoas na criação compartilhada de significados por meio do domínio da linguagem, das metodologias, dos artefatos e de outras ferramentas, inclusive a IA (MDL, SBS, SK).- Aprendizagem mediada por IA, em que a IA é um andaime para o domínio das capacidades humanas mais complexas, como criatividade e autorregulação (DG, RM).Essa lista é apenas indicativa e inevitavelmente incompleta. No entanto, ela sugere que os educadores provavelmente precisarão dominar um conjunto de ferramentas pedagógicas bastante amplo e combiná-lo com a IA de várias maneiras diferentes. Práticas como pontuação automática de redações e feedback personalizado estão se tornando cada vez mais difundidas nas práticas de exames escolares e nas universidades (Dixon-Rom’an, Nichols e Nyame-Mensah, 2020). Entretanto, a forma de avaliar as capacidades humanas para funcionar produtivamente em um mundo com IA foi pouco abordada (Bearman & Luckin, 2020). Nossas ideias sugeridas sobre como poderíamos estudar e avaliar essas capacidades apontam amplamente para três direções críticas: primeiro, essas capacidades provavelmente precisarão ser estudadas empiricamente e avaliadas em contextos autênticos (RMM, SH/JT). Em segundo lugar, embora seja improvável que as capacidades humanas complexas sejam totalmente avaliadas apenas por máquinas (GS, RM), as abordagens baseadas em IA podem ser úteis (MDL, SK), e suas possibilidades ainda não foram totalmente exploradas (DG). Em terceiro lugar, embora a combinação de métodos possa oferecer algumas percepções sólidas sobre os processos e os resultados da aprendizagem (SP, SBS), para que haja mais avanços na avaliação, será necessário adotar novas ideias teóricas, como as teorias da complexidade e a modelagem (GS).

O que aprendemos com isso?

Nossas conceituações variam em uma série de dimensões, como quem se beneficia (indivíduo vs. sociedade) e qual é a lógica (econômica vs. social). Alguns de nós destacam a importância de algumas capacidades humanas gerais bem conhecidas, mas difíceis de aprender, como a autorregulação e a criatividade; outros enfatizam novos tipos de capacidades que estão firmemente ligadas à IA, como a participação em diálogos e a criação de conhecimento nas redes de humanos e IA. Isso diz respeito principalmente ao que a OCDE descreve como “o conhecimento, as habilidades, as competências e outros atributos incorporados nos indivíduos que são relevantes para a atividade econômica” (OCDE, 2019, p. 104). Em contraste, outras noções enfatizam a agência humana na definição e na busca de escolhas valorizadas – coletiva ou individualmente. Além disso, algumas noções sugerem que a própria IA desempenhará um papel importante para ajudar os alunos a desenvolver as capacidades de que precisarão para enfrentar a disrupção da IA. Em contrapartida, outras noções enfatizam o papel do design, das ciências humanas e da filosofia para identificar os principais valores humanos que devem moldar as futuras interações entre humanos e máquinas. Dessa forma, podemos considerar as maneiras pelas quais a IA é moldada e pode moldar as capacidades humanas. A IA pode apoiar o aprendizado e permitir que as pessoas ampliem suas habilidades em áreas pouco exploradas. Também é preciso observar que há uma tendência natural de considerar as “capacidades” em relação aos alunos individuais e, em particular, aos alunos de escolas e universidades. No entanto, nosso diálogo sugere que as capacidades devem ser vistas no contexto mais amplo dos sistemas em que vivemos, aprendemos e trabalhamos. De fato, as capacidades podem ser concebidas em nível individual e em nível sistêmico ou organizacional, reconhecendo sua natureza mutuamente constitutiva e a importância dos sistemas de aprendizagem. Para desenvolver essas capacidades nos alunos, os professores também devem possuir essas capacidades. No entanto, essas capacidades, como já dissemos, vão muito além das ferramentas digitais habilitadas para IA e incluem práticas compartilhadas. Portanto, a questão é como a IA muda o mundo ao nosso redor e como escolhemos nos envolver com a IA como parte desse mundo.

Após Snowden, Cambridge Analytica, Brexit e eleições nos EUA, entendemos com muito mais clareza como a percepção da realidade pela sociedade é cada vez mais mediada por plataformas de propriedade comercial, refratadas por lentes distorcidas por algoritmos. Está crescendo a conscientização sobre a necessidade de os cidadãos manterem o controle de sua atenção, já que trilhões de dólares de investimento das empresas buscam distraí-la. Entretanto, é evidente, e não surpreendente, que muitos cidadãos continuam incapazes de combater essa guerra de atenção. Nesse contexto assimétrico, os cidadãos não estão mais fazendo uma “escolha livre”, como é normalmente alegado pelos proprietários de plataformas de mídia social. O potencial emancipatório da educação, que busca liberar os alunos dando-lhes agência ética, agora exige que cultivemos a capacidade dos cidadãos de fazer sentido no contexto do “capitalismo de vigilância” (Zuboff, 2019). Isso capacita os cidadãos a entender a importância vital do sensemaking para manter uma democracia funcional e, espera-se, a confiança para se envolver na vida cívica de forma mais eficaz. Assim, vemos como os recursos de aprendizado pessoal, se ampliados por milhões, devem ter efeitos de rede que inevitavelmente assumem dimensões sociais, humanísticas e políticas.

Observações finais

Nosso diálogo amplia de forma produtiva as discussões atuais sobre as capacidades relacionadas à IA. Ele revela, de forma convincente, que a resposta à pergunta “Quais capacidades os alunos precisam para um mundo com IA?” não deve se limitar a um foco centrado na IA sobre como ensinar alfabetizações básicas ou mesmo avançadas em IA, mas requer formas mais amplas e ricas de pensar sobre o que essas capacidades podem implicar. Nossas contribuições, tomadas em conjunto, revisitam as capacidades necessárias para um mundo com IA a partir das três perspectivas, parcialmente sobrepostas: cognitiva, humanística e social. Essas perspectivas mudam o foco do que precisamos aprender sobre IA para as capacidades cognitivas humanas, os valores e as práticas de conhecimento conjunto necessárias para o sucesso em um mundo com IA. Cognitivas/Humanísticas/Sociais – ou qualquer outro esquema de classificação – são, obviamente, rótulos de conveniência para ajudar a agrupar as perspectivas de forma útil, mas esses ângulos de análise, sem dúvida, se cruzam e se moldam mutuamente. Alguns de nós já usaram ou codificaram algoritmos de IA e sabem, por exemplo, que muitas decisões importantes são, em última análise, tomadas pelo programador. Em uma escala maior, as pessoas de algumas áreas geográficas podem ter perspectivas completamente diferentes sobre os efeitos da IA porque o desenvolvimento e o uso da IA não são uniformes em todos os países e setores de cada um deles. Isso torna a IA um fenômeno muito poderoso e potencialmente perturbador. Não é fácil definir um conjunto definitivo de recursos que os alunos precisarão para sobreviver às interrupções que afetarão os diversos setores de nossa sociedade global de formas muito diferentes, em diferentes graus e de maneiras imprevisíveis. É ainda mais difícil dizer que tipos de capacidades permitirão que as pessoas prosperem em um mundo com IA. Entretanto, está claro que precisamos ir além das visões de capacidades centradas na IA e considerar a ecologia da tecnologia, da cognição, da interação social e dos valores. Precisamos ser mais fluentes na compreensão de diferentes perspectivas disciplinares e participar dessas discussões polilógicas com mais frequência (Markauskaite & Goodyear, 2017; Matusov et al.,2019). Esses recursos são tão importantes porque sustentam nossa sociedade democrática, o bem-estar humano e o planeta sustentável.Concluindo, a humanidade é a única espécie que inventa e desenvolve ferramentas continuamente. Assim como as ferramentas físicas nos deram uma capacidade sem precedentes de moldar nosso ambiente material, os sistemas de símbolos que desenvolvemos como ferramentas para o pensamento transformaram totalmente a forma como pensamos e o que podemos pensar. Com a invenção da escrita, passamos de culturas orais para culturas alfabetizadas, e a humanidade pôde questionar ideias estabelecidas de novas maneiras e imaginar futuros possíveis que eram complexos demais para serem explorados sem a escrita (Ong, 1982). A imprensa foi outro agente transformador de mudanças (Eisenstein, 1979), e as infraestruturas digitais mudaram novamente o diálogo global. O cruzamento de cada um desses limiares teve ramificações cognitivas, sociais, políticas e culturais. Estamos agora à beira de um futuro em que nossas ferramentas têm um grau de agência e já possuem recursos cognitivos e de coordenação especializados que ofuscam os nossos. Reimaginar o que significa viver, aprender e trabalhar em parceria com a IA é inspirador e traz profundas responsabilidades. Espera-se que as perspectivas exploradas neste artigo injetem urgência na necessidade de acelerar e aprofundar essa conversa.

 

Autores: Lina Markauskaite, Rebecca Marrone, Oleksandra Poquet, Simon Knight, Roberto Martinez-Maldonado, Sarah Howard, Jo Tondeur, Maarten De Laat, Simon Buckingham Shum, Dragan Gaˇsevi´c,
e George Siemens.
Fonte: Elsevier
Artigo original: https://bit.ly/4bLiAUU

Referências

Ahmad Uzir, N., Gašević, D., Matcha, W., Jovanović, J., & Pardo, A. (2020). Analytics of time management strategies in a flipped classroom. *Journal of Computer Assisted Learning, 36*(1), 70–88.

Ames, M. G. (2018). Deconstructing the algorithmic sublime. *Big Data & Society, 5*(1), 1–4. https://doi.org/10.1177/2053951718779194

Azevedo, R., & Gašević, D. (2019). Analyzing multimodal multichannel data about self-regulated learning with advanced learning technologies: Issues and challenges. *Computers in Human Behavior, 96*, 207–210.

Bächtiger, A., Dryzek, J. S., Mansbridge, J., & Warren, M. (2018). *The Oxford handbook of deliberative democracy*. Oxford: Oxford University Press.

Bearman, M., & Luckin, R. (2020). Preparing university assessment for a world with AI: Tasks for human intelligence. In M. Bearman, P. Dawson, R. Ajjawi, J. Tai, & D. Boud (Eds.), *Re-imagining university assessment in a digital world* (pp. 49–63). Springer.

Bjork, R. A., & Bjork, E. L. (2020). Desirable difficulties in theory and practice. *Journal of Applied Research in Memory and Cognition, 9*(4), 475–479. https://doi.org/10.1016/j.jarmac.2020.09.003

Bjork, R. A., Dunlosky, J., & Kornell, N. (2013). Self-regulated learning: Beliefs, techniques, and illusions. *Annual Review of Psychology, 64*(1), 417–444. https://doi.org/10.1146/annurev-psych-113011-143823

Bower, M. (2017). *Design of technology-enhanced learning*. Emerald.

Buchanan, J., Ryan, R., Anderson, M., Calvo, R. A., Glozier, N., & Peter, S. (2018). Preparing for the best and worst of times. State of New South Wales. Department of Education.

Buckingham Shum, S. (2019). Knowledge Art learning resources. http://simon.buckinghamshum.net/2019/05/knowledge-art-learning-resources.

Buckingham Shum, S., & Deakin Crick, R. (2016). Learning analytics for 21st century competencies. *Journal of Learning Analytics, 3*(2), 6–21. https://doi.org/10.18608/jla.2016.32.2

Buckingham Shum, S., Ferguson, R., & Martinez-Maldonado, R. (2019). Human-centred learning analytics. *Journal of Learning Analytics, 6*(2), 1–9. https://doi.org/10.18608/jla.2019.62.1

Buckingham Shum, S., Sierhuis, M., Park, J., & Brown, M. (2010). Software agents in support of human argument mapping. In *Proceedings of third international conference on computational models of argument*. IOS Press.

Bull, G., Garofalo, J., & Hguyen, N. R. (2020). Thinking about computational thinking. *Journal of Digital Learning in Teacher Education, 36*(1), 6–18. https://doi.org/10.1080/21532974.2019.1694381

Carvalho, L., Martinez-Maldonado, R., Tsai, Y.-S., Markauskaite, L., & de Laat, M. (2022). How can we design for learning in an AI world? *Computers and Education: Artificial Intelligence*, Article 100053. https://doi.org/10.1016/j.caeai.2022.100053. In press.

Clarke, S., Resnick, L. B., & Rose, C. (2018). Discourse analytics for classroom learning. In D. Niemi, R. D. Pea, B. Saxberg, & R. E. Clark (Eds.), *Learning analytics in education*. IAP.

Cohen, L. M. (1989). A continuum of adaptive creative behaviors. *Creativity Research Journal, 2*(3), 169–183.

Dafoe, A., Bachrach, Y., Hadfield, G., Horvitz, E., Larson, K., & Graepel, T. (2021). Cooperative AI: Machines must learn to find common ground. *Nature, 593*(7857), 33–36. https://doi.org/10.1038/d41586-021-01170-0

De Laat, M., Joksimovic, S., & Ifenthaler, D. (2020). Artificial intelligence, real-time feedback and workplace learning analytics to support in situ complex problem-solving: A commentary. *The International Journal of Information and Learning Technology*.

Deakin Crick, R. (2017). Learning analytics: Layers, loops and processes in a virtual learning infrastructure. In C. Lang, G. Siemens, A. F. Wise, & D. Gašević (Eds.), *The handbook of learning analytics* (1st ed., pp. 291–308). Society for Learning Analytics Research https://www.solaresearch.org/publications/hla-17/hla17-chapter25/.

Dixon-Román, E., Nichols, T. P., & Nyame-Mensah, A. (2020). The racializing forces of/in AI educational technologies. *Learning, Media and Technology, 45*(3), 236–250. https://doi.org/10.1080/17439884.2020.1667825

Dunlosky, J., & Thiede, K. W. (2013). Four cornerstones of calibration research: Why understanding students’ judgments can improve their achievement. *Learning and Instruction, 24*, 58–61. https://doi.org/10.1016/j.learninstruc.2012.05.002

Eisenstein, E. L. (1979). *The printing press as an agent of change: Communications and cultural transformations in early-modern Europe*. Cambridge University Press.

Ekbia, H. R., & Nardi, B. A. (2017). *Heteromation, and other stories of computing and capitalism*. MIT Press.

Engelbart, D. C. (1963). A conceptual framework for the augmentation of man’s intellect. In P. W. Howerton, & D. C. Weeks (Eds.), Vol. 1. *Vistas in information handling: The augmentation of man’s intellect by machine* (pp. 1–29). Spartan Books. https://www.dougengelbart.org/content/view/382/.

Fan, Y., Saint, J., Singh, S., Jovanovic, J., & Gašević, D. (2021). A learning analytic approach to unveiling self-regulatory processes in learning tactics. In *Proceedings of the 11th international learning analytics and knowledge conference* (pp. 184–195). ACM.

Feigh, K. M., & Pritchett, A. R. (2014). Requirements for effective function allocation: A critical review. *Journal of Cognitive Engineering and Decision Making, 8*(1), 23–32. https://doi.org/10.1177/1555343413490945

Fiesler, C., Garrett, N., & Beard, N. (2020). What do we teach when we teach tech ethics? A syllabi analysis. In *Proceedings of the 51st ACM technical symposium on computer science education* (pp. 289–295).

Friedman, B. (1996). Value-sensitive design. *Interactions, 3*(6), 16–23.

Gal, L., Hershkovitz, A., Morán, A. E., Guenaga, M., & Garaizar, P. (2017, April). Suggesting a log-based creativity measurement for online programming learning environment. In *Proceedings of the fourth ACM Conference on learning@ scale* (pp. 273–277).

Gangas, S. (2016). From agency to capabilities: Sen and sociological theory. *Current Sociology, 64*(1), 22–40. https://doi.org/10.1177/0011392115602521

Gardner, H. (2009). *Five minds for the future*. Harvard Business Review Press.

Gašević, D., Dawson, S., & Siemens, G. (2015). Let’s not forget: Learning analytics are about learning. *TechTrends, 59*(1), 64–71.

van Gelder, T., Kruger, A., Thomman, S., De Rozario, R., Silver, E., Saletta, M., et al. (2020). Improving analytic reasoning via crowdsourcing and structured analytic techniques. *Journal of Cognitive Engineering and Decision Making, 14*(3), 195–217. https://doi.org/10.1177/1555343420926287

van der Graaf, J., Lim, L., Fan, Y., Kilgour, J., Moore, J., Bannert, M., … Molenaar, I. (2021). Do instrumentation

Knight, S. (2020). Section introduction: Dialogic education and digital technology. In N. Mercer, R. Wegerif, & L. Major (Eds.), *Handbook of research on dialogic education* (pp. 389–393). Routledge. https://doi.org/10.4324/9780429441677

Knight, S., & Littleton, K. (2015a). Discourse-centric learning analytics: Mapping the terrain. *Journal of Learning Analytics, 2*(1), 185–209. https://doi.org/10.18608/jla.2015.21.9

Knight, S., & Littleton, K. (2015b). Thinking, interthinking, and technological tools. In R. Wegerif, L. Li, & J. C. Kaufman (Eds.), *The Routledge international handbook of research on teaching thinking*. Routledge.

Knight, S., & Littleton, K. (2017). Socialising epistemic cognition. *Educational Research Review, 21*(1), 17–32. https://doi.org/10.1016/j.edurev.2017.02.003

Knuth, D. E. (1985). Algorithmic thinking and mathematical thinking. *The American Mathematical Monthly, 92*(3), 170–181. https://doi.org/10.1080/00029890.1985.11971572

Korstjens, I., & Moser, A. (2018). Series: Practical guidance to qualitative research. Part 4: Trustworthiness and publishing. *The European Journal of General Practice, 24*(1), 120–124. https://doi.org/10.1080/13814788.2017.1375092

Lee, C., Yang, T., Inchoco, G. D., Jones, G. M., & Satyanarayan, A. (2021). Viral visualizations: How coronavirus skeptics use orthodox data practices to promote unorthodox science online. In *Proceedings of the 2021 CHI conference on human factors in computing systems* (pp. 1–18).

Long, D., & Magerko, B. (2020). What is AI literacy? Competencies and design considerations. In *Proceedings of the 2020 CHI conference on human factors in computing systems*. https://doi.org/10.1145/3313831.3376727. Honolulu, HI.

Luckin, R. (2018). *Machine learning and human intelligence: The future of education for the 21st century*. UCL Press.

Luengo-Oroz, M., Hoffmann Pham, K., Bullock, J., Kirkpatrick, R., Luccioni, A., Rubel, S., et al. (2020). Artificial intelligence cooperation to support the global response to COVID-19. *Nature Machine Intelligence, 2*, 295–297. https://doi.org/10.1038/s42256-020-0184-3

Mandinach, E. B., & Gummer, E. S. (2013). A systemic view of implementing data literacy in educator preparation. *Educational Researcher, 42*(1), 30–37.

Markauskaite, L. (2005). Notions of ICT literacy in Australian school education. *Informatics in Education, 4*(2), 253–280.

Markauskaite, L. (2006). Towards an integrated analytical framework of information and communications technology literacy: From intended to implemented and achieved dimensions. *Information Research, 11*(3). paper 252 http://InformationR.net/ir/11-3/paper252.html.

Markauskaite, L. (2020). Learning for professional expertise: Towards new ways of conceptualising conceptual change. *International Journal of Educational Research, 103*, Article 101633. https://doi.org/10.1016/j.ijer.2020.101633

Markauskaite, L., & Goodyear, P. (2017). *Epistemic fluency and professional education: Innovation, knowledgeable action and actionable knowledge*. Springer.

Markauskaite, L., & Reimann, P. (2008). Enabling teacher-led innovation and research: A conceptual design of an inquiry framework for ICT-enhanced teacher innovation. In J. Luca, & E. Weippl (Eds.), *Proceedings of ED-MEDIA 2008–world conference on educational multimedia, hypermedia & telecommunications* (pp. 3484–3493). Vienna, Austria: Association for the Advancement of Computing in Education (AACE). Retrieved November 27, 2021 from https://www.learntechlib.org/p/28868.

Matusov, E., Marjanovic-Shane, A., & Gradovski, M. (2019). *Dialogic pedagogy and polyphonic research art*. Palgrave Macmillan. https://doi.org/10.1057/978-1-137-58057-3_1

Molenaar, I., Horvers, A., & Baker, R. S. (2019). Towards hybrid human-system regulation: Understanding children’ SRL support needs in blended classrooms. In *Proceedings of the 9th international conference on learning analytics & knowledge* (pp. 471–480). https://doi.org/10.1145/3303772.3303780

Nabi, M. K. (2019). The impact of artificial intelligence (AI) on workforce in emerging economies. *Global Journal of Management and Business Research, 19*(8), 71–78.

Nardi, B. (2017). Automation and heteromation: The Future (and present) of labor. http://bl og.castac.org/2017/05/automation-and-heteromation.

NLEC. (2021). Networked learning: Inviting redefinition. *Postdigital Science and Education, 3*(2), 312–325. https://doi.org/10.1007/s42438-020-00167-8

OECD. (2019). The survey of adult skills: Reader’s companion. OECD Publishing. https://doi.org/10.1787/f70238c7-en

Oliver, M. (2011). Technological determinism in educational technology research: Some alternative ways of thinking about the relationship between learning and technology. *Journal of Computer Assisted Learning, 27*(5), 373–384. https://doi.org/10.1111/j.1365-2729.2011.00406.x

Ong, W. J. (1982). *Orality and literacy: The technologizing of the word*. Methuen.

Oppermann, L., Boden, A., Hofmann, B., Prinz, W., & Decker, S. (2019). Beyond HCI and CSCW: Challenges and useful practices towards a human-centred vision of AI and IA. In *Proceedings of the halfway to the future symposium* (pp. 1–5).

Othman, A. (2019). Mapping artificial intelligence (AI) capabilities around human competences: An explorative study. Master thesis. Malardalen University.

Papert, S. (1972). Teaching children thinking. *Programmed Learning & Educational Technology, 9*(5), 245–255.

Patston, T. J., Kaufman, J. C., Cropley, A. J., & Marrone, R. (2021). What is creativity in education? A qualitative study of international curricula. *Journal of Advanced Academics*, 1932202X20978356.

Peters, M. A. (2015). Interview with Pierre A. Lévy, French philosopher of collective intelligence. *Open Review of Educational Research, 2*(1), 259–266. https://doi.org/10.1080/23265507.2015.10844

Plucker, J., Beghetto, R., & Dow, G. (2004). Why isn’t creativity more important to educational psychologists? Potentials, pitfalls, and future directions in creativity research. *Educational Psychologist, 39*(2), 83–96. https://doi.org/10.1207/s15326985ep3902_1

Poquet, O., & de Laat, M. (2021). Developing capabilities: Lifelong learning in the age of AI. *British Journal of Educational Technology*. https://doi.org/10.1111/bjet.13123

Poquet, O., Kitto, K., Jovanovic, J., Dawson, S., Siemens, G., & Markauskaite, L. (2021). Transitions through lifelong learning: Implications for learning analytics. *Computers and Education: Artificial Intelligence, 2*, Article 100039. https://doi.org/10.1016/j.caeai.2021.100039

Rabardel, P., & Beguin, P. (2005). Instrument mediated activity: From subject development to anthropocentric design. *Theoretical Issues in Ergonomics Science, 6*(5), 429–461. https://doi.org/10.1080/14639220500078179

Raisch, S., & Krakowski, S. (2021). Artificial intelligence and management: The automation–augmentation paradox. *Academy of Management Review, 46*(1), 192–210.

Rittel, H. (1972/1984). Second generation design methods. In N. Cross (Ed.), *Reprinted in Developments in design methodology* (pp.

317–327). Wiley & Sons.

Runco, M. (1996). Personal creativity: Definition and developmental issues. *New Directions for Child and Adolescent Development, (72)*, 3–30.

Saint, J., Gašević, D., Matcha, W., Uzir, N. A. A., & Pardo, A. (2020). Combining analytic methods to unlock sequential and temporal patterns of self-regulated learning. In *Proceedings of the tenth international conference on learning analytics & knowledge* (pp. 402–411). ACM.

Salomon, G., Perkins, D. N., & Globerson, T. (1991). Partners in cognition: Extending human intelligence with intelligent technologies. *Educational Researcher, 20*(3), 2–9.

Schön, D. (1983). *The reflective practitioner: How professionals think in action*. Temple Smith.

Seeber, I., Bittner, E., Briggs, R. O., de Vreede, T., de Vreede, G. J., Elkins, A., et al. (2020). Machines as teammates: A research agenda on AI in team collaboration. *Information and Management, 57*(2), Article 103174. https://doi.org/10.1016/j.im.2019.103174

Selvin, A., & Buckingham Shum, S. (2014). *Constructing knowledge art: An experiential perspective on crafting participatory representations*. Morgan & Claypool. https://doi.org/10.2200/S00593ED1V01Y201408HCI023

Selvin, A., Buckingham Shum, S., & Aakhus, M. (2010). The practice level in participatory design rationale: Studying practitioner moves and choices. *Human Technology, 6*(1), 71–105.

Sen, A. (1985). Well-being, agency and freedom: The Dewey lectures 1984. *The Journal of Philosophy, 82*(4), 169–221. https://doi.org/10.2307/2026184

Shneiderman, B. (2021). Tutorial: Human-centered AI: Reliable, safe and trustworthy. In *The 26th international Conference on intelligent user interfaces* (pp. 7–8).

Sloan, L., & Halaris, A. (1985). Towards a definition of computing literacy for the liberal arts environment. *ACM SIGCSE Bulletin, 17*(1), 320–326.

Tahiru, F. (2021). AI in education: A systematic literature review. *Journal of Cases on Information Technology, 23*(1), 1–20.

Thompson, T. L., & Graham, B. (2020). A more-than-human approach to researching AI at work: Alternative narratives for AI and networked learning. In *Proceedings for the 12th international conference on networked learning* (pp. 293–300).

Ullmann, T. D., De Liddo, A., & Bachler, M. (2019). A visualisation dashboard for contested collective intelligence: Learning analytics to improve sensemaking of group discussion. *Revista Iboeroamericana de Educación a Distancia (The Ibero-American Journal of Digital Education, 22*(1), 41–80. https://doi.org/10.5944/ried.22.1.22294

Vygotsky, L. S. (2004). Imagination and creativity in childhood. *Journal of Russian and East European Psychology, 42*(1), 7–97. https://doi.org/10.1080/10610405.2004.11059210

Wegerif, R. (2012). *Dialogic: Education for the internet age*. Routledge.

Wenger, E., Trayner, B., & De Laat, M. (2011). Promoting and assessing value creation in communities and networks: A conceptual framework. *Open University of the Netherlands*.

Williamson, B., & Eynon, R. (2020). Historical threads, missing links, and future directions in AI in education. *Learning, Media and Technology, 45*(3), 223–235. https://doi.org/10.1080/17439884.2020.1798995

Winne, P. H. (2006). How software technologies can improve research on learning and bolster school reform. *Educational Psychologist, 41*(1), 5–17. https://doi.org/10.1207/s15326985ep4101_3

Winne, P. H. (2011). A cognitive and metacognitive analysis of self-regulated learning. In D. H. Schunk, & B. Zimmerman (Eds.), *Handbook of self-regulation of learning and performance* (pp. 15–32). Routledge.

Winne, P. H., & Hadwin, A. F. (1998). Studying as self-regulated learning. In D. J. Hacker, J. Dunlosky, & A. C. Graesser (Eds.), *Metacognition in educational theory and practice* (pp. 277–304). Lawrence Erlbaum Associates.

Winne, P. H., Vytasek, J. M., Patzak, A., Rakovic, M., Marzouk, Z., Pakdaman-Savoji, A., et al. (2017). Designs for learning analytics to support information problem solving. In J. Buder, & F. W. Hesse (Eds.), *Informational environments: Effects of use, effective designs* (pp. 249–272). Springer. https://doi.org/10.1007/978-3-319-64274-1_11.

Wise, A. F., Knight, S., & Buckingham Shum, S. (2021). Collaborative learning analytics. In U. Cress, C. Rosé, A. F. Wise, & J. Oshima (Eds.), *International handbook of computer-supported collaborative learning*. Springer. https://doi.org/10.1007/978-3-030-65291-3.

Wisniewski, B., Zierer, K., & Hattie, J. (2020). The power of feedback revisited: A metaanalysis of educational feedback research. *Frontiers in Psychology, 10*. https://doi.org/10.3389/fpsyg.2019.03087

World Economic Forum. (2018). The future of jobs report. World Economic Forum. http://www3.weforum.org/docs/WEF_Future_of_Jobs_2018.pdf.

World Economic Forum. (2020). Schools of the future. Defining new models of education for the fourth industrial revolution. World Economic Forum. http://www3.weforum.org/docs/WEF_Schools_of_the_Future_Report_2019.pdf.

Zhai, X., Chu, X., Chai, C. S., Jong, M. S. Y., Istenic, A., Spector, M., et al. (2021). A review of Artificial Intelligence (AI) in education from 2010 to 2020. *Complexity*. https://doi.org/10.1155/2021/8812542

Zhang, W., Davies, T., & Przybylska, A. (2021). Online deliberation and #CivicTech: A symposium. *Journal of Deliberative Democracy, 17*(1), 76–77. https://doi.org/10.16997/jdd.988

Zuboff, S. (2019). *The age of surveillance capitalism*. Profile Books.

Fernando Giannini

Pesquisador de tecnologia aplicada à educação, arquiteto de objetos virtuais de aprendizagem, fissurado em livros de grandes educadores e viciado em games de todos os tipos. Conhecimentos aprimorados em cursos de grandes empresas de tecnologia, principalmente no Google Business Educational Center e Microsoft. Sócio-proprietário da Streamer, empresa que alia tecnologia e educação. Experiência de 18 anos produzindo e criando objetos de aprendizagem, cursos a distância, design educacional, interfaces para sistemas de aprendizagem. Gestor de equipe para projetos educacionais, no Ensino Básico, Médio e Ensino Superior. Nesse período de trabalho gerenciou equipes e desenvolveu as habilidades de liderança e gestão. Acredita na integração e aplicação prática dos conhecimentos para a realização de projetos inovadores, sólidos e sustentáveis a longo prazo. Um dos grandes sonhos realizados foi o lançamento do curso gratuito Mande Bem no ENEM que atingiu mais de 500 mil estudantes em todo o Brasil contribuindo para a Educação Brasileira.

Participe da nossa comunidade no Whatsapp sobre Educação e Tecnologia

0 comentários

Enviar um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Posts Relacionados

Aprendendo com IA: espelhos sociais e intelectuais

Até recentemente, as interações humanas com máquinas antropomorfizadas (entidades não-humanas que são atribuídas características humanas) eram consideradas divertidas, mas não eram vistas como emocionalmente relevantes para a maioria das pessoas. Embora muitos se...

10 efeitos negativos do uso de celulares para as crianças

Crianças de todo o mundo (embora não todas) utilizam smartphones para diversas finalidades. Algumas passam horas conversando com amigos, enquanto outras se dedicam a jogar inúmeros jogos. A Internet é frequentemente considerada uma fonte de conhecimento para as...

Sistemas de tutoria inteligente

Adaptação da aprendizagem de acordo com o nível e ritmo do estudante Os sistemas de tutoria inteligente se baseiam na capacidade de adaptar a aprendizagem de acordo com o nível e o ritmo do estudante. Usando inteligência artificial e técnicas de aprendizado de...

Quanto custa manter a nuvem no céu para o meio ambiente?

À medida que a humanidade aumenta sua capacidade de intervir na natureza com o objetivo de satisfazer as necessidades e desejos crescentes, aparecem as tensões e conflitos quanto ao uso do espaço e dos recursos naturais. Quanto custa manter a nuvem no céu para o meio...

Educação digital para prevenir abusos sexuais online

Depois de participar de uma aula incrível com a professora Beatriz Lorencini e o Felipe, fui tirado da bolha onde costumo estar a maior parte do meu tempo se não o tempo todo. Quando percebi eu estava em choque por "não saber ou escolher não saber" que existem...

Cinco passos para utilizar o ChatGPT na sala de aula

Como professor, é quase certo que você já tenha utilizado inteligência artificial (IA), mesmo que uma vez ou diariamente em seus trabalhos acadêmicos sem saber ou se importar como ela funciona. Um exemplo disso é a filtragem de spam de e-mail e o verificador...

Tag Cloud

Posts Relacionados

[dgbm_blog_module posts_number=”4″ related_posts=”on” show_categories=”off” show_pagination=”off” item_in_desktop=”2″ equal_height=”on” image_size=”mid” author_background_color=”#ffffff” disabled_on=”off|off|on” module_class=”PostRelacionado” _builder_version=”4.16″ _module_preset=”default” title_font=”Montserrat||||||||” title_text_color=”#737373″ title_font_size=”19px” title_line_height=”25px” meta_text_color=”#666″ meta_font_size=”13px” content_font_size=”13px” content_line_height=”30px” author_text_color=”#666666″ custom_css_content_container=”display:flex;||flex-wrap:wrap;” custom_css_image-container=”padding-top:70%;||overflow:hidden;” custom_css_image=”position:absolute;||top:0;||left:0;||bottom:0;||right:0;||object-fit: cover;||height:100%;||width:100%;” custom_css_title=”padding:20px;||margin-top:0;||order:2;” custom_css_content=”padding:0 20px 20px;||order:3;” custom_css_post-meta-middle=”order:1;||padding:20px;||border-bottom:1px solid #dcdcdc;||border-top:1px solid #dcdcdc;” border_width_all_post_item=”0px” border_width_all_content=”0px” box_shadow_style_container=”preset1″ box_shadow_blur_container=”5px” box_shadow_spread_container=”1px” box_shadow_color_container=”rgba(0,0,0,0.1)” global_colors_info=”{}”][/dgbm_blog_module]

Receba a nossa newsletter

Fique por dentro e seja avisado dos novos conteúdos.

Publicações mais recentes