IA na Educação

Tempo de leitura: 16 minutes

Loading

O salto para uma nova era de inteligência artificial de máquina traz riscos e desafios, mas também muitas promessas

No romance de ficção científica de Neal Stephenson, The Diamond Age (A Era do Diamante), de 1995, os leitores conhecem Nell, uma jovem que recebe um livro altamente avançado, The Young Lady’s Illustrated Primer (A Cartilha Ilustrada da Jovem). O livro não é a coleção estática usual de textos e imagens, mas uma ferramenta profundamente imersiva que pode conversar com o leitor, responder a perguntas e personalizar seu conteúdo, tudo para educar e motivar uma jovem a ser uma pessoa forte e independente.

Tal dispositivo, mesmo após a introdução da Internet e dos tablets, permaneceu no reino da ficção científica – até agora. A inteligência artificial, ou IA, deu um salto gigantesco com a introdução, em novembro de 2022, do ChatGPT, uma tecnologia de IA capaz de produzir respostas incrivelmente criativas e análises sofisticadas por meio de um diálogo semelhante ao humano. Isso desencadeou uma onda de inovação, algumas das quais sugerem que podemos estar à beira de uma era de ferramentas interativas e superinteligentes, não muito diferentes do livro que Stephenson sonhou para Nell.

Sundar Pichai, CEO do Google, chama a inteligência artificial de “mais profunda do que o fogo, a eletricidade ou qualquer coisa que tenhamos feito no passado”. Reid Hoffman, fundador do LinkedIn e atual sócio da Greylock Partners, diz: “O poder de fazer mudanças positivas no mundo está prestes a receber o maior impulso que já teve”. E Bill Gates disse que “essa nova onda de IA é tão fundamental quanto a criação do microprocessador, do computador pessoal, da Internet e do telefone celular”.

No último ano, os desenvolvedores lançaram uma variedade estonteante de ferramentas de IA que podem gerar texto, imagens, música e vídeo sem a necessidade de codificação complicada, mas simplesmente em resposta a instruções fornecidas em linguagem natural. Essas tecnologias estão se aprimorando rapidamente, e os desenvolvedores estão introduzindo recursos que seriam considerados ficção científica há apenas alguns anos. A IA também está levantando questões éticas urgentes sobre preconceito, uso apropriado e plágio.

No âmbito da educação, essa tecnologia influenciará a forma como os alunos aprendem, como os professores trabalham e, por fim, como estruturamos nosso sistema educacional. Alguns educadores e líderes aguardam essas mudanças com grande entusiasmo. Sal Kahn, fundador da Khan Academy, chegou a dizer em uma palestra do TED que a IA tem o potencial de efetuar “provavelmente a maior transformação positiva que a educação já viu“. Mas outros alertam que a IA possibilitará a disseminação de informações errôneas, facilitará a desonestidade na escola e na faculdade, acabará com qualquer vestígio de privacidade individual e causará perda maciça de empregos. O desafio é aproveitar o potencial positivo e, ao mesmo tempo, evitar ou atenuar os danos.

O que é IA generativa?

A inteligência artificial é um ramo da ciência da computação que se concentra na criação de software capaz de imitar comportamentos e processos que consideraríamos “inteligentes” se fossem exibidos por seres humanos, incluindo raciocínio, aprendizado, solução de problemas e exercício da criatividade. Os sistemas de IA podem ser aplicados a uma ampla gama de tarefas, incluindo tradução de idiomas, reconhecimento de imagens, navegação de veículos autônomos, detecção e tratamento de câncer e, no caso da IA generativa, produção de conteúdo e conhecimento, em vez de simplesmente pesquisá-los e recuperá-los.

Os “modelos básicos” na IA generativa são sistemas treinados em um grande conjunto de dados para aprender uma ampla base de conhecimento que pode ser adaptada a uma série de finalidades diferentes e específicas. Esse método de aprendizado é autosupervisionado, o que significa que o modelo aprende encontrando padrões e relacionamentos nos dados em que foi treinado.

Os grandes modelos de linguagem (LLMs) são modelos básicos que foram treinados em uma grande quantidade de dados de texto. Por exemplo, os dados de treinamento do modelo GPT da OpenAI consistiam em conteúdo da Web, livros, artigos da Wikipedia, artigos de notícias, publicações em mídias sociais, trechos de código e muito mais. Os modelos GPT-3 da OpenAI foram treinados em um número impressionante de 300 bilhões de “tokens” ou pedaços de palavras, usando mais de 175 bilhões de parâmetros para moldar o comportamento do modelo – quase 100 vezes mais dados do que o modelo GPT-2 da empresa.

Ao fazer essa análise em bilhões de frases, os modelos do LLM desenvolvem um entendimento estatístico da linguagem: como as palavras e frases são normalmente combinadas, quais tópicos são normalmente discutidos juntos e qual tom ou estilo é apropriado em diferentes contextos. Isso permite que ele gere textos semelhantes aos humanos e execute uma ampla gama de tarefas, como escrever artigos, responder a perguntas ou analisar dados não estruturados.

Os LLMs incluem o GPT-4 da OpenAI, o PaLM do Google e o LLaMA da Meta. Esses LLMs servem como “bases” para aplicativos de IA. O ChatGPT foi desenvolvido com base no GPT-3.5 e no GPT-4, enquanto o Bard usa o Pathways Language Model 2 (PaLM 2) do Google como base.

Alguns dos aplicativos mais conhecidos são:

ChatGPT 3.5 – A versão gratuita do ChatGPT lançada pela OpenAI em novembro de 2022. Ele foi treinado com dados apenas até 2021 e, embora seja muito rápido, está sujeito a imprecisões.

ChatGPT 4.0 – A versão mais recente do ChatGPT, que é mais avançada e precisa que o ChatGPT 3.5, mas também mais lenta, e requer uma conta paga. Ele também tem recursos ampliados por meio de plug-ins que lhe dão a capacidade de interagir com o conteúdo de sites, executar funções matemáticas mais sofisticadas e acessar outros serviços. Um novo recurso Code Interpreter oferece ao ChatGPT a capacidade de analisar dados, criar gráficos, resolver problemas matemáticos, editar arquivos e até mesmo desenvolver hipóteses para explicar tendências de dados.

Microsoft Bing Chat – Uma iteração do mecanismo de busca Bing da Microsoft que é aprimorada com a tecnologia ChatGPT da OpenAI. Ele pode navegar em sites e oferece citações de fontes com seus resultados.

Google Gemini – A IA do Google gera texto, traduz idiomas, escreve diferentes tipos de conteúdo criativo escreve e depura códigos em mais de 20 linguagens de programação diferentes. O tom e o estilo das respostas do Gemini podem ser ajustados para serem simples, longos, curtos, profissionais ou informais. O Gemini também aproveita o Google Lens para analisar imagens carregadas com prompts.

Anthropic Claude 2 – Um chatbot que pode gerar texto, resumir conteúdo e realizar outras tarefas, o Claude 2 pode analisar textos de aproximadamente 75.000 palavras – aproximadamente o tamanho do filme O Grande Gatsby – e gerar respostas de mais de 3.000 palavras. O modelo foi criado usando um conjunto de princípios que servem como uma espécie de “constituição” para sistemas de IA, com o objetivo de torná-los mais úteis, honestos e inofensivos.

Esses sistemas de IA têm se aprimorado em um ritmo notável, inclusive no que se refere ao seu desempenho em avaliações de conhecimento humano. O GPT-3.5 da OpenAI, que foi lançado em março de 2022, só conseguiu ficar entre os 10% piores no no exame da ordem, mas o GPT-4.0, lançado um ano depois, deu um salto significativo, ficando entre os 90% que pontuaram mais no exame. O que torna essas façanhas especialmente impressionantes é o fato de a OpenAI não ter treinado especificamente o sistema para fazer esses exames; a IA foi capaz de encontrar as respostas corretas por conta própria. Da mesma forma, o modelo de IA médica do Google melhorou substancialmente seu desempenho em um teste prático do Exame de Licenciamento Médico dos EUA, com sua taxa de precisão saltando de 33% em dezembro de 2020 para 85% em março de 2021.

Esses dois exemplos nos levam a perguntar: se a IA continuar melhorando tão rapidamente, o que esses sistemas conseguirão alcançar nos próximos anos? Além disso, novos estudos desafiam a suposição de que as respostas geradas pela IA são obsoletas ou estéreis. No caso do modelo de IA do Google, os médicos preferiram as respostas longas da IA àquelas escritas por seus colegas médicos, e os participantes do estudo que não eram médicos classificaram as respostas da IA como mais úteis. Outro estudo constatou que os participantes preferiram as respostas de um chatbot médico às respostas de um médico e as classificaram significativamente melhor, não apenas pela qualidade, mas também pela empatia. O que acontecerá quando a IA “empática” for usada na educação?

Outros estudos analisaram as capacidades de raciocínio desses modelos. Os pesquisadores da Microsoft sugerem que os sistemas mais novos “exibem mais inteligência geral do que os modelos de IA anteriores” e estão chegando “surpreendentemente perto do desempenho em nível humano”. Embora alguns observadores questionem essas conclusões, os sistemas de IA demonstram uma capacidade cada vez maior de gerar respostas coerentes e contextualmente adequadas, fazer conexões entre diferentes informações e participar de processos de raciocínio, como inferência, dedução e analogia.

Apesar de suas capacidades prodigiosas, esses sistemas não estão isentos de falhas. Às vezes, eles produzem informações que podem parecer convincentes, mas são irrelevantes, ilógicas ou totalmente falsas – uma anomalia conhecida como “alucinação”. A execução de determinadas operações matemáticas apresenta outra área de dificuldade para a IA. E, embora esses sistemas possam gerar textos bem elaborados e realistas, entender por que o modelo tomou decisões ou fez previsões específicas pode ser um desafio.

A importância de prompts bem projetados

O uso de sistemas de IA generativa, como ChatGPT, Gemini e Claude 2, é relativamente simples. Basta digitar uma solicitação ou uma tarefa (chamada de prompt) e a IA gera uma resposta. Os prompts adequadamente construídos são essenciais para obter resultados úteis das ferramentas de IA generativa. Você pode solicitar à IA generativa que analise textos, encontre padrões nos dados, compare argumentos opostos e resuma um artigo de diferentes maneiras.

Um desafio é que, depois de usar os mecanismos de busca por anos, as pessoas foram pré-condicionadas a formular perguntas de uma determinada maneira. Um mecanismo de busca é algo como um bibliotecário prestativo que recebe uma pergunta específica e indica as fontes mais relevantes para possíveis respostas. O mecanismo de busca (ou bibliotecário) não cria nada novo, mas recupera com eficiência o que já existe.

A IA generativa é mais parecida com um estagiário competente. Você dá instruções a uma ferramenta de IA generativa por meio de prompts, como faria com um estagiário, pedindo que ele conclua uma tarefa e produza um produto. A IA interpreta suas instruções, pensa na melhor maneira de executá-las e produz algo original ou executa uma tarefa para cumprir seu pedido. Os resultados não são pré-fabricados ou armazenados em algum lugar – eles são produzidos em tempo real, com base nas informações com as quais o estagiário (IA generativa) foi treinado. O resultado geralmente depende da precisão e da clareza das instruções (prompts) que você fornece. Um prompt vago ou mal definido pode levar a IA a produzir resultados menos relevantes. Quanto mais contexto e orientação você der a ela, melhor será o resultado. Além disso, os recursos desses sistemas de IA estão sendo aprimorados com a introdução de plug-ins versáteis que os equipam para navegar em sites, analisar arquivos de dados ou acessar outros serviços. Pense nisso como se estivesse dando ao seu estagiário acesso a um grupo de especialistas para ajudá-lo a realizar suas tarefas.

Uma estratégia para usar uma ferramenta de IA generativa é primeiro dizer a ela que tipo de especialista ou personagem você quer que ela “seja”. Peça que ele seja um consultor de gerenciamento especializado, um professor habilidoso, um tutor de redação ou um editor de texto e, em seguida, dê a ele uma tarefa.

Os prompts também podem ser criados para que esses sistemas de IA realizem operações complexas e de várias etapas. Por exemplo, digamos que um professor queira criar um programa de tutoria adaptável – para qualquer matéria, qualquer série, em qualquer idioma – que personalize os exemplos para os alunos com base em seus interesses. Ela quer que cada lição culmine em um teste de resposta curta ou de múltipla escolha. Se o aluno responder corretamente às perguntas, o tutor de IA deverá passar para a próxima lição. Se o aluno responder incorretamente, a IA deve explicar o conceito novamente, mas usando uma linguagem mais simples.

Anteriormente, o projeto desse tipo de sistema interativo exigia um programa de software relativamente sofisticado e caro. Com o ChatGPT, no entanto, basta dar essas instruções em um prompt para obter um sistema de tutoria útil. Ele não é perfeito, mas lembre-se de que foi criado praticamente de graça, com apenas algumas linhas de linguagem como comando. E nada no mercado educacional atual tem a capacidade de gerar exemplos quase ilimitados para conectar o conceito da lição aos interesses dos alunos.

Os prompts encadeados também podem ajudar a focar os sistemas de IA. Por exemplo, um educador pode solicitar que um sistema de IA generativo leia primeiro um guia prático da What Works Clearinghouse e resuma suas recomendações. Em seguida, em um prompt de acompanhamento, o professor pode solicitar que a IA desenvolva um conjunto de atividades em sala de aula com base no que acabou de ler. Ao selecionar o material de origem e usar os prompts certos, o educador pode ancorar as respostas geradas em evidências e pesquisas de alta qualidade.

No entanto, assim como os estagiários iniciantes que estão aprendendo o básico em um novo ambiente, a IA comete erros ocasionais. Essas falhas, embora inevitáveis, ressalta a importância fundamental de manter uma supervisão rigorosa dos resultados da IA. O monitoramento não só atua como um ponto de controle crucial para a precisão, mas também se torna uma fonte vital de feedback em tempo real para o sistema. É por meio desse processo de refinamento iterativo que um sistema de IA, com o tempo, pode minimizar significativamente sua taxa de erro e aumentar sua eficácia.

Usos da IA na educação

Em maio de 2023, o Departamento de Educação dos EUA divulgou um relatório intitulado Artificial Intelligence and the Future of Teaching and Learning: Insights and Recommendations (Insights e recomendações). O departamento realizou sessões de escuta em 2022 com mais de 700 pessoas, incluindo educadores e pais, para avaliar suas opiniões sobre IA. O relatório observou que “os constituintes acreditam que é necessário agir agora para se antecipar ao aumento esperado da IA na tecnologia educacional – e eles querem arregaçar as mangas e começar a trabalhar juntos”. As pessoas expressaram ansiedade sobre os “riscos potenciais futuros” com a IA, mas também sentiram que “a IA pode permitir a realização de prioridades educacionais de maneiras melhores, em escala e com custos mais baixos“.

A IA poderia servir – ou já está servindo – em várias funções de ensino e aprendizado:

Assistentes de instrução. A capacidade da IA de conduzir conversas semelhantes às humanas abre possibilidades para tutoria adaptativa ou assistentes de instrução que podem ajudar a explicar conceitos difíceis aos alunos. Os sistemas de feedback baseados em IA podem oferecer críticas construtivas sobre a redação dos alunos, o que pode ajudá-los a aperfeiçoar suas habilidades de redação. Algumas pesquisas também sugerem que certos tipos de estímulos podem ajudar as crianças a gerar perguntas mais proveitosas sobre o aprendizado. Os modelos de IA também podem apoiar o aprendizado personalizado para alunos com deficiências e oferecer tradução para alunos que estão aprendendo inglês.

Assistentes de aprendizagem. A IA pode lidar com algumas das tarefas administrativas que impedem que os professores invistam mais tempo com seus colegas ou alunos. Os primeiros usos incluem tarefas automatizadas de rotina, como a elaboração de planos de aula, a criação de materiais diferenciados, a elaboração de planilhas, o desenvolvimento de questionários e a exploração de maneiras de explicar materiais acadêmicos complicados. A IA também pode fornecer aos educadores recomendações para atender às necessidades dos alunos e ajudar os professores a refletir, planejar e melhorar sua prática.

Assistentes dos pais. Os pais podem usar a IA para gerar cartas solicitando serviços de plano educacional individualizado (IEP) ou para pedir que um filho seja avaliado para programas de superdotados e talentosos. Para os pais que estão escolhendo uma escola para seus filhos, a IA poderia servir como assistente administrativo, mapeando as opções de escolas a uma distância de carro de casa, gerando cronogramas de inscrição, compilando informações de contato e coisas do gênero. A IA generativa pode até mesmo criar histórias para dormir com enredos em evolução adaptados aos interesses da criança.

Assistentes de administração. Usando a IA generativa, os administradores escolares podem redigir várias comunicações, inclusive materiais para os pais, boletins informativos e outros documentos de envolvimento da comunidade. Os sistemas de IA também podem ajudar nas tarefas difíceis de organizar os horários das aulas ou dos ônibus e podem analisar dados complexos para identificar padrões ou necessidades. O ChatGPT pode realizar análises sofisticadas de sentimentos que podem ser úteis para medir o clima da escola e outros dados de pesquisa.

Embora o potencial seja grande, a maioria dos professores ainda não usou essas ferramentas. Uma pesquisa da Morning Consult e da EdChoice constatou que, embora 60% afirmem que já ouviram falar do ChatGPT, apenas 14% o utilizaram em seu tempo livre e apenas 13% o utilizaram na escola. É provável que a maioria dos professores e alunos se envolva com a IA generativa não por meio das plataformas em si, mas sim por meio de recursos de IA incorporados ao software. Provedores de instrução como Khan Academy, Varsity Tutors e DuoLingo estão experimentando tutores com tecnologia GPT-4 que são treinados em conjuntos de dados específicos dessas organizações para oferecer suporte de aprendizado individualizado com proteções adicionais para ajudar a proteger os alunos e aprimorar a experiência dos professores.

O Project Tailwind do Google está experimentando um notebook com IA que pode analisar as anotações dos alunos e, em seguida, desenvolver perguntas de estudo ou fornecer suporte de tutoria por meio de uma interface de bate-papo. Esses recursos poderão em breve estar disponíveis no Google Classroom, atingindo potencialmente mais da metade de todas as salas de aula dos EUA. A Brisk Teaching é uma das primeiras empresas a criar um portfólio de serviços de IA projetados especificamente para professores – diferenciando conteúdo, elaborando planos de aula, fornecendo feedback aos alunos e servindo como assistente de IA para otimizar o fluxo de trabalho entre diferentes aplicativos e ferramentas.

Os fornecedores de materiais curriculares e de instrução também podem incluir assistentes de IA para ajuda instantânea e tutoria adaptada aos produtos das empresas. Um exemplo é o edX Xpert, um assistente de aprendizagem baseado em ChatGPT na plataforma edX. Ele oferece suporte acadêmico e ao cliente imediato e personalizado para alunos on-line em todo o mundo.

Independentemente das formas como a IA é usada nas salas de aula, a tarefa fundamental dos formuladores de políticas e líderes educacionais é garantir que a tecnologia esteja servindo a uma prática instrucional sólida. Como Vicki Phillips, CEO do National Center on Education and the Economy, escreveu: “Não devemos pensar apenas em como a tecnologia pode ajudar professores e alunos a melhorar o que estão fazendo agora, mas o que isso significa para garantir que novas formas de ensino e aprendizagem floresçam junto com as aplicações de IA”.

The homescreen for OpenAI’s foundation-model generative artificial intelligence, ChatGPT, gives users three sample commands and a list of functions and caveats.

Desafios e riscos

Junto com esses possíveis benefícios, vêm alguns desafios e riscos difíceis que a comunidade educacional deve enfrentar:

Desonestidade dos alunos – Os alunos podem usar a IA para resolver problemas de lição de casa ou fazer testes. As redações geradas por IA ameaçam prejudicar o aprendizado, bem como o processo de ingresso na faculdade. Além das questões éticas envolvidas nesse tipo de desonestidade, os alunos que usam a IA para fazer o trabalho por eles podem não estar aprendendo o conteúdo e as habilidades de que precisam.

Preconceito nos algoritmos de IA – Os sistemas de IA aprendem com os dados em que são treinados. Se esses dados contiverem vieses, esses vieses podem ser aprendidos e perpetuados pelo sistema de IA. Por exemplo, se os dados incluírem informações sobre o desempenho dos alunos que sejam tendenciosas em relação a uma etnia, gênero ou segmento socioeconômico, o sistema de IA poderá aprender a favorecer os alunos desse grupo. Menos citados, mas ainda assim importantes, são os possíveis vieses relacionados à ideologia política e, possivelmente, até mesmo à filosofia pedagógica, que podem gerar respostas não alinhadas aos valores de uma comunidade.

Preocupações com a privacidade – Quando alunos ou educadores interagem com ferramentas de IA generativa, suas conversas e informações pessoais podem ser armazenadas e analisadas, o que representa um risco à sua privacidade. Com sistemas públicos de IA, os educadores devem abster-se de inserir ou expor detalhes confidenciais sobre si mesmos, seus colegas ou seus alunos, incluindo, entre outras, comunicações privadas, informações de identificação pessoal, registros de saúde, desempenho acadêmico, bem-estar emocional e informações financeiras.

Diminuição da conexão social. Existe o risco de que o tempo maior gasto com sistemas de IA venha a custar menos interação do aluno com educadores e colegas de classe. As crianças também podem começar a recorrer a esses sistemas de IA de conversação no lugar de seus amigos. Como resultado, a IA pode intensificar e piorar a crise de saúde pública de solidão, isolamento e falta de conexão identificada pelo U.S. Surgeon General.

Excesso de confiança na tecnologia – Tanto os professores quanto os alunos correm o risco de se tornarem excessivamente dependentes da tecnologia orientada por IA. Para os alunos, isso pode sufocar o aprendizado, especialmente o desenvolvimento do pensamento crítico. Esse desafio também se estende aos educadores. Embora a IA possa agilizar a geração de planos de aula, velocidade não é sinônimo de qualidade. Os professores podem se sentir tentados a aceitar o conteúdo inicial gerado pela IA em vez de dedicar tempo para revisá-lo e refiná-lo para obter o melhor valor educacional.

Questões de equidade – Nem todos os alunos têm o mesmo acesso a dispositivos de computador e à Internet. Esse desequilíbrio pode acelerar o aumento da lacuna de desempenho entre alunos de diferentes origens socioeconômicas.
Muitos desses riscos não são novos ou exclusivos da IA. As escolas proibiram calculadoras e telefones celulares quando esses dispositivos foram introduzidos pela primeira vez, em grande parte devido a preocupações relacionadas à desonestidade. As preocupações com a privacidade em relação à tecnologia educacional levaram os legisladores a apresentar centenas de projetos de lei nos legislativos estaduais, e há tensões crescentes entre as novas tecnologias e as leis federais de privacidade existentes. As preocupações com o preconceito são compreensíveis, mas um escrutínio semelhante também é garantido para o conteúdo e os materiais existentes que raramente, ou nunca, passam por uma revisão de preconceito racial ou político.

À luz desses desafios, o Departamento de Educação enfatizou a importância de manter os “humanos informados” ao usar a IA, especialmente quando o resultado pode ser usado para informar uma decisão. Como o departamento incentivou em seu relatório 2023, os professores, alunos e outros precisam manter seu poder de ação. A IA não pode “substituir um professor, um tutor ou um líder educacional como guardião do aprendizado de seus alunos”, enfatizou o relatório.

Desafios políticos com a IA

Os formuladores de políticas estão se debatendo com várias questões relacionadas à IA, pois procuram encontrar um equilíbrio entre o apoio à inovação e a proteção do interesse público. A velocidade da inovação em IA está ultrapassando a compreensão de muitos formuladores de políticas, muito menos sua capacidade de desenvolver um consenso sobre as melhores maneiras de minimizar os possíveis danos da IA e, ao mesmo tempo, maximizar os benefícios. O relatório 2023 do Departamento de Educação descreve os riscos e as oportunidades apresentados pela IA, mas suas recomendações são, na melhor das hipóteses, uma orientação. A Casa Branca lançou um Projeto de Lei para uma Declaração de Direitos de IA, mas ele também é mais uma declaração de aspiração do que um documento de governo. O Congresso está elaborando uma legislação relacionada à IA, o que ajudará a gerar o debate necessário, mas o caminho até a mesa do presidente para assinatura é, na melhor das hipóteses, obscuro.

Cabe aos formuladores de políticas estabelecer regras de trânsito mais claras e criar uma estrutura que ofereça proteção ao consumidor, crie confiança pública nos sistemas de IA e estabeleça a certeza regulatória de que as empresas precisam para seus roteiros de produtos. Considerando o potencial da IA para afetar nossa economia, segurança nacional e a sociedade em geral, não há tempo a perder.

Por que a IA é diferente

É prudente ser cético com relação às novas tecnologias que pretendem revolucionar o aprendizado. No passado, os prognosticadores prometeram que a televisão, o computador e a Internet, por sua vez, transformariam a educação. Infelizmente, as revoluções anunciadas ficaram longe das expectativas.

No entanto, há alguns sinais iniciais de que essa onda tecnológica pode ser diferente nos benefícios que traz para alunos, professores e pais. As tecnologias anteriores democratizaram o acesso a conteúdo e recursos, mas a IA está democratizando um tipo de inteligência de máquina que pode ser usada para realizar uma infinidade de tarefas. Além disso, esses recursos são abertos e acessíveis – praticamente qualquer pessoa com uma conexão à Internet e um telefone agora tem acesso a um assistente inteligente.

Os modelos de IA generativa continuam se tornando mais avançados e estão melhorando rapidamente. Os recursos desses sistemas daqui a alguns meses ou anos excederão em muito sua capacidade atual. Seus recursos também estão se expandindo por meio da integração com outros sistemas especializados. Veja a matemática, por exemplo. O GPT-3.5 tinha algumas dificuldades com certos conceitos matemáticos básicos, mas o GPT-4 fez melhorias significativas. Agora, a incorporação do plug-in Wolfram praticamente eliminou as limitações restantes.

É razoável prever que esses sistemas se tornarão mais potentes, mais acessíveis e mais econômicos nos próximos anos. A questão, então, é como usar esses recursos emergentes de forma responsável para melhorar o ensino e a aprendizagem.

O paradoxo da IA pode estar em seu potencial para aprimorar o elemento humano e interpessoal na educação. Aaron Levie, CEO da Box, uma empresa de gerenciamento de conteúdo baseado em nuvem, acredita que a IA acabará nos ajudando a atender mais rapidamente às tarefas importantes “que somente um ser humano pode fazer“. Frederick Hess, diretor de estudos de políticas educacionais do American Enterprise Institute, afirma de forma semelhante que “as escolas bem-sucedidas são inevitavelmente o produto das relações entre adultos e alunos. Quando a tecnologia ignora isso, é provável que decepcione. Mas quando ela é projetada para oferecer mais treinamento, liberar tempo para uma interação significativa entre professor e aluno ou oferecer aos alunos um feedback mais personalizado, a tecnologia pode fazer uma diferença significativa e positiva”.

A tecnologia não revoluciona a educação; são os seres humanos que o fazem. São os seres humanos que criam os sistemas e as instituições que educam as crianças, e são os líderes desses sistemas que decidem quais ferramentas usar e como usá-las. Até que essas instituições se modernizem para acomodar as novas possibilidades dessas tecnologias, devemos esperar, na melhor das hipóteses, melhorias incrementais. Como observou Joel Rose, CEO da New Classrooms Innovation Partners, “a necessidade mais urgente é que as organizações novas e existentes reformulem a experiência do estudante de forma a aproveitar ao máximo os recursos da IA”.

Embora as tecnologias anteriores não tenham correspondido às expectativas exageradas, a IA não é apenas uma continuação do passado; é um salto para uma nova era de inteligência de máquina que estamos apenas começando a entender. Embora a implementação imediata desses sistemas seja imperfeita, o ritmo acelerado de aprimoramento traz perspectivas promissoras. A responsabilidade recai sobre a intervenção humana – com educadores, formuladores de políticas e pais – para incorporar essa tecnologia cuidadosamente de uma maneira que beneficie de forma ideal professores e alunos. Nossa ambição coletiva não deve se concentrar apenas ou principalmente em evitar riscos potenciais, mas sim em articular uma visão do papel que a IA deve desempenhar no ensino e na aprendizagem – um plano de jogo que aproveite o melhor dessas tecnologias e, ao mesmo tempo, preserve o melhor das relações humanas.

 

Bailey, J. (2023). AI in Education: The leap into a new era of machine intelligence carries risks and challenges, but also plenty of promiseEducation Next, 23(4), 28-35.

Fernando Giannini

Pesquisador de tecnologia aplicada à educação, arquiteto de objetos virtuais de aprendizagem, fissurado em livros de grandes educadores e viciado em games de todos os tipos. Conhecimentos aprimorados em cursos de grandes empresas de tecnologia, principalmente no Google Business Educational Center e Microsoft. Sócio-proprietário da Streamer, empresa que alia tecnologia e educação. Experiência de 18 anos produzindo e criando objetos de aprendizagem, cursos a distância, design educacional, interfaces para sistemas de aprendizagem. Gestor de equipe para projetos educacionais, no Ensino Básico, Médio e Ensino Superior. Nesse período de trabalho gerenciou equipes e desenvolveu as habilidades de liderança e gestão. Acredita na integração e aplicação prática dos conhecimentos para a realização de projetos inovadores, sólidos e sustentáveis a longo prazo. Um dos grandes sonhos realizados foi o lançamento do curso gratuito Mande Bem no ENEM que atingiu mais de 500 mil estudantes em todo o Brasil contribuindo para a Educação Brasileira.

Participe da nossa comunidade no Whatsapp sobre Educação e Tecnologia

0 comentários

Enviar um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Posts Relacionados

Professores: protagonistas ou vítimas do chatGPT?

A rápida integração da Inteligência Artificial (IA) na sociedade exige uma orientação clara nos ambientes educacionais. No entanto, uma recente pesquisa global da UNESCO com mais de 450 escolas e universidades mostrou que menos de 10% tinham políticas institucionais...

O impacto dos chatbots na aprendizagem

À medida que a Inteligência Artificial (IA) avança tecnologicamente, ela inevitavelmente trará muitas mudanças para as práticas em sala de aula. Entretanto, a pesquisa sobre IA na educação reflete uma fraca conexão com as perspectivas pedagógicas ou abordagens...

Inteligência artificial na educação: os três paradigmas

Com o desenvolvimento de técnicas de computação e processamento de informações, a inteligência artificial (IA) tem sido amplamente aplicada em práticas educacionais (Inteligência Artificial na Educação; AIEd), como sistemas de tutoria inteligente, robôs de ensino,...

Impacto do ChatGPT: visão Educacional

Resumo Tem havido muitos comentários na mídia sobre o possível impacto da Inteligência Artificial (IA) generativa, como o ChatGPT, no campo da educação, mas há pouca análise em escala de como os educadores acreditam que a aprendizagem e a avaliação devem mudar como...

7 princípios para o uso responsável da IA na escola

A rápida integração da Inteligência Artificial (IA) na sociedade exige uma orientação clara nos ambientes educacionais. No entanto, uma recente pesquisa global da UNESCO com mais de 450 escolas e universidades mostrou que menos de 10% tinham políticas institucionais...

A natureza da inteligência artificial geral

O termo "inteligência artificial geral" (AGI) tornou-se onipresente no discurso atual sobre IA. A OpenAI afirma que sua missão é "garantir que a inteligência artificial geral beneficie toda a humanidade". A declaração de visão da empresa DeepMind observa que "a...

Tag Cloud

Posts Relacionados

Receba a nossa newsletter

Fique por dentro e seja avisado dos novos conteúdos.

Publicações mais recentes