A natureza da inteligência artificial geral

Tempo de leitura: 7 minutes

Loading

O termo “inteligência artificial geral” (AGI) tornou-se onipresente no discurso atual sobre IA. A OpenAI afirma que sua missão é “garantir que a inteligência artificial geral beneficie toda a humanidade”. A declaração de visão da empresa DeepMind observa que “a inteligência geral artificial… tem o potencial de conduzir uma das maiores transformações da história”. A AGI é mencionada com destaque na Estratégia Nacional de IA do governo do Reino Unido e em documentos de IA do governo dos EUA. Recentemente, pesquisadores da Microsoft alegaram evidências de “faíscas de AGI” no grande modelo de linguagem GPT-4, e executivos atuais e antigos do Google proclamaram que “a AGI já está aqui”. A questão de saber se o GPT-4 é um “algoritmo de AGI” está no centro de uma ação judicial movida por Elon Musk contra a OpenAI. Humanos x IA Geral: Parceiros ou Rivais?

Dada a disseminação do discurso sobre AGI nas empresas, no governo e na mídia, não se pode culpar alguém por supor que o significado do termo esteja estabelecido e aceito. Entretanto, o oposto é verdadeiro: O significado de AGI, ou se ele significa algo coerente, é muito debatido na comunidade de IA. E o significado e as prováveis consequências da AGI se tornaram mais do que apenas uma disputa acadêmica sobre um termo misterioso. As maiores empresas de tecnologia do mundo e governos inteiros estão tomando decisões importantes com base no que eles acham que a AGI implicará.

No entanto, um mergulho profundo nas especulações sobre a AGI revela que muitos profissionais de IA têm visões totalmente diferentes sobre a natureza da inteligência do que aqueles que estudam a cognição humana e animal – diferenças que são importantes para entender o presente e prever o provável futuro da inteligência das máquinas.

O objetivo original do campo da IA era criar máquinas com inteligência geral comparável à dos seres humanos. Os primeiros pioneiros da IA eram otimistas: em 1965, Herbert Simon previu em seu livro The Shape of Automation for Men and Management que “as máquinas serão capazes, dentro de vinte anos, de fazer qualquer trabalho que um homem possa fazer” e, em uma edição de 1970 da revista Life, Marvin Minsky é citado como tendo declarado que “em três a oito anos, teremos uma máquina com a inteligência geral de um ser humano médio.

Quero dizer, uma máquina que será capaz de ler Shakespeare, lubrificar um carro, fazer política no escritório, contar uma piada, brigar”.

Essas previsões otimistas não se concretizaram. Nas décadas seguintes, os únicos sistemas de IA bem-sucedidos eram restritos e não gerais – eles podiam executar apenas uma única tarefa ou um escopo limitado de tarefas (por exemplo, o software de reconhecimento de fala do seu telefone pode transcrever seu ditado, mas não pode responder a ele de forma inteligente). O termo “AGI” foi cunhado no início dos anos 2000 para recuperar as grandes aspirações originais dos pioneiros da IA, buscando um foco renovado nas “tentativas de estudar e reproduzir a inteligência como um todo de forma independente de domínio”.

Essa busca permaneceu em um canto bastante obscuro do cenário da IA até bem recentemente, quando as principais empresas de IA apontaram a realização da AGI como sua principal meta e os “condenados” da IA declararam a ameaça existencial da AGI como seu principal temor. Muitos profissionais de IA especularam sobre o cronograma da AGI, um deles prevendo, por exemplo, “50% de chance de termos AGI até 2028”. Outros questionam a própria premissa da AGI, chamando-a de vaga e mal definida; um pesquisador proeminente tuitou que “todo o conceito não é científico e as pessoas deveriam ter vergonha de usar o termo”.

Enquanto os primeiros proponentes da AGI acreditavam que as máquinas logo assumiriam todas as atividades humanas, os pesquisadores aprenderam da maneira mais difícil que criar sistemas de IA que podem vencê-lo no xadrez ou responder às suas consultas de pesquisa é muito mais fácil do que construir um robô para dobrar sua roupa ou consertar seu encanamento. A definição de AGI foi ajustada de acordo para incluir apenas as chamadas “tarefas cognitivas”. O cofundador da DeepMind, Demis Hassabis, define a AGI como um sistema que “deve ser capaz de realizar praticamente qualquer tarefa cognitiva que os humanos possam fazer”, e a OpenAI a descreve como “sistemas altamente autônomos que superam os humanos na maioria dos trabalhos economicamente valiosos”, sendo que “a maioria” deixa de fora as tarefas que exigem inteligência física que provavelmente iludirão os robôs por algum tempo.

A noção de “inteligência” em IA – cognitiva ou não – geralmente é enquadrada em termos de um agente individual otimizando uma recompensa ou meta. Um artigo influente definiu a inteligência geral como “a capacidade de um agente de atingir metas em uma ampla gama de ambientes”; outro afirmou que “a inteligência e suas habilidades associadas podem ser entendidas como substitutas da maximização da recompensa”. De fato, é assim que a IA atual funciona – o programa de computador AlphaGo, por exemplo, é treinado para otimizar uma função de recompensa específica (“ganhar o jogo”), e o GPT-4 é treinado para otimizar outro tipo de função de recompensa (“prever a próxima palavra em uma frase”).

Essa visão da inteligência leva a outra especulação feita por alguns pesquisadores de IA: Quando um sistema de IA alcançar a AGI, ele rapidamente alcançará uma inteligência sobre-humana aplicando seu poder de otimização ao seu próprio software, avançando recursivamente sua própria inteligência e tornando-se rapidamente, em uma previsão extrema, “milhares ou milhões de vezes mais inteligente do que nós”.

Esse foco na otimização levou alguns membros da comunidade de IA a se preocuparem com o risco existencial para a humanidade de uma AGI “desalinhada” que diverge, talvez loucamente, dos objetivos de seu criador. Em seu livro Superintelligence (Superinteligência), de 2014, o filósofo Nick Bostrom propôs um experimento mental agora famoso: Ele imaginou que os seres humanos dessem a um sistema de IA superinteligente o objetivo de otimizar a produção de clipes de papel. Levando essa meta ao pé da letra, o sistema de IA usa sua genialidade para obter controle sobre todos os recursos da Terra e transforma tudo em clipes de papel. É claro que os humanos não pretendiam destruir a Terra e a humanidade para produzir mais clipes de papel, mas esqueceram de mencionar isso nas instruções.

O pesquisador de IA Yoshua Bengio fornece seu próprio experimento mental: “Podemos pedir a uma IA que conserte a mudança climática e ela pode projetar um vírus que dizime a população humana porque nossas instruções não foram claras o suficiente sobre o que significava dano e os humanos são, na verdade, o principal obstáculo para consertar a crise climática.”

Essas visões especulativas da AGI (e da “superinteligência”) diferem das visões defendidas por pessoas que estudam a inteligência biológica, especialmente a cognição humana. Embora a ciência cognitiva não tenha uma definição rigorosa de “inteligência geral” ou um consenso sobre até que ponto os seres humanos, ou qualquer tipo de sistema, podem tê-la, a maioria dos cientistas cognitivos concorda que a inteligência não é uma quantidade que pode ser medida em uma única escala e arbitrariamente aumentada ou diminuída, mas sim uma integração complexa de capacidades gerais e especializadas que são, em sua maioria, adaptativas em um nicho evolutivo específico.

Muitos dos que estudam a inteligência biológica também são céticos quanto ao fato de que os chamados aspectos “cognitivos” da inteligência possam ser separados de seus outros modos e capturados em uma máquina sem corpo. Os psicólogos demonstraram que aspectos importantes da inteligência humana estão fundamentados nas experiências físicas e emocionais incorporadas. As evidências também mostram que a inteligência individual depende profundamente da participação da pessoa em ambientes sociais e culturais. As habilidades de entender, coordenar e aprender com outras pessoas são provavelmente muito mais importantes para o sucesso de uma pessoa na realização de metas do que o “poder de otimização” de um indivíduo.

Além disso, ao contrário da hipotética IA maximizadora de clipes de papel, a inteligência humana não está centrada na otimização de metas fixas; em vez disso, as metas de uma pessoa são formadas por meio de uma integração complexa de necessidades inatas e do ambiente social e cultural que sustenta sua inteligência. E, ao contrário do maximizador de clipes de papel superinteligente, o aumento da inteligência é precisamente o que nos permite ter uma melhor percepção das intenções de outras pessoas, bem como dos efeitos prováveis de nossas próprias ações, e modificar essas ações de acordo com elas.

Como escreve a filósofa Katja Grace, “A ideia de dominar o universo como uma sub-etapa é totalmente risível para quase todos os objetivos humanos. Então, por que achamos que os objetivos da IA são diferentes?”

O espectro de uma máquina que aprimora seu próprio software para aumentar sua inteligência em ordens de magnitude também diverge da visão biológica da inteligência como um sistema altamente complexo que vai além de um cérebro isolado. Se a inteligência de nível humano requer uma integração complexa de diferentes capacidades cognitivas, bem como uma estrutura na sociedade e na cultura, é provável que o nível de “inteligência” de um sistema não tenha acesso contínuo ao nível de “software”, assim como nós, seres humanos, não podemos facilmente projetar nossos cérebros (ou nossos genes) para nos tornarmos mais inteligentes. Entretanto, nós, como coletivo, aumentamos nossa inteligência efetiva por meio de ferramentas tecnológicas externas, como computadores, e pela criação de instituições culturais, como escolas, bibliotecas e a Internet.

O que significa AGI e se é um conceito coerente ainda estão em debate. Além disso, as especulações sobre o que as máquinas AGI serão capazes de fazer baseiam-se, em grande parte, em intuições e não em evidências científicas. Mas até que ponto se pode confiar nessas intuições? A história da IA tem desmentido repetidamente nossas intuições sobre inteligência. Muitos dos primeiros pioneiros da IA achavam que as máquinas programadas com lógica capturariam todo o espectro da inteligência humana. Outros estudiosos previram que, para que uma máquina vencesse os humanos no xadrez, ou traduzisse entre idiomas, ou mantivesse uma conversa, seria necessário que ela tivesse uma inteligência geral de nível humano, o que se provou estar errado. Em cada etapa da evolução da IA, a inteligência de nível humano se mostrou mais complexa do que os pesquisadores esperavam. Será que as especulações atuais sobre a inteligência das máquinas se mostrarão igualmente equivocadas?
E será que poderíamos desenvolver uma ciência da inteligência mais rigorosa e geral para responder a essas perguntas?

Não está claro se uma ciência da IA seria mais parecida com a ciência da inteligência humana ou mais parecida, por exemplo, com a astrobiologia, que faz previsões sobre como seria a vida em outros planetas. Fazer previsões sobre algo que nunca foi visto e que talvez nem exista, seja vida extraterrestre ou máquinas superinteligentes, exigirá teorias fundamentadas em princípios gerais. No final, o significado e as consequências da “AGI” não serão resolvidos por debates na mídia, ações judiciais ou nossas intuições e especulações, mas pela investigação científica de longo prazo de tais princípios.

 

 

Autora: MELANIE MITCHELL
Fonte: 
Science
Artigo original: https://bit.ly/4aqDYhN

Fernando Giannini

Pesquisador de tecnologia aplicada à educação, arquiteto de objetos virtuais de aprendizagem, fissurado em livros de grandes educadores e viciado em games de todos os tipos. Conhecimentos aprimorados em cursos de grandes empresas de tecnologia, principalmente no Google Business Educational Center e Microsoft. Sócio-proprietário da Streamer, empresa que alia tecnologia e educação. Experiência de 18 anos produzindo e criando objetos de aprendizagem, cursos a distância, design educacional, interfaces para sistemas de aprendizagem. Gestor de equipe para projetos educacionais, no Ensino Básico, Médio e Ensino Superior. Nesse período de trabalho gerenciou equipes e desenvolveu as habilidades de liderança e gestão. Acredita na integração e aplicação prática dos conhecimentos para a realização de projetos inovadores, sólidos e sustentáveis a longo prazo. Um dos grandes sonhos realizados foi o lançamento do curso gratuito Mande Bem no ENEM que atingiu mais de 500 mil estudantes em todo o Brasil contribuindo para a Educação Brasileira.

Participe da nossa comunidade no Whatsapp sobre Educação e Tecnologia

0 comentários

Enviar um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Posts Relacionados

Competências essenciais na era digital

A proliferação da IA em muitos aspectos da vida humana - desde o lazer pessoal até o trabalho profissional, passando pelas decisões políticas globais - impõe uma questão complexa sobre como preparar as pessoas para um mundo interconectado e em rápida mudança, que está...

Educação digital para prevenir abusos sexuais online

Depois de participar de uma aula incrível com a professora Beatriz Lorencini e o Felipe, fui tirado da bolha onde costumo estar a maior parte do meu tempo se não o tempo todo. Quando percebi eu estava em choque por "não saber ou escolher não saber" que existem...

Cinco passos para utilizar o ChatGPT na sala de aula

Como professor, é quase certo que você já tenha utilizado inteligência artificial (IA), mesmo que uma vez ou diariamente em seus trabalhos acadêmicos sem saber ou se importar como ela funciona. Um exemplo disso é a filtragem de spam de e-mail e o verificador...

43 exemplos de inteligência artificial aplicados na educação

O potencial do uso da inteligência artificial na educação para aprimorar o aprendizado, auxiliar os professores e estimular um aprendizado individualizado mais eficaz é empolgante, mas também um pouco assustador. Para se ter uma conversa inteligente sobre IA na...

Impacto de robôs na curiosidade infantil

Resumo A curiosidade é fundamental para o aprendizado, mas as crianças em idade escolar apresentam variações em sua vontade de adquirir informações. Pesquisas recentes sugerem que outras pessoas têm uma forte influência no comportamento exploratório das crianças. Será...

10 práticas para utilizar IA em sala de aula

Nos primeiros dias de dezembro de 2022, tarde da noite, sob o manto da escuridão, digitei avidamente "ChatGPT" em minha barra de pesquisa do Google. Entrei no mundo da IA com nervosismo e entusiasmo, como quando entrava em uma loja de doces quando criança e era...

Tag Cloud

Posts Relacionados

[dgbm_blog_module posts_number=”4″ related_posts=”on” show_categories=”off” show_pagination=”off” item_in_desktop=”2″ equal_height=”on” image_size=”mid” author_background_color=”#ffffff” disabled_on=”off|off|on” module_class=”PostRelacionado” _builder_version=”4.16″ _module_preset=”default” title_font=”Montserrat||||||||” title_text_color=”#737373″ title_font_size=”19px” title_line_height=”25px” meta_text_color=”#666″ meta_font_size=”13px” content_font_size=”13px” content_line_height=”30px” author_text_color=”#666666″ custom_css_content_container=”display:flex;||flex-wrap:wrap;” custom_css_image-container=”padding-top:70%;||overflow:hidden;” custom_css_image=”position:absolute;||top:0;||left:0;||bottom:0;||right:0;||object-fit: cover;||height:100%;||width:100%;” custom_css_title=”padding:20px;||margin-top:0;||order:2;” custom_css_content=”padding:0 20px 20px;||order:3;” custom_css_post-meta-middle=”order:1;||padding:20px;||border-bottom:1px solid #dcdcdc;||border-top:1px solid #dcdcdc;” border_width_all_post_item=”0px” border_width_all_content=”0px” box_shadow_style_container=”preset1″ box_shadow_blur_container=”5px” box_shadow_spread_container=”1px” box_shadow_color_container=”rgba(0,0,0,0.1)” global_colors_info=”{}”][/dgbm_blog_module]

Receba a nossa newsletter

Fique por dentro e seja avisado dos novos conteúdos.

Publicações mais recentes