As inteligências artificiais vão roubar todos os nossos empregos e acabar com a história humana ou não? Bem, é complicado…

Tempo de leitura: 22 minutes

Loading

O Choque do ChatGPT

Apenas alguns meses atrás, escrever um ensaio original parecia algo que apenas um humano poderia fazer. Mas então o ChatGPT surgiu no cenário. E de repente percebemos que uma IA poderia escrever um ensaio razoavelmente parecido com o de um humano. Então, agora é natural nos perguntarmos: Até onde isso vai? O que as IA serão capazes de fazer? E como nós, humanos, nos encaixaremos?

O objetivo aqui é explorar um pouco da ciência, tecnologia e filosofia do que podemos esperar das IA. Devo dizer desde o início este é um assunto repleto de dificuldades intelectuais e práticas. E tudo o que poderei fazer aqui é compartilhar o meu pensamento atual que, inevitavelmente, será incompleto não menos importante porque, como discutirei, tentar prever como a história em uma área como esta se desenrolará é algo que se choca diretamente com um problema básico da ciência: o fenômeno da irredutibilidade computacional.

Mas vamos começar falando sobre aquele exemplo particularmente dramático da IA que acaba de chegar ao cenário: ChatGPT. Então, o que é o ChatGPT? Em última análise, é um sistema computacional para gerar texto configurado para seguir os padrões definidos por textos escritos por humanos a partir de bilhões de páginas da web, milhões de livros, etc. Dê a ele um prompt textual e ele continuará de uma maneira que seja de alguma forma típica do que vimos os humanos escreverem.

Os resultados (que, em última análise, dependem de todos os tipos de engenharia específica) são notavelmente “parecidos com humanos”. E o que faz isso funcionar é que, sempre que o ChatGPT tem que “extrapolar” além de qualquer coisa que tenha visto explicitamente de nós humanos, ele o faz de maneiras que parecem semelhantes ao que nós, como humanos, poderíamos fazer.

Dentro do ChatGPT há algo que, na verdade, é computacionalmente bastante semelhante a um cérebro – com milhões de elementos simples (“neurônios”) formando uma “rede neural” com bilhões de conexões que foram “ajustadas” através de um processo progressivo de treinamento até que reproduzam com sucesso os padrões de texto escrito por humanos vistos em todas essas páginas da web. Mesmo sem treinar a rede neural, ela ainda produziria algum tipo de texto. Mas o ponto-chave é que não será um texto que nós humanos consideramos significativo. Para obter esse texto, precisamos nos basear em todo esse “contexto humano” definido pelas páginas da web e outros materiais que escrevemos. O “sistema computacional bruto” fará apenas “computação bruta”; obter algo alinhado com os humanos requer aproveitar a história humana detalhada capturada por todas essas páginas na web.

Mas o que obtemos no final? Bem, é um texto que basicamente parece ter sido escrito por um humano. No passado, poderíamos ter pensado que a linguagem humana era de alguma forma algo exclusivamente humano para produzir. Mas agora temos uma IA fazendo isso. Então, o que sobra para nós humanos? Bem, em algum lugar as coisas têm que começar: no caso do texto, deve haver um prompt especificado que diga a IA “em qual direção seguir”. E é esse tipo de coisa que veremos repetidas vezes. Dado um “objetivo” definido, uma IA pode trabalhar automaticamente para alcançá-lo. Mas, em última análise, é necessário algo além do sistema computacional bruto da IA para definir o que nós, humanos, consideraríamos um objetivo significativo. E é aí que entramos.

O que isso significa em um nível prático e cotidiano? Normalmente, usamos o ChatGPT dizendo a ele – usando texto – o que basicamente queremos. E então ele preencherá o equivalente a um ensaio inteiro falando sobre isso. Podemos pensar nesta interação como correspondendo a uma espécie de “interface de usuário linguística” (que podemos chamar de “LUI”). Em uma interface gráfica do usuário (GUI), há um conteúdo central que está sendo renderizado (e inserido) por meio de uma apresentação gráfica possivelmente elaborada. Na LUI fornecida pelo ChatGPT, há, em vez disso, um conteúdo central que está sendo renderizado (e inserido) por meio de uma apresentação textual (“linguística”).

Você pode anotar alguns “tópicos”. E em sua forma bruta, provavelmente outra pessoa teria dificuldade em entendê-los. Mas, por meio da LUI fornecida pelo ChatGPT, esses tópicos podem ser transformados em um “ensaio” que pode ser compreendido de maneira geral – porque se baseia no “contexto compartilhado” definido por tudo, desde os bilhões de páginas da web, nos quais o ChatGPT foi treinado.

Há algo nisso que pode parecer bastante inquietante. No passado, se você visse um ensaio personalizado, seria razoável concluir que um certo esforço humano irredutível foi gasto em sua produção. Mas, com o ChatGPT, isso não é mais verdade. Transformar coisas em ensaios agora é “grátis” e automatizado. A “transformação em ensaio” não é mais evidência de esforço humano.

Claro, dificilmente é a primeira vez que ocorre um desenvolvimento como este. Quando eu era criança, por exemplo, ver que um documento havia sido composto era basicamente uma evidência de que alguém havia feito um esforço considerável para imprimi-lo em uma impressora. Mas então veio a editoração eletrônica, e se tornou basicamente gratuito fazer com que qualquer documento fosse elaboradamente composto.

E, em uma visão mais ampla, esse tipo de coisa é basicamente uma tendência constante na história: o que antes exigia esforço humano eventualmente se torna automatizado e “livre para fazer” por meio da tecnologia. Há um análogo direto disso no campo das ideias: que com o tempo são desenvolvidos níveis cada vez mais altos de abstração, que englobam o que antes eram detalhes e especificidades trabalhosos.

Isso vai acabar? Eventualmente teremos automatizado tudo? Descoberto tudo? Inventado tudo? Em algum nível, agora sabemos que a resposta é um retumbante não. Porque uma das consequências do fenômeno da irreducibilidade computacional é que sempre haverá mais cálculos a serem feitos – que, no final, não podem ser reduzidos por nenhuma quantidade finita de automação, descoberta ou invenção.

No entanto, essa será uma história mais sutil. Porque, embora sempre possa haver mais cálculos a serem feitos, ainda pode ser que nós, como humanos, não nos importemos com eles. E que de alguma forma tudo o que nos importa pode ser automatizado com sucesso – digamos, por IA – deixando “nada mais para nós fazermos”.

Desembaraçar essa questão estará no cerne das perguntas sobre como nos encaixamos no futuro da IA. E no que segue, veremos repetidas vezes que o que pode parecer, a princípio, questões essencialmente práticas de tecnologia rapidamente se confunde com questões profundas de ciência e filosofia.

A intuição do Universo Computacional

Já mencionei a irreducibilidade computacional algumas vezes. E acontece que isso faz parte de um círculo de ideias bastante profundas – e inicialmente surpreendentes – que acredito serem cruciais para pensar sobre o futuro da IA.

A maior parte de nossa intuição existente sobre “máquinas” e “automação” vem de uma visão de engenharia do tipo “relógio” – na qual construímos sistemas componente por componente para alcançar os objetivos que desejamos. E é o mesmo com a maioria dos softwares: escrevemos linha por linha para fazer especificamente – passo a passo – o que quer que seja que desejamos. E esperamos que, se quisermos que nossas máquinas – ou softwares – façam coisas complexas, a estrutura subjacente da máquina ou software deve ser de alguma forma correspondente em complexidade.

Então, quando comecei a explorar o universo computacional de programas possíveis no início dos anos 1980, foi uma grande surpresa descobrir que as coisas funcionam de maneira bastante diferente lá. E de fato, até mesmo pequenos programas – que efetivamente aplicam regras muito simples repetidamente – podem gerar grande complexidade. Em nossa prática usual de engenharia, não vimos isso, porque sempre escolhemos programas (ou outras estruturas) em que podemos prever facilmente como se comportarão, para que possamos configurá-los explicitamente para fazer o que desejamos. Mas no universo computacional, é muito comum ver programas que simplesmente “geram intrinsecamente” grande complexidade, sem que precisemos “colocá-la”.

E, tendo descoberto isso, percebemos que na verdade há um grande exemplo que existe desde sempre: o mundo natural. E, de fato, cada vez mais parece que o “segredo” que a natureza usa para criar a complexidade que muitas vezes mostra é exatamente operar de acordo com as regras de programas simples. (Por cerca de três séculos, parecia que as equações matemáticas eram a maneira definitiva de descrever o mundo natural, mas nas últimas décadas, e particularmente com o nosso recente Physics Project, ficou claro que programas simples são geralmente uma abordagem mais poderosa).

Como tudo isso se relaciona com a tecnologia? Bem, a tecnologia trata de pegar o que está no mundo e utilizá-lo para fins humanos. E há um trade-off fundamental aqui. Pode haver algum sistema na natureza que faça coisas incrivelmente complexas. Mas a questão é se podemos “extrair” certas coisas particulares que nós, humanos, achamos úteis. Um cavalo tem todos os tipos de coisas complexas acontecendo internamente. Mas em algum momento foi descoberto que podemos usá-lo “tecnologicamente” para fazer a coisa bastante simples de puxar um carrinho.

E quando se trata de programas no universo computacional, é extremamente comum ver aqueles que fazem coisas incrivelmente complexas. Mas a questão é se podemos encontrar algum aspecto dessas coisas que seja útil para nós. Talvez o programa seja bom para criar pseudorandomização. Ou determinar consenso de forma distribuída. Ou talvez esteja apenas fazendo sua coisa complexa, e ainda não conhecemos nenhum “propósito humano” que isso atinja.

Uma das características notáveis de um sistema como o ChatGPT é que ele não é construído de uma maneira tradicional de engenharia de “entender-cada-passo”. Em vez disso, basicamente se começa a partir de um “sistema computacional bruto” (no caso do ChatGPT, uma rede neural) e, em seguida, ajusta-se progressivamente até que seu comportamento se alinhe com os exemplos “relevantes para os humanos”. E esse alinhamento é o que torna o sistema “tecnologicamente útil” – para nós, humanos.

No entanto, por baixo disso tudo, ainda é um sistema computacional, com todo o potencial de “selvageria” que isso implica. E, livre do “objetivo tecnológico” de “alinhamento relevante para os humanos”, o sistema pode fazer todos os tipos de coisas sofisticadas. Mas eles podem não ser coisas que (pelo menos neste momento da história) nos importamos. Embora algum suposto alienígena (ou nossos futuros “eus”) possa se importar.

Ok, mas vamos voltar ao lado da “computação bruta” das coisas. Há algo muito diferente sobre a computação de todos os outros tipos de “mecanismos” que vimos antes. Podemos ter um carrinho que pode se mover para a frente. E podemos ter um grampeador que coloca grampos nas coisas. Mas carrinhos e grampeadores fazem coisas muito diferentes; não há equivalência entre eles. No entanto, para sistemas computacionais (pelo menos aqueles que não se comportam sempre de maneiras obviamente simples), há o Princípio da Equivalência Computacional – que implica que todos esses sistemas são, em certo sentido, equivalentes nos tipos de cálculos que podem fazer.

Essa equivalência tem muitas consequências. Uma delas é que se pode esperar criar algo igualmente sofisticado em termos computacionais a partir de todos os tipos de coisas diferentes – seja tecido cerebral ou eletrônicos, ou algum sistema na natureza. E é efetivamente daí que vem a irreducibilidade computacional.

Pode-se pensar que, dado, por exemplo, um sistema computacional baseado em um programa simples, sempre seria possível para nós – com nossos cérebros sofisticados, matemática, computadores etc. – “pular à frente” e descobrir o que o sistema fará antes de passar por todas as etapas para fazê-lo. No entanto, o Princípio da Equivalência Computacional implica que isso geralmente não será possível – porque o próprio sistema pode ser tão sofisticado computacionalmente quanto nossos cérebros, matemática, computadores. Isso significa que o sistema será computacionalmente irredutível: a única maneira de descobrir o que ele faz é efetivamente passar pelo mesmo processo computacional completo que ele executa.

Há uma impressão predominante de que a ciência sempre será eventualmente capaz de fazer melhor do que isso: que ela será capaz de fazer “previsões” que nos permitam descobrir o que acontecerá sem ter que rastrear cada etapa. E, de fato, ao longo dos últimos três séculos, houve muito sucesso em fazer isso, principalmente usando equações matemáticas. Mas, no final das contas, verifica-se que isso só foi possível porque a ciência acabou se concentrando em sistemas específicos em que esses métodos funcionam (e então esses sistemas foram usados ​​para engenharia). Mas a realidade é que muitos sistemas apresentam irreducibilidade computacional. E no fenômeno da irreducibilidade computacional, a ciência está, na prática, “derivando sua própria limitação”.

Ao contrário da intuição tradicional, por mais que tentemos, em muitos sistemas nunca conseguiremos encontrar “fórmulas” (ou outros “atalhos”) que descrevam o que vai acontecer nos sistemas – porque os sistemas são simplesmente computacionalmente irredutíveis. E sim, isso representa uma limitação na ciência e no conhecimento em geral. Mas, embora isso possa parecer ruim à primeira vista, também há algo fundamentalmente satisfatório nisso. Porque se tudo fosse computacionalmente redutível, sempre poderíamos “pular adiante” e descobrir o que acontecerá no final, digamos em nossas vidas. Mas a irreducibilidade computacional implica que, em geral, não podemos fazer isso – de modo que, de certa forma, “algo irredutível está sendo alcançado” com a passagem do tempo.

Há muitas consequências da irreducibilidade computacional. Algumas – que explorei recentemente – estão no domínio da ciência básica (por exemplo, estabelecendo leis fundamentais da física conforme as percebemos a partir da interação da irreducibilidade computacional e nossas limitações computacionais como observadores). Mas a irreducibilidade computacional também é central para pensar no futuro da IA – e, de fato, cada vez mais sinto que ela adiciona o elemento intelectual mais importante necessário para dar sentido a muitas das questões mais importantes sobre os papéis potenciais das IA e humanos no futuro.

Por exemplo, a partir de nossa experiência tradicional com a engenharia, estamos acostumados com a ideia de que, para descobrir por que algo aconteceu de uma maneira específica, podemos simplesmente “olhar para dentro” de uma máquina ou programa e “ver o que fez”. Mas quando há irreducibilidade computacional, isso não funcionará. Sim, poderíamos “olhar para dentro” e ver, digamos, algumas etapas. Mas a irreducibilidade computacional implica que, para descobrir o que aconteceu, teríamos que rastrear todas as etapas. Não podemos esperar encontrar uma “narrativa humana simples” que “diga por que algo aconteceu”.

Mas, tendo dito isso, uma característica da irreducibilidade computacional é que, dentro de qualquer sistema computacionalmente irredutível, sempre deve haver (em última análise, infinitamente muitos) “bolsões de redutibilidade computacional” a serem encontrados. Então, por exemplo, mesmo que não possamos dizer em geral o que acontecerá, sempre poderemos identificar características específicas que podemos prever. (“A célula mais à esquerda sempre será preta”) E, como discutiremos mais adiante, podemos pensar potencialmente no progresso tecnológico (bem como científico) como sendo intimamente ligado à descoberta desses “bolsões de redutibilidade”. E, na prática, a existência de infinitamente muitos desses bolsões é a razão pela qual “sempre haverá invenções e descobertas a serem feitas”.

Outra consequência da irreducibilidade computacional tem a ver com tentar garantir coisas sobre o comportamento de um sistema. Digamos que alguém queira configurar uma IA para que ela “nunca faça nada de ruim”. Pode-se imaginar que basta criar regras específicas para garantir isso. No entanto, assim que o comportamento do sistema (ou de seu ambiente) se torna computacionalmente irredutível, nunca será possível garantir o que acontecerá no sistema. Sim, pode haver características computacionalmente redutíveis específicas sobre as quais se pode ter certeza. Mas, em geral, a irreducibilidade computacional implica que sempre haverá uma “possibilidade de surpresa” ou o potencial para “consequências não intencionais”. E a única maneira de evitar isso sistematicamente é tornar o sistema não computacionalmente irredutível, o que significa que ele não pode utilizar todo o poder da computação.

“IA nunca será capaz de fazer isso”

Nós, seres humanos, gostamos de nos sentir especiais e acreditar que há algo “fundamentalmente único” em nós. Cinco séculos atrás, acreditávamos que vivíamos no centro do universo. Agora, tendemos a pensar que há algo em nossas capacidades intelectuais que é fundamentalmente único e superior a qualquer outra coisa. Mas o progresso da IA – e coisas como o ChatGPT – continuam nos dando cada vez mais evidências de que isso não é verdade. E, na verdade, meu Princípio da Equivalência Computacional afirma algo ainda mais extremo: que, em um nível computacional fundamental, não há nada de fundamentalmente especial em nós – e que, na verdade, somos computacionalmente equivalentes a muitos sistemas na natureza e até mesmo a programas simples.

Essa ampla equivalência é importante para fazer afirmações científicas muito gerais (como a existência de irreducibilidade computacional). Mas também destaca o quão significativas são nossas especificidades – nossa história, biologia etc. É muito parecido com o ChatGPT. Podemos ter uma rede neural genérica (não treinada) com a mesma estrutura do ChatGPT, que pode realizar certa “computação bruta”. Mas o que torna o ChatGPT interessante – pelo menos para nós – é que ele foi treinado com as “especificidades humanas” descritas em bilhões de páginas da web. Em outras palavras, para nós e para o ChatGPT não há nada computacionalmente “especial em geral”. Mas há algo “especificamente especial” – e é a história particular que tivemos, o conhecimento específico que nossa civilização acumulou.

Há uma curiosa analogia aqui com o nosso lugar físico no universo. Há uma certa uniformidade no universo, o que significa que não há nada “geralmente especial” sobre nossa localização física. Mas, pelo menos para nós, ainda há algo de “especificamente especial” nisso, porque é aqui que temos nosso planeta. Em um nível mais profundo, as ideias baseadas em nosso Projeto de Física levaram ao conceito de ruliad: o objeto único que é o limite entrelaçado de todos os possíveis processos computacionais. E podemos então ver toda a nossa experiência como “observadores do universo” como uma amostragem do ruliad em um lugar específico.

É um pouco abstrato (e uma história longa, que não vou detalhar aqui), mas podemos pensar em diferentes observadores possíveis como estando em diferentes lugares no espaço físico e em diferentes lugares no espaço rulial, proporcionando diferentes “pontos de vista” sobre o que acontece no universo. As mentes humanas estão, de fato, concentradas em uma região particular do espaço físico (principalmente neste planeta) e em uma região particular do espaço rulial. E no espaço rulial, diferentes mentes humanas – com suas diferentes experiências e, portanto, diferentes maneiras de pensar sobre o universo – estão em lugares ligeiramente diferentes. Mentes animais podem estar relativamente próximas no espaço rulial. Mas outros sistemas computacionais (como, por exemplo, o clima, que às vezes se diz “ter mente própria”) estão mais distantes – assim como seriam possíveis alienígenas.

E quanto às IA? Depende do que entendemos por “IA”. Se estamos falando de sistemas computacionais configurados para fazer “coisas semelhantes às humanas”, isso significa que eles estarão próximos de nós no espaço rulial. Mas, na medida em que “uma IA” é um sistema computacional arbitrário, ela pode estar em qualquer lugar no espaço rulial e pode fazer tudo o que é computacionalmente possível – o que é muito mais amplo do que o que nós, humanos, podemos fazer ou até mesmo pensar. (Como falaremos mais tarde, à medida que nossos paradigmas intelectuais – e maneiras de observar as coisas – se expandem, a região do espaço rulial em que nós, humanos, operamos se expandirá correspondentemente.)

Mas, OK, o quão “gerais” são os cálculos que nós, humanos (e as IA que nos seguem), estamos fazendo? Não sabemos o suficiente sobre o cérebro para ter certeza. Mas, se olharmos para sistemas de redes neurais artificiais – como o ChatGPT – podemos ter uma ideia. E, de fato, os cálculos realmente não parecem ser tão “gerais”. Na maioria dos sistemas de redes neurais, os dados fornecidos como entrada apenas “reverberam uma vez pelo sistema” para produzir a saída. Não é como em um sistema computacional como uma máquina de Turing, onde pode haver “recirculação arbitrária de dados”. E, de fato, sem essa “recirculação arbitrária”, a computação é necessariamente bastante “superficial” e, em última análise, não pode mostrar irreducibilidade computacional.

É um ponto técnico, mas pode-se perguntar se o ChatGPT, com sua “realimentação do texto produzido até agora”, pode de fato alcançar uma computação arbitrária (“universal”). E suspeito que, em algum sentido formal, ele possa (ou pelo menos um análogo suficientemente expandido possa) – embora produzindo um texto extremamente verboso que, por exemplo, lista efetivamente estados sucessivos (auto-delimitados) de uma fita de máquina de Turing, e no qual encontrar “a resposta” para um cálculo exigirá um pouco de esforço. Mas – como já discuti em outros lugares – na prática, o ChatGPT provavelmente está fazendo quase exclusivamente cálculos “bem superficiais”.

É uma característica interessante da história da computação prática que o que se poderia considerar “cálculos puros profundos” (digamos, em matemática ou ciência) foram feitos por décadas antes que “cálculos superficiais semelhantes aos humanos” se tornassem viáveis. E a razão básica para isso é que, para “cálculos semelhantes aos humanos” (como reconhecer imagens ou gerar texto), é necessário capturar muito do “contexto humano”, o que requer ter muitos “dados gerados por humanos” e recursos computacionais para armazenar e processá-los.

A propósito, os cérebros também parecem se especializar em cálculos fundamentalmente superficiais. E para fazer os tipos de cálculos mais profundos que permitem aproveitar mais do que existe no universo computacional, é preciso recorrer aos computadores. Como discutimos, há muito no universo computacional que os humanos ainda não se importam: consideramos isso apenas como “computação bruta” que não parece estar “atingindo propósitos humanos”. Mas, na prática, é importante construir uma ponte entre as coisas com as quais os humanos se preocupam e pensam e o que é possível no universo computacional. E, em certo sentido, isso está no cerne do projeto que dediquei tanto esforço na Linguagem Wolfram, criando uma linguagem computacional em larga escala que descreve em termos computacionais as coisas sobre as quais pensamos e vivenciamos no mundo.

OK, as pessoas têm dito por anos: “É bom que os computadores possam fazer A e B, mas apenas humanos podem fazer X”. O que se entende por X mudou – e se estreitou – ao longo dos anos. E o ChatGPT nos fornece um exemplo importante e inesperado de algo a mais que os computadores podem fazer.

Então, o que resta? As pessoas podem dizer: “Computadores nunca podem demonstrar criatividade ou originalidade”. Mas – talvez decepcionante – isso é surpreendentemente fácil de obter e, de fato, apenas um pouco de aleatoriedade “semeando” um cálculo muitas vezes pode fazer um bom trabalho, como vimos anos atrás com nosso sistema de geração de música WolframTones e como vemos hoje com a escrita do ChatGPT. As pessoas também podem dizer: “Computadores nunca podem demonstrar emoções”. Mas, antes de termos uma boa maneira de gerar linguagem humana, não teríamos realmente sido capazes de perceber isso. E agora já funciona muito bem pedir ao ChatGPT para escrever “felizmente”, “tristemente”. (Em sua forma bruta, as emoções em humanos e outros animais estão presumivelmente associadas a “variáveis globais” bastante simples, como as concentrações de neurotransmissores.)

No passado, as pessoas poderiam ter dito: “Computadores nunca podem demonstrar julgamento”. Mas, até agora, existem inúmeros exemplos de sistemas de aprendizado de máquina que se saem bem em reproduzir o julgamento humano em várias áreas. As pessoas também podem dizer: “Computadores não demonstram senso comum”. E, por isso, geralmente querem dizer que, em uma situação específica, um computador pode fornecer uma resposta localmente, mas há uma razão global pela qual essa resposta não faz sentido, que o computador “não percebe”, mas uma pessoa perceberia.

Então, como o ChatGPT se sai nisso? Não tão mal. Em muitos casos, ele reconhece corretamente que “isso não é o que eu normalmente leio”. Mas, sim, comete erros. Alguns deles têm a ver com o fato de não ser capaz de fazer – apenas com sua rede neural – cálculos “mais profundos”. (E, sim, isso é algo que muitas vezes pode ser resolvido chamando o Wolfram|Alpha como uma ferramenta.) Mas, em outros casos, o problema parece ser que não consegue conectar diferentes domínios de maneira suficientemente eficaz.

Ele é perfeitamente capaz de fazer analogias simples (do tipo “SAT”). Mas, quando se trata de analogias em maior escala, ele não consegue lidar com elas. No entanto, minha suposição é que não levará muito tempo para escalar antes que comece a ser capaz de fazer analogias que pareçam muito impressionantes (que a maioria de nós, humanos, nunca seria capaz de fazer) – momento em que provavelmente mostrará com sucesso um “senso comum” mais amplo.

Então, o que resta para os humanos fazerem que as AIs não podem? Há, quase por definição, uma coisa fundamental: definir o que consideraríamos objetivos para o que fazer. Falaremos sobre isso mais tarde. Mas, por enquanto, podemos observar que qualquer sistema computacional, uma vez “colocado em movimento”, seguirá suas regras e fará o que faz. Mas em que “direção deve ser apontado”? Isso é algo que tem que vir de “fora do sistema”.

Então, como funciona para nós, humanos? Bem, nossos objetivos são, de fato, definidos por toda a teia da história – tanto da evolução biológica quanto do nosso desenvolvimento cultural – na qual estamos inseridos. Mas, no final das contas, a única maneira de realmente participar dessa teia da história é fazer parte dela.

Claro, podemos imaginar tecnologicamente emular cada aspecto “relevante” de um cérebro – e, de fato, coisas como o sucesso do ChatGPT podem sugerir que isso seja mais fácil de fazer do que poderíamos ter pensado. Mas isso não será suficiente. Para participar da “teia humana da história” (como discutiremos mais tarde), teremos que emular outros aspectos do “ser humano” – como se mover, ser mortal. E, sim, se fizermos um “humano artificial”, podemos esperar que ele (por definição) mostre todas as características de nós, humanos.

Mas enquanto ainda estamos falando sobre AIs como, por exemplo, “rodando em computadores” ou “sendo puramente digitais”, então, pelo menos no que nos diz respeito, eles terão que “obter seus objetivos de fora”. Um dia (como discutiremos), sem dúvida haverá algum tipo de “civilização de AIs” – que formará sua própria teia de história. Mas, neste ponto, não há razão para pensar que ainda seremos capazes de descrever o que está acontecendo em termos de objetivos que reconhecemos. Na prática, as AIs terão, nesse momento, deixado nosso domínio do espaço rulial. E como discutiremos, eles estarão operando mais como os tipos de sistemas que vemos na natureza, onde podemos perceber que há computação acontecendo, mas não podemos descrevê-la, exceto de forma bastante antropomórfica, em termos de objetivos e propósitos humanos.

Então, haverá algo para os humanos fazerem?

Essa questão tem sido levantada – com graus variáveis de urgência – por séculos: com o avanço da automação (e agora IA), eventualmente não haverá nada para os humanos fazerem? Nos primeiros dias da nossa espécie, havia muito trabalho duro na caça e coleta para fazer, apenas para sobreviver. Mas pelo menos nas partes desenvolvidas do mundo, esse tipo de trabalho agora é, no máximo, uma lembrança histórica distante.

E ainda assim, em cada etapa da história – pelo menos até agora – sempre parece haver outros tipos de trabalho que mantêm as pessoas ocupadas. Mas há um padrão que parece se repetir cada vez mais. A tecnologia, de alguma forma, possibilita uma nova ocupação. E, eventualmente, essa ocupação se torna difundida, e muitas pessoas a exercem. Mas então há um avanço tecnológico e a ocupação é automatizada – e as pessoas não são mais necessárias para realizá-la. Porém, agora há um novo nível de tecnologia, que possibilita novas ocupações. E o ciclo continua.

Um século atrás, o uso cada vez mais difundido de telefones significava que cada vez mais pessoas trabalhavam como operadores de central telefônica. Mas então a telefônica foi automatizada – e esses operadores de central não eram mais necessários. Mas com a alteração automatizada, poderia haver um enorme desenvolvimento da infraestrutura de telecomunicações, abrindo todos os tipos de novos empregos, que no agregado empregam muito mais pessoas do que nunca foram operadores de central.

Algo semelhante aconteceu com os escriturários contábeis. Antes dos computadores, era necessário que as pessoas fizessem a contabilidade de números trabalhosamente. Mas com os computadores, isso foi totalmente automatizado. No entanto, com essa automação veio a capacidade de fazer cálculos financeiros mais complexos – o que permitiu transações financeiras mais complexas, regulamentações mais complexas, o que, por sua vez, levou a todos os tipos de novos empregos.

E em uma ampla gama de indústrias, tem sido a mesma história. A automação torna obsoletos alguns empregos, mas possibilita outros. Muitas vezes há uma lacuna no tempo e uma mudança nas habilidades necessárias. Mas pelo menos até agora, sempre parece ter havido uma ampla fronteira de empregos que foram possibilitados – mas ainda não foram automatizados.

Isso vai acabar em algum momento? Chegará um momento em que tudo o que nós, humanos, queremos (ou pelo menos precisamos) seja entregue automaticamente? Bem, é claro que isso depende do que queremos e se, por exemplo, isso evolui com o que a tecnologia tornou possível. Mas será que podemos simplesmente decidir que “já é o suficiente”; vamos parar por aqui e simplesmente deixar tudo ser automatizado?

Eu não acho que sim. E a razão é, em última análise, a irreducibilidade computacional. Tentamos fazer com que o mundo seja “exatamente assim”, digamos, configurado para que estejamos “confortavelmente previsíveis”. Bem, o problema é que inevitavelmente há irreducibilidade computacional na maneira como as coisas se desenvolvem – não apenas na natureza, mas também em coisas como dinâmicas sociais. E isso significa que as coisas não permanecerão “exatamente assim”. Sempre haverá algo imprevisível que acontece; algo que a automação não cobre.

A princípio, nós, humanos, podemos simplesmente dizer “não nos importamos com isso”. Mas, com o tempo, a irreducibilidade computacional afetará tudo. Portanto, se houver algo de que nos importamos (inclusive, por exemplo, não entrar em extinção), eventualmente teremos que fazer algo – e ir além da automação que já foi estabelecida.

É fácil encontrar exemplos práticos. Podemos pensar que, quando computadores e pessoas estiverem todos conectados em uma rede automatizada perfeita, não haveria mais nada a fazer. Mas e as “consequências não intencionais” dos problemas de segurança de computadores? O que pode ter parecido um caso em que “a tecnologia terminou as coisas” rapidamente cria um novo tipo de trabalho para as pessoas fazerem. E, em algum nível, a irreducibilidade computacional implica que coisas assim sempre acontecerão. Sempre deve haver uma “fronteira”. Pelo menos se houver algo que queiramos preservar (como não entrar em extinção).

Vamos voltar à situação aqui e agora com a IA. O ChatGPT automatizou uma série de tarefas relacionadas a texto. Costumava exigir muito esforço e pessoas para escrever relatórios personalizados, cartas, etc. Mas (pelo menos enquanto se lida com situações em que não é necessário 100% de “corretude”) o ChatGPT automatizou muito disso, então as pessoas não são mais necessárias para isso. Mas o que isso significa? Bem, isso significa que haverá muito mais relatórios personalizados, cartas, etc. que podem ser produzidos. E isso levará a novos tipos de empregos – gerenciar, analisar, validar etc. todo esse texto personalizado em massa. Sem mencionar a necessidade de engenheiros de prompts (uma categoria de emprego que simplesmente não existia até alguns meses atrás) e o que equivale a domadores de IA, psicólogos de IA, etc.

Mas vamos falar sobre a “fronteira” atual de empregos que ainda não foram “automatizados”. Há uma categoria que, de muitas maneiras, parece surpreendente ainda estar “conosco”: empregos que envolvem muita manipulação mecânica, como construção, atendimento, preparação de alimentos, etc. Mas há uma peça de tecnologia faltando aqui: ainda não há robótica de propósito geral (como há computação de propósito geral), e nós, humanos, ainda temos vantagem na destreza, adaptabilidade mecânica, etc. Mas tenho certeza de que, com o tempo – e talvez repentinamente – a tecnologia necessária será desenvolvida (e sim, tenho ideias sobre como fazer isso). E isso significará que a maioria dos empregos de “manipulação mecânica” de hoje serão “automatizados” – e não precisarão de pessoas para fazê-los.

Mas então, assim como em nossos outros exemplos, isso significará que a manipulação mecânica se tornará muito mais fácil e barata de fazer, e mais será feita. Casas podem ser rotineiramente construídas e desmontadas. Produtos podem ser rotineiramente retirados de onde quer que tenham acabado e redistribuídos. Construções de alimentos muito mais ornamentadas podem se tornar a norma. E cada uma dessas coisas – e muitas outras – abrirão novos empregos.

Mas será que todos os empregos que existem no mundo hoje “na fronteira” serão eventualmente automatizados? E quanto aos empregos em que parece que uma grande parte do valor está em “ter um humano presente”? Empregos como pilotar um avião, onde se quer o “compromisso” do piloto ali no avião. Empregos de cuidadores onde se deseja a “conexão” de um ser humano presente. Vendas ou educação, onde se busca a “persuasão humana” ou “incentivo humano”. Hoje, alguém pode pensar “só um humano pode fazer alguém se sentir assim”. Mas isso geralmente se baseia na maneira como o trabalho é feito agora. E talvez sejam encontradas diferentes maneiras de permitir que a essência da tarefa seja automatizada, abrindo quase inevitavelmente novas tarefas para serem feitas.

Por exemplo, algo que no passado precisava de “persuasão humana” pode ser “automatizado” por algo como a gamificação – mas então mais pode ser feito, com novas necessidades de design, análise, gerenciamento, etc.

Estivemos falando sobre “empregos”. E esse termo traz à mente salários, economia, etc. E, sim, grande parte do que as pessoas fazem (pelo menos no mundo como é hoje) é impulsionado por questões econômicas. Mas também há muitas coisas que não são. Há coisas que “simplesmente queremos fazer” – como uma “questão social”, para “entretenimento”, para “satisfação pessoal”, etc.

Por que queremos fazer essas coisas? Parte disso parece intrínseco à nossa natureza biológica. Parte disso parece ser determinada pelo “ambiente cultural” em que nos encontramos. Por que alguém andaria em uma esteira? No mundo de hoje, pode-se explicar que é bom para a saúde, longevidade. Mas alguns séculos atrás, sem o entendimento científico moderno e com uma visão diferente da importância da vida e da morte, essa explicação realmente não funcionaria.

O que impulsiona tais mudanças em nossa visão do que “queremos fazer” ou “devemos fazer”? Algumas parecem ser impulsionadas pela pura “dinâmica da sociedade”, presumivelmente com sua própria irreducibilidade computacional. Mas algumas têm a ver com nossas formas de interagir com o mundo – tanto o aumento da automação proporcionado pelo avanço da tecnologia quanto o aumento da abstração proporcionado pelo avanço do conhecimento.

E parecem haver ciclos semelhantes aqui, como nos tipos de coisas que consideramos “ocupações” ou “empregos”. Por um tempo, algo é difícil de fazer e serve como um bom “passatempo”. Mas então fica “muito fácil” (“todo mundo agora sabe como ganhar no jogo X”, etc.), e algo em um “nível superior” toma seu lugar.

Essa evolução dos passatempos e interesses humanos continuará à medida que a tecnologia e o conhecimento avançam. À medida que as tarefas se tornam automatizadas, a sociedade se adaptará e novos interesses e atividades surgirão. O desejo humano de explorar, aprender e criar sempre impulsionará a busca por novos desafios e experiências. Portanto, mesmo que muitos empregos sejam automatizados, sempre haverá algo para os humanos fazerem, seja em termos de trabalho, hobbies ou simplesmente buscando satisfação pessoal.

É verdade que nossas motivações biologicamente fundamentais não parecem ter mudado muito ao longo da história humana. No entanto, há desenvolvimentos tecnológicos que podem afetar nosso futuro. A imortalidade humana efetiva, por exemplo, mudaria muitos aspectos de nossa estrutura de motivação, assim como coisas como a capacidade de implantar memórias ou, por falar nisso, implantar motivações.

Por enquanto, há um certo elemento do que queremos fazer que está “ancorado” em nossa natureza biológica. Mas em algum momento, certamente seremos capazes de emular com um computador pelo menos a essência do que nossos cérebros estão fazendo (e, de fato, o sucesso de coisas como o ChatGPT faz parecer que o momento em que isso acontecerá está mais próximo do que poderíamos ter pensado). E nesse ponto, teremos a possibilidade do que equivale a “almas humanas desencarnadas”.

Para nós hoje, é muito difícil imaginar quais seriam as “motivações” de uma “alma desencarnada”. Olhando “de fora”, podemos “ver a alma” fazendo coisas que “não fazem muito sentido” para nós. Mas é como perguntar o que alguém de mil anos atrás pensaria sobre muitas de nossas atividades hoje. Essas atividades fazem sentido para nós hoje porque estamos inseridos em nosso “atual arcabouço”. Mas sem esse arcabouço, elas não fazem sentido. E assim será para a “alma desencarnada”. Para nós, o que ela faz pode não fazer sentido. Mas para ela, com seu “arcabouço atual”, fará.

Poderíamos “aprender a dar sentido a isso”? É provável que haja uma certa barreira de irreducibilidade computacional: na prática, a única maneira de “entender a alma do futuro” é refazer seus passos para chegar aonde ela está. Portanto, do nosso ponto de vista atual, estamos separados por uma certa “distância irredutível”, em essência, no espaço de regras.

É possível que exista alguma ciência do futuro que nos diga coisas gerais sobre como essas “almas” se comportam? Mesmo quando há irreducibilidade computacional, sabemos que sempre haverá bolsões de reducibilidade computacional e, portanto, características de comportamento que são previsíveis. Mas essas características serão “interessantes”, digamos, do nosso ponto de vista atual? Talvez algumas delas sejam. Talvez elas nos mostrem algum tipo de metapsicologia das almas. Mas, inevitavelmente, elas só podem ir até certo ponto. Porque, para que essas almas experimentem a passagem do tempo, é preciso haver irreducibilidade computacional. Se muita coisa que acontece é muito previsível, é como se “nada estivesse acontecendo” ou pelo menos nada “significativo”.

E sim, tudo isso está relacionado às questões sobre o “livre-arbítrio”. Mesmo quando há uma alma desencarnada que opera de acordo com algum programa subjacente completamente determinístico, a irreducibilidade computacional significa que seu comportamento ainda pode “parecer livre” – porque nada pode “superá-lo” e dizer o que vai ser. E a “experiência interna” da alma desencarnada pode ser significativa: ela está “definindo intrinsecamente seu futuro”, não apenas “tendo seu futuro definido para ela”.

Poder-se-ia supor que, uma vez que tudo esteja apenas “visivelmente operando” como “mera computação”, necessariamente seria “sem alma” e “sem sentido”. Mas a irreducibilidade computacional é o que escapa disso e o que permite que algo irreducível e “significativo” seja alcançado. E é o mesmo fenômeno, seja quando se fala sobre nossa vida agora no universo físico ou em uma futura existência computacional “desencarnada”. Em outras palavras, mesmo que absolutamente tudo – até mesmo nossa própria existência – tenha sido “automatizado pela computação”, isso não significa que não possamos ter uma experiência interna perfeitamente boa de existência significativa.

Essa é apenas uma parte do artigo original.


Autor:
Stephen Wolfram
Artigo original: http://bit.ly/40eVm43

Fernando Giannini

Pesquisador de tecnologia aplicada à educação, arquiteto de objetos virtuais de aprendizagem, fissurado em livros de grandes educadores e viciado em games de todos os tipos. Conhecimentos aprimorados em cursos de grandes empresas de tecnologia, principalmente no Google Business Educational Center e Microsoft. Sócio-proprietário da Streamer, empresa que alia tecnologia e educação. Experiência de 18 anos produzindo e criando objetos de aprendizagem, cursos a distância, design educacional, interfaces para sistemas de aprendizagem. Gestor de equipe para projetos educacionais, no Ensino Básico, Médio e Ensino Superior. Nesse período de trabalho gerenciou equipes e desenvolveu as habilidades de liderança e gestão. Acredita na integração e aplicação prática dos conhecimentos para a realização de projetos inovadores, sólidos e sustentáveis a longo prazo. Um dos grandes sonhos realizados foi o lançamento do curso gratuito Mande Bem no ENEM que atingiu mais de 500 mil estudantes em todo o Brasil contribuindo para a Educação Brasileira.

Participe da nossa comunidade no Whatsapp sobre Educação e Tecnologia

0 comentários

Enviar um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Posts Relacionados

Aprendendo com IA: espelhos sociais e intelectuais

Até recentemente, as interações humanas com máquinas antropomorfizadas (entidades não-humanas que são atribuídas características humanas) eram consideradas divertidas, mas não eram vistas como emocionalmente relevantes para a maioria das pessoas. Embora muitos se...

10 efeitos negativos do uso de celulares para as crianças

Crianças de todo o mundo (embora não todas) utilizam smartphones para diversas finalidades. Algumas passam horas conversando com amigos, enquanto outras se dedicam a jogar inúmeros jogos. A Internet é frequentemente considerada uma fonte de conhecimento para as...

Sistemas de tutoria inteligente

Adaptação da aprendizagem de acordo com o nível e ritmo do estudante Os sistemas de tutoria inteligente se baseiam na capacidade de adaptar a aprendizagem de acordo com o nível e o ritmo do estudante. Usando inteligência artificial e técnicas de aprendizado de...

Quanto custa manter a nuvem no céu para o meio ambiente?

À medida que a humanidade aumenta sua capacidade de intervir na natureza com o objetivo de satisfazer as necessidades e desejos crescentes, aparecem as tensões e conflitos quanto ao uso do espaço e dos recursos naturais. Quanto custa manter a nuvem no céu para o meio...

Competências essenciais na era digital

A proliferação da IA em muitos aspectos da vida humana - desde o lazer pessoal até o trabalho profissional, passando pelas decisões políticas globais - impõe uma questão complexa sobre como preparar as pessoas para um mundo interconectado e em rápida mudança, que está...

Educação digital para prevenir abusos sexuais online

Depois de participar de uma aula incrível com a professora Beatriz Lorencini e o Felipe, fui tirado da bolha onde costumo estar a maior parte do meu tempo se não o tempo todo. Quando percebi eu estava em choque por "não saber ou escolher não saber" que existem...

Tag Cloud

Posts Relacionados

[dgbm_blog_module posts_number=”4″ related_posts=”on” show_categories=”off” show_pagination=”off” item_in_desktop=”2″ equal_height=”on” image_size=”mid” author_background_color=”#ffffff” disabled_on=”off|off|on” module_class=”PostRelacionado” _builder_version=”4.16″ _module_preset=”default” title_font=”Montserrat||||||||” title_text_color=”#737373″ title_font_size=”19px” title_line_height=”25px” meta_text_color=”#666″ meta_font_size=”13px” content_font_size=”13px” content_line_height=”30px” author_text_color=”#666666″ custom_css_content_container=”display:flex;||flex-wrap:wrap;” custom_css_image-container=”padding-top:70%;||overflow:hidden;” custom_css_image=”position:absolute;||top:0;||left:0;||bottom:0;||right:0;||object-fit: cover;||height:100%;||width:100%;” custom_css_title=”padding:20px;||margin-top:0;||order:2;” custom_css_content=”padding:0 20px 20px;||order:3;” custom_css_post-meta-middle=”order:1;||padding:20px;||border-bottom:1px solid #dcdcdc;||border-top:1px solid #dcdcdc;” border_width_all_post_item=”0px” border_width_all_content=”0px” box_shadow_style_container=”preset1″ box_shadow_blur_container=”5px” box_shadow_spread_container=”1px” box_shadow_color_container=”rgba(0,0,0,0.1)” global_colors_info=”{}”][/dgbm_blog_module]

Receba a nossa newsletter

Fique por dentro e seja avisado dos novos conteúdos.

Publicações mais recentes