Seis perguntas que ditarão o futuro da IA generativa

Tempo de leitura: 15 minutes

Loading

A IA generativa tomou o mundo de assalto em 2023. Seu futuro – e o nosso – será moldado pelo que fizermos a seguir.

Foi uma pessoa desconhecida que me mostrou pela primeira vez o quão grande seria a mudança de vibração deste ano. Enquanto esperávamos juntas por um elevador preso em março, ela me disse que tinha acabado de usar o ChatGPT para ajudá-la a escrever um relatório para seu trabalho de marketing. Ela odiava escrever relatórios porque achava que não era muito boa nisso. Mas, dessa vez, seu gerente a elogiou. Parecia uma desonestidade? Claro que não, disse ela. Você faz o que pode para acompanhar o ritmo, por isso temos que falar das seis perguntas que ditarão o futuro da IA generativa.

A experiência dessa estranha com a IA generativa é uma entre milhões. As pessoas nas ruas (e nos elevadores) estão agora descobrindo para que serve essa nova tecnologia radical e se perguntando o que ela pode fazer por elas. De muitas maneiras, o burburinho em torno da IA generativa neste momento lembra os primeiros dias da Internet: há uma sensação de entusiasmo e expectativa – e um sentimento de que estamos inventando tudo à medida que avançamos.

Ou seja, estamos no boom das empresas pontocom, por volta de 2000. Muitas empresas irão à falência. Pode levar anos até que vejamos o surgimento do Facebook (agora Meta), do Twitter (agora X) ou do TikTok desta era. “As pessoas relutam em imaginar o que poderia ser o futuro em 10 anos, porque ninguém quer parecer tolo”, diz Alison Smith, chefe de IA generativa da Booz Allen Hamilton, uma empresa de consultoria em tecnologia. “Mas acho que será algo muito além de nossas expectativas.”

A Internet mudou tudo – como trabalhamos e nos divertimos, como passamos o tempo com amigos e familiares, como aprendemos, como consumimos, como nos apaixonamos e muito mais. Mas ela também nos trouxe o cyberbullying, a pornografia de vingança e as fábricas de trolls. Facilitou o genocídio, alimentou crises de saúde mental e tornou o capitalismo de vigilância – com seus algoritmos viciantes e publicidade predatória – a força de mercado dominante de nosso tempo. Essas desvantagens só ficaram claras quando as pessoas começaram a usá-la em grande número e surgiram os aplicativos matadores, como as mídias sociais.

A imagem mostra uma representação artística e futurista do tema, Seis questões cruciais que definirão o rumo da inteligência artificial generativa.

É provável que o mesmo aconteça com a IA generativa. Com a infraestrutura instalada – os modelos geradores básicos da OpenAI, Google, Meta e alguns outros – outras pessoas, além daquelas que a construíram, começarão a usá-la e a fazer mau uso dela de maneiras que seus criadores jamais sonharam. “Não entenderemos totalmente o potencial e os riscos sem que os usuários individuais realmente brinquem com ela”, diz Smith.

A IA generativa foi treinada na Internet e, portanto, herdou muitos de seus problemas não resolvidos, inclusive os relacionados a preconceitos, desinformação, violação de direitos autorais, abusos de direitos humanos e turbulência econômica geral. Mas não estamos indo às cegas.

Aqui estão seis questões não resolvidas que devemos ter em mente enquanto assistimos ao desenrolar da revolução da IA generativa. Desta vez, temos a chance de fazer melhor.

1. Algum dia conseguiremos diminuir o problema do viés?

Reduzindo o Viés em IA: Estratégias e Desafios para um Futuro Mais Equitativo

O preconceito se tornou uma palavra de ordem para danos relacionados à IA, por um bom motivo. Os dados do mundo real, especialmente textos e imagens extraídos da Internet, estão repletos deles, desde estereótipos de gênero até discriminação racial. Os modelos treinados com base nesses dados codificam esses preconceitos e os reforçam onde quer que sejam usados.

Os chatbots e os geradores de imagens tendem a retratar os engenheiros como brancos e homens e os enfermeiros como brancos e mulheres. As pessoas negras correm o risco de serem identificadas erroneamente pelos programas de reconhecimento facial dos departamentos de polícia, o que leva a prisões injustas. Os algoritmos de contratação favorecem os homens em detrimento das mulheres, consolidando um preconceito que, às vezes, eles foram criados para resolver.

Sem novos conjuntos de dados ou uma nova maneira de treinar modelos (o que pode levar anos de trabalho), a causa principal do problema do preconceito veio para ficar. Mas isso não o impediu de ser um tópico de pesquisa importante. A OpenAI tem trabalhado para tornar seus grandes modelos de linguagem menos tendenciosos usando técnicas como o aprendizado por reforço a partir de feedback humano (RLHF). Isso direciona a saída de um modelo para o tipo de texto que os testadores humanos dizem preferir.

Outras técnicas envolvem o uso de conjuntos de dados sintéticos. Por exemplo, a Runway, uma startup que cria modelos generativos para produção de vídeo, treinou uma versão do popular modelo de criação de imagens Stable Diffusion em dados sintéticos, como imagens geradas por IA de pessoas que variam em etnia, gênero, profissão e idade. A empresa relata que os modelos treinados nesse conjunto de dados geram mais imagens de pessoas com pele mais escura e mais imagens de mulheres. Solicite uma imagem de um empresário e os resultados incluirão mulheres com lenços de cabeça; as imagens de médicos mostrarão pessoas de cor de pele e gênero diferentes; e assim por diante.

Os críticos descartam essas soluções como band-aids em modelos básicos quebrados, ocultando o problema em vez de corrigi-lo. Mas Geoff Schaefer, colega de Smith na Booz Allen Hamilton e diretor de IA responsável na empresa, argumenta que esses vieses algorítmicos podem expor vieses sociais de uma forma que seja útil a longo prazo.

Como exemplo, ele observa que, mesmo quando as informações explícitas sobre raça são removidas de um conjunto de dados, o viés racial ainda pode distorcer a tomada de decisões orientada por dados, pois a raça pode ser inferida a partir dos endereços das pessoas – revelando padrões de segregação e discriminação habitacional. “Reunimos uma série de dados em um só lugar e essa correlação ficou muito clara”, diz ele.

Schaefer acha que algo semelhante pode acontecer com esta geração de IA: “Esses preconceitos em toda a sociedade vão aparecer”. E isso levará a uma formulação de políticas mais direcionadas, diz ele.

Mas muitas pessoas não gostariam de ter esse otimismo. O fato de um problema estar exposto não garante que ele será resolvido. Os formuladores de políticas ainda estão tentando lidar com preconceitos sociais que foram expostos anos atrás – em moradia, contratação, empréstimos, policiamento e muito mais. Enquanto isso, as pessoas vivem com as consequências.

Previsão: O preconceito continuará sendo uma característica inerente da maioria dos modelos de IA generativa. Mas as soluções alternativas e a crescente conscientização podem ajudar os formuladores de políticas a lidar com os exemplos mais óbvios.

2. Como a IA mudará a forma como aplicamos os direitos autorais?

IA e Direitos Autorais: Novos Paradigmas na Proteção da Propriedade Intelectual

Indignados com o fato das empresas de tecnologia lucrarem com seu trabalho sem consentimento, artistas e escritores (e programadores) lançaram ações judiciais coletivas contra a OpenAI, a Microsoft e outras, alegando violação de direitos autorais. A Getty está processando a Stability AI, a empresa por trás do criador de imagens Stable Diffusion.

Esses casos são muito importantes. Requerentes famosos, como Sarah Silverman e George R.R. Martin, chamaram a atenção da mídia. E os casos devem reescrever as regras sobre o que conta e o que não conta como uso justo do trabalho de outra pessoa, pelo menos nos EUA.

Mas não prenda a respiração. Levará anos até que os tribunais tomem suas decisões finais, diz Katie Gardner, sócia especializada em licenciamento de propriedade intelectual do escritório de advocacia Gunderson Dettmer, que representa mais de 280 empresas de IA. Até lá, diz ela, “a tecnologia estará tão arraigada na economia que não poderá ser desfeita”.

Enquanto isso, o setor de tecnologia está desenvolvendo essas supostas infrações em um ritmo alucinante. “Não espero que as empresas fiquem esperando para ver”, diz Gardner. “Pode haver alguns riscos legais, mas há muitos outros riscos em não acompanhar o ritmo.”

Algumas empresas tomaram medidas para limitar a possibilidade de infração. A OpenAI e a Meta afirmam ter introduzido maneiras de os criadores removerem seus trabalhos de futuros conjuntos de dados. A OpenAI agora impede que os usuários do DALL-E solicitem imagens no estilo de artistas vivos. Mas, segundo Gardner, “todas essas são ações para reforçar seus argumentos no litígio”.

O Google, a Microsoft e a OpenAI agora se oferecem para proteger os usuários de seus modelos contra possíveis ações judiciais. A política de indenização da Microsoft para seu assistente de codificação generativa GitHub Copilot, que é objeto de uma ação coletiva em nome dos desenvolvedores de software cujo código foi treinado, em princípio protegeria aqueles que o utilizam enquanto os tribunais resolvem a questão. “Assumiremos esse ônus para que os usuários de nossos produtos não tenham que se preocupar com isso”, disse o CEO da Microsoft, Satya Nadella, à MIT Technology Review.

Ao mesmo tempo, novos tipos de acordos de licenciamento estão surgindo. A Shutterstock assinou um contrato de seis anos com a OpenAI para o uso de suas imagens. E a Adobe afirma que seu próprio modelo de criação de imagens, chamado Firefly, foi treinado apenas com imagens licenciadas, imagens de seu conjunto de dados Adobe Stock ou imagens que não estão mais protegidas por direitos autorais. Alguns colaboradores do Adobe Stock, no entanto, dizem que não foram consultados e não estão satisfeitos com isso.

O ressentimento é grande. Agora os artistas estão reagindo com sua própria tecnologia. Uma ferramenta, chamada Nightshade, permite que os usuários alterem as imagens de forma imperceptível para os seres humanos, mas devastadora para os modelos de aprendizado de máquina, fazendo com que eles descategorizem as imagens durante o treinamento. Espere um grande realinhamento das normas de compartilhamento e reaproveitamento de mídia on-line.

Previsão: Os processos judiciais de alto nível continuarão chamando a atenção, mas é improvável que isso impeça as empresas de desenvolver modelos generativos. Novos mercados surgirão em torno de conjuntos de dados éticos, e um jogo de gato e rato entre empresas e criadores se desenvolverá.

3. Como ela mudará nossos empregos?

Impacto da IA no Mercado de Trabalho: Transformação e Novas Oportunidades

Há muito tempo ouvimos dizer que a IA está chegando para nossos empregos. Uma diferença desta vez é que os trabalhadores de colarinho branco – analistas de dados, médicos, advogados e jornalistas – também parecem estar em risco. Os chatbots podem se sair bem em provas do ensino médio, em exames de licenciamento médico profissional e no exame da ordem dos advogados. Eles podem resumir reuniões e até mesmo escrever artigos básicos de notícias. O que resta para o resto de nós? A verdade está longe de ser simples.

Muitos pesquisadores negam que o desempenho de grandes modelos de linguagem seja evidência de verdadeira inteligência. Mas mesmo que fosse, a maioria das funções profissionais é muito mais do que as tarefas que esses modelos podem realizar.

No verão passado, Ethan Mollick, que estuda inovação na Wharton School da Universidade da Pensilvânia, ajudou a realizar um experimento com o Boston Consulting Group para analisar o impacto do ChatGPT nos consultores. A equipe deu a centenas de consultores 18 tarefas relacionadas a uma empresa de calçados fictícia, como “Propor pelo menos 10 ideias para um novo calçado voltado para um mercado ou esporte mal atendido” e “Segmentar o mercado do setor de calçados com base nos usuários”. Alguns membros do grupo usaram o ChatGPT para ajudá-los, outros não.

Os resultados foram impressionantes: “Os consultores que usaram o ChatGPT-4 tiveram um desempenho muito melhor do que os que não usaram. Em todas as dimensões. De todas as formas que medimos o desempenho”, escreveu Mollick em um post de blog sobre o estudo.

Muitas empresas já estão usando grandes modelos de linguagem para encontrar e buscar informações, diz Nathan Benaich, fundador da empresa de capital de risco Air Street Capital e líder da equipe por trás do State of AI Report, um resumo anual abrangente de pesquisas e tendências do setor. Ele acha isso bem-vindo: “Esperamos que os analistas se tornem apenas um modelo de IA”, diz ele. “Esse material é, na maioria das vezes, um grande incômodo.”

Seu argumento é que entregar o trabalho pesado às máquinas permite que as pessoas se concentrem em partes mais gratificantes de seus trabalhos. A tecnologia também parece nivelar as habilidades em uma força de trabalho: estudos iniciais, como o de Mollick com consultores e outros com programadores, sugerem que as pessoas menos experientes recebem um impulso maior com o uso da IA. (No entanto, há ressalvas. Mollick descobriu que as pessoas que confiavam demais no GPT-4 ficavam descuidadas e tinham menos probabilidade de detectar erros quando o modelo os cometia).

A IA generativa não mudará apenas os trabalhos de escritório. Os modelos de criação de imagens e vídeos podem possibilitar a produção de fluxos intermináveis de fotos e filmes sem ilustradores, operadores de câmera ou atores humanos. As greves de escritores e atores nos EUA em 2023 deixaram claro que esse será um ponto crítico nos próximos anos.

Mesmo assim, muitos pesquisadores veem essa tecnologia como uma forma de capacitar, e não de substituir, os trabalhadores em geral. Afinal de contas, a tecnologia vem conquistando empregos desde a revolução industrial. Novos empregos são criados à medida que os antigos morrem. “Tenho certeza de que é um resultado positivo”, diz Smith.

Mas as mudanças são sempre dolorosas, e os ganhos líquidos podem ocultar as perdas individuais. A agitação tecnológica também tende a concentrar riqueza e poder, alimentando a desigualdade.

“Na minha opinião, a questão não é mais se a IA vai remodelar o trabalho, mas o que queremos que isso signifique”, escreve Mollick.

Previsão: Os temores de perda de empregos em massa se mostrarão exagerados. Mas as ferramentas generativas continuarão a se proliferar no local de trabalho. As funções podem mudar; novas habilidades podem precisar ser aprendidas.

4. Que desinformação ela tornará possível?

Desinformação e IA: Avaliando os Riscos e Possíveis Consequências

Três das imagens mais virais de 2023 foram fotos do papa vestindo um macacão Balenciaga, Donald Trump sendo derrubado no chão por policiais e uma explosão no Pentágono. Todas falsas; todas vistas e compartilhadas por milhões de pessoas.

Usar modelos generativos para criar textos ou imagens falsos está mais fácil do que nunca. Muitos alertam para uma sobrecarga de desinformação. A OpenAI colaborou em uma pesquisa que destaca muitos possíveis usos indevidos de sua própria tecnologia para campanhas de notícias falsas. Em um relatório de 2023, ela alertou que grandes modelos de linguagem poderiam ser usados para produzir propaganda mais persuasiva – mais difícil de ser detectada como tal – em grandes escalas. Especialistas nos EUA e na UE já estão dizendo que as eleições estão em risco.

Não foi surpresa que o governo Biden tenha feito da rotulagem e da detecção de conteúdo gerado por IA um foco de sua ordem executiva sobre inteligência artificial em outubro. Mas a ordem não chegou a exigir legalmente que os fabricantes de ferramentas rotulassem textos ou imagens como criações de uma IA. E as melhores ferramentas de detecção ainda não funcionam bem o suficiente para serem confiáveis.

A Lei de IA da União Europeia, aprovada este mês, vai além. Parte da ampla legislação exige que as empresas coloquem marcas d’água em textos, imagens ou vídeos gerados por IA e que deixem claro para as pessoas quando elas estão interagindo com um chatbot. E a Lei de IA tem força de lei: as regras serão obrigatórias e terão multas pesadas em caso de não conformidade.

Estas são três das imagens mais virais de 2023. Todas falsas; todas vistas e compartilhadas por milhões de pessoas.

Os EUA também disseram que auditarão qualquer IA que possa representar ameaças à segurança nacional, incluindo interferência eleitoral. É um grande passo, diz Benaich. Mas nem mesmo os desenvolvedores desses modelos conhecem todos os seus recursos: “A ideia de que governos ou outros órgãos independentes possam forçar as empresas a testar completamente seus modelos antes de serem lançados parece irrealista.”

O problema é o seguinte: é impossível saber todas as formas de uso indevido de uma tecnologia até que ela seja usada. “Em 2023, houve muita discussão sobre a desaceleração do desenvolvimento da IA”, diz Schaefer. “Mas nós temos a visão oposta.”

A menos que essas ferramentas sejam usadas pelo maior número possível de pessoas e de maneiras diferentes, não vamos aprimorá-las, diz ele: “Não vamos entender as nuances com que esses riscos estranhos se manifestarão ou quais eventos os desencadearão”.

Previsão: Novas formas de uso indevido continuarão a surgir à medida que o uso for aumentando. Haverá alguns exemplos de destaque, possivelmente envolvendo manipulação eleitoral.

5. Vamos lidar com seus custos?

Gerenciamento de Custos em IA: Desafios e Estratégias para Sustentabilidade

Os custos de desenvolvimento da IA generativa, tanto humanos quanto ambientais, também devem ser levados em conta. O problema do trabalhador invisível é um segredo aberto: somos poupados do pior que os modelos generativos podem produzir graças, em parte, a multidões de trabalhadores ocultos (geralmente mal pagos) que marcam os dados de treinamento e eliminam os resultados tóxicos, às vezes traumáticos, durante os testes. Essas são as oficinas da era dos dados.

Em 2023, o uso de trabalhadores da OpenAI no Quênia foi analisado por meios de comunicação populares, como a Time e o Wall Street Journal. A OpenAI queria aprimorar seus modelos generativos criando um filtro que ocultasse dos usuários conteúdo odioso, obsceno e ofensivo. Mas, para isso, precisava que as pessoas encontrassem e classificassem um grande número de exemplos desse tipo de conteúdo tóxico para que seu filtro automático pudesse aprender a identificá-los. A OpenAI contratou a empresa de terceirização Sama, que, por sua vez, teria usado trabalhadores mal remunerados no Quênia, que receberam pouco apoio.

Como a IA generativa agora é uma preocupação dominante, os custos humanos ficarão mais evidentes, pressionando as empresas que criam esses modelos a lidar com as condições de trabalho dos funcionários de todo o mundo que são contratados para ajudar a melhorar sua tecnologia.

O outro grande custo, a quantidade de energia necessária para treinar grandes modelos generativos, deve aumentar antes que a situação melhore. Em agosto, a Nvidia anunciou ganhos no segundo trimestre de 2024 de mais de US$ 13,5 bilhões, o dobro do mesmo período do ano anterior. A maior parte dessa receita (US$ 10,3 bilhões) vem de data centers – em outras palavras, outras empresas que usam o hardware da Nvidia para treinar modelos de IA.

“A demanda é extraordinária”, diz o CEO da Nvidia, Jensen Huang. “Estamos no ponto de partida da IA generativa”. Ele reconhece o problema de energia e prevê que o boom pode até mesmo levar a uma mudança no tipo de hardware de computação implantado. “A grande maioria da infraestrutura de computação do mundo terá que ser eficiente em termos de energia”, diz ele.

Previsão: A maior conscientização do público sobre os custos trabalhistas e ambientais da IA pressionará as empresas de tecnologia. Mas não espere melhorias significativas em nenhuma das frentes em breve.

6. O doomerismo continuará dominando a formulação de políticas?

Doomerismo e Políticas Públicas: Perspectivas Futuras na Era da IA

O doomerismo – (é um termo que surgiu principalmente na Internet para descrever pessoas extremamente pessimistas ou fatalistas em relação a problemas globais), o medo de que a criação de máquinas inteligentes possa ter consequências desastrosas, até mesmo apocalípticas – tem sido uma tendência subjacente à IA. Mas o pico do hype, além de um anúncio de alto nível feito pelo pioneiro da IA Geoffrey Hinton em maio, de que agora ele estava com medo da tecnologia que ajudou a criar, trouxe isso à tona.

Poucas questões em 2023 foram tão polêmicas. Personalidades da IA, como Hinton e o também ganhador do Prêmio Turing, Yann LeCun, que fundou o laboratório de IA da Meta e que considera o doomerismo absurdo, se envolvem em brigas públicas, jogando sombra um no outro nas mídias sociais.

Hinton, Sam Altman, CEO da OpenAI, e outros sugeriram que os (futuros) sistemas de IA deveriam ter salvaguardas semelhantes às usadas para armas nucleares. Esse tipo de conversa chama a atenção das pessoas. Mas em um artigo que ele co-escreveu na Vox em julho, Matt Korda, gerente de projetos do Projeto de Informações Nucleares da Federação de Cientistas Americanos, criticou essas “analogias confusas” e o “pânico da mídia sem calorias” que elas provocam.

É difícil entender o que é real e o que não é, porque não conhecemos os incentivos das pessoas que estão dando o alarme, diz Benaich: “Parece bizarro que muitas pessoas estejam ficando extremamente ricas por causa desse tipo de coisa, e muitas dessas pessoas são as mesmas que estão exigindo maior controle. É como se disséssemos: ‘Ei, eu inventei algo que é realmente poderoso! Tem muitos riscos, mas eu tenho o antídoto'”.

Alguns se preocupam com o impacto de todo esse medo. No X, Andrew Ng, pioneiro do aprendizado profundo, escreveu: “Meu maior medo para o futuro da IA é se os riscos exagerados (como a extinção humana) permitirem que os lobistas da tecnologia aprovem regulamentações sufocantes que suprimam o código aberto e esmaguem a inovação”. O debate também afasta os recursos e os pesquisadores de riscos mais imediatos, como preconceito, mudanças no emprego e desinformação.

“Algumas pessoas promovem o risco existencial porque acham que isso beneficiará sua própria empresa”, diz François Chollet, um influente pesquisador de IA do Google. “Falar sobre o risco existencial destaca o quanto você é eticamente consciente e responsável e desvia a atenção de questões mais realistas e urgentes.”

Benaich ressalta que algumas das pessoas que tocam o alarme com uma mão estão levantando US$ 100 milhões para suas empresas com a outra. “Pode-se dizer que o doomerismo é uma estratégia de captação de recursos”, diz ele.

Previsão: O medo vai diminuir, mas a influência sobre as agendas dos formuladores de políticas pode ser sentida por algum tempo. Os apelos para que o foco volte a ser os danos mais imediatos continuarão.

Ainda falta: O aplicativo matador da IA

É estranho pensar que o ChatGPT quase não aconteceu. Antes de seu lançamento em novembro de 2022, Ilya Sutskever, cofundador e cientista-chefe da OpenAI, não ficou impressionado com sua precisão. Outros na empresa temiam que não fosse um grande avanço. Por baixo do capô, o ChatGPT era mais um remix do que uma revolução. Ele foi impulsionado pelo GPT-3.5, um grande modelo de linguagem que a OpenAI havia desenvolvido vários meses antes. Mas o chatbot reuniu alguns ajustes interessantes – em especial, respostas mais conversacionais e mais diretas – em um pacote acessível. “Ele era capaz e conveniente”, diz Sutskever. “Foi a primeira vez que o progresso da IA se tornou visível para pessoas de fora da IA.”

O entusiasmo iniciado pelo ChatGPT ainda não acabou. “A IA é o único jogo na cidade”, diz Sutskever. “É a maior novidade em tecnologia, e a tecnologia é a maior novidade na economia. E acho que continuaremos a nos surpreender com o que a IA pode fazer.”

Mas agora que já vimos o que a IA pode fazer, talvez a pergunta imediata seja para que ela serve. A OpenAI criou essa tecnologia sem um uso real em mente. Os pesquisadores pareciam dizer o seguinte quando lançaram o ChatGPT. Faça o que você quiser com ele. Desde então, todos têm se esforçado para descobrir o que é isso.

“Acho o ChatGPT útil”, diz Sutskever. “Eu o uso regularmente para todos os tipos de coisas aleatórias.” Ele diz que o usa para procurar determinadas palavras ou para ajudá-lo a se expressar com mais clareza. Às vezes, ele o usa para procurar fatos (mesmo que nem sempre sejam factuais). Outras pessoas na OpenAI o utilizam para planejar as férias (“Quais são os três melhores pontos de mergulho do mundo?”), dicas de codificação ou suporte de TI.

Útil, mas não revolucionário. A maioria desses exemplos pode ser feita com ferramentas existentes, como a pesquisa. Enquanto isso, diz-se que a equipe do Google tem dúvidas sobre a utilidade do próprio chatbot da empresa, o Bard (agora com a tecnologia do rival GPT-4 do Google, o Gemini, lançado no mês passado). “O maior desafio que ainda estou pensando é: para que os LLMs são realmente úteis, em termos de utilidade?” Cathy Pearl, líder de experiência do usuário da Bard, escreveu no Discord em agosto, de acordo com a Bloomberg. “Como realmente fazer a diferença. TBD!”

Sem um aplicativo matador, o efeito “uau” desaparece. As estatísticas da empresa de investimentos Sequoia Capital mostram que, apesar dos lançamentos virais, aplicativos de IA como ChatGPT, Character.ai e Lensa, que permitem que os usuários criem avatares estilizados (e sexistas) de si mesmos, perdem usuários mais rapidamente do que os serviços populares existentes, como YouTube, Instagram e TikTok.

“As leis da tecnologia de consumo ainda se aplicam”, diz Benaich. “Haverá muita experimentação, muitas coisas morrerão na água depois de alguns meses de propaganda.”

É claro que os primeiros dias da Internet também foram repletos de falsos começos. Antes de mudar o mundo, o boom das pontocom terminou em fracasso. Sempre há a chance de a IA generativa de hoje fracassar e ser eclipsada pela próxima grande novidade que surgir.

Aconteça o que acontecer, agora que a IA está totalmente no mainstream, as preocupações de nicho se tornaram um problema de todos. Como diz Schaefer, “seremos forçados a lidar com essas questões de uma forma que nunca tivemos antes”.

 

Autor:
Fonte: MIT Technology Review
Artigo original:
https://bit.ly/41Y62WE

Fernando Giannini

Pesquisador de tecnologia aplicada à educação, arquiteto de objetos virtuais de aprendizagem, fissurado em livros de grandes educadores e viciado em games de todos os tipos. Conhecimentos aprimorados em cursos de grandes empresas de tecnologia, principalmente no Google Business Educational Center e Microsoft. Sócio-proprietário da Streamer, empresa que alia tecnologia e educação. Experiência de 18 anos produzindo e criando objetos de aprendizagem, cursos a distância, design educacional, interfaces para sistemas de aprendizagem. Gestor de equipe para projetos educacionais, no Ensino Básico, Médio e Ensino Superior. Nesse período de trabalho gerenciou equipes e desenvolveu as habilidades de liderança e gestão. Acredita na integração e aplicação prática dos conhecimentos para a realização de projetos inovadores, sólidos e sustentáveis a longo prazo. Um dos grandes sonhos realizados foi o lançamento do curso gratuito Mande Bem no ENEM que atingiu mais de 500 mil estudantes em todo o Brasil contribuindo para a Educação Brasileira.

Participe da nossa comunidade no Whatsapp sobre Educação e Tecnologia

0 comentários

Enviar um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Posts Relacionados

Escrita à Mão Aumenta Conexões Cerebrais

Como a escrita tradicional à mão está sendo progressivamente substituída por dispositivos digitais, é essencial investigar as implicações para o cérebro humano. A atividade elétrica cerebral foi registrada em 36 estudantes universitários enquanto eles escreviam à mão...

IA na Educação

O salto para uma nova era de inteligência artificial de máquina traz riscos e desafios, mas também muitas promessas No romance de ficção científica de Neal Stephenson, The Diamond Age (A Era do Diamante), de 1995, os leitores conhecem Nell, uma jovem que recebe um...

As 10 melhores ferramentas de IA para estudantes

A Inteligência Artificial (IA) tem se tornado cada vez mais predominante em vários setores, e a educação não é exceção. Com o rápido avanço da tecnologia, graças a empresas como a Open AI, as ferramentas de IA surgiram como recursos valiosos para os estudantes que...

IA e o crescimento da mediocridade

Como a maioria das pessoas, gosto de me considerar um indivíduo, mas há uma semana entrei em um estacionamento e encontrei cinco carros idênticos ao meu em termos de marca, modelo, ano e cor. Fiquei feliz por ter me lembrado do número da minha placa e que meu chaveiro...

As imagens parecem fotos premiadas. São falsificações de IA.

Imagens geradas artificialmente de eventos noticiosos do mundo real proliferam em sites de imagens, confundindo a verdade e ficção Uma jovem israelense, ferida, agarrada aos braços de um soldado angustiado. Um menino e uma menina ucranianos, de mãos dadas, sozinhos...

Tag Cloud

Posts Relacionados

IA na Educação

IA na Educação

O salto para uma nova era de inteligência artificial de máquina traz riscos e desafios, mas também muitas promessas No...

Receba a nossa newsletter

Fique por dentro e seja avisado dos novos conteúdos.

Publicações mais recentes