Um robô está consciente, posso desligá-lo? Quais são as implicações morais?

Tempo de leitura: 6 minutes

Loading

No episódio “Star Trek: The Next Generation”, “The Measure of a Man”, Data, um membro da tripulação andróide da Enterprise, deve ser desmontado para fins de pesquisa, a menos que o Capitão Picard possa argumentar que Data merece os mesmos direitos que um ser humano. Naturalmente surge a pergunta: quais são as bases sobre os direitos? O que confere posição moral a uma entidade?

O que você deve a um andróide fiel como Data? CBS

O filósofo Peter Singer argumenta que criaturas que podem sentir dor ou sofrer têm direito a uma posição moral. Ele argumenta que os animais não humanos têm posição moral, uma vez que podem sentir dor e sofrer. Limitá-lo às pessoas seria uma forma de especismo, algo semelhante ao racismo e sexismo.

Sem endossar a linha de raciocínio de Singer, podemos nos perguntar se ela pode ser estendida ainda mais a um robô andróide como Data. Isso exigiria que Data pudesse sentir dor ou sofrer. E como você responde a isso depende de como você entende a consciência e a inteligência.

À medida que a tecnologia de inteligência artificial real avança em direção às versões imaginadas de Hollywood, a questão da posição moral torna-se mais importante. Se as Inteligências Artificiais têm uma posição moral, raciocinam, isso poderia significar que eles têm direito à vida. Isso significa que você não pode simplesmente desmantelá-los e também pode significar que as pessoas não devem interferir na busca por seus objetivos.

Garry Kasparov was beaten by Deep Blue, an AI with a very deep intelligence in one narrow niche.Stan Honda/AFP via Getty Images

Dois sabores de inteligência e um teste
A máquina de xadrez Deep Blue da IBM foi treinada com sucesso para derrotar o grande mestre Gary Kasparov. Mas não poderia fazer mais nada. Este computador tinha o que é chamado de inteligência específica de domínio. Por outro lado, existe o tipo de inteligência que permite a habilidade de fazer bem uma variedade de coisas. É chamado de inteligência geral de domínio. É o que permite cozinhar, esquiar e criar filhos – tarefas relacionadas, mas também muito diferentes.

Inteligência geral artificial, AGI, é o termo para máquinas que possuem inteligência geral de domínio. Indiscutivelmente, nenhuma máquina ainda demonstrou esse tipo de inteligência. Neste verão, uma startup chamada OPENAI lançou uma nova versão de seu modelo de linguagem de Pré-treinamento Gerativo, GPT-3 é um sistema de processamento de linguagem natural, treinado para ler e escrever de forma que possa ser facilmente compreendido pelas pessoas.

Leia aqui o texto que o GPT-3 escreveu para os humanos

Chamou atenção imediatamente, não apenas por causa de sua capacidade impressionante de imitar floreios estilísticos e reunir conteúdo plausível , mas também por causa de quão longe tinha vindo de uma versão anterior. Apesar desse desempenho impressionante, o GPT-3 não sabe nada além de unir palavras de várias maneiras. AGI permanece bastante distante.

Nomeado em homenagem ao pesquisador pioneiro de Inteligência Artificial Alan Turing, o teste de Turing ajuda a determinar quando uma IA é inteligente. Uma pessoa conversando com uma IA oculta pode dizer se é uma IA ou um ser humano? Se ele não puder, para todos os efeitos práticos, a IA é inteligente. Mas este teste não diz nada sobre a Inteligência Artificial se esta consciente.

Dois tipos de consciência
Existem duas partes na consciência. Em primeiro lugar, existe o aspecto “como é para mim” de uma experiência, a parte sensorial da consciência. Os filósofos chamam isso de consciência fenomenal. É sobre como você experimenta um fenômeno, como cheirar uma rosa ou sentir dor.

Em contraste, também há acesso à consciência. É a capacidade de relatar, raciocinar, se comportar e agir de forma coordenada e responsiva aos estímulos com base em metas. Por exemplo, quando passo a bola de futebol para meu amigo que faz uma jogada para o gol, estou respondendo a estímulos visuais, agindo desde o treinamento anterior e perseguindo um objetivo determinado pelas regras do jogo. Eu faço o passe automaticamente, sem deliberação consciente, no fluxo do jogo.

A visão cega ilustra bem a diferença entre os dois tipos de consciência. Alguém com essa condição neurológica pode relatar, por exemplo, que não consegue ver nada no lado esquerdo do campo visual. Mas, se solicitados a pegar uma caneta em uma série de objetos no lado esquerdo do campo visual, eles podem fazer isso com segurança. Eles não podem ver a caneta, mas podem pegá-la quando solicitados – um exemplo de acesso à consciência sem consciência fenomenal.

Os dados são um andróide. Como essas distinções funcionam em relação a ele?


O dilema dos dados
O andróide Data demonstra que tem autoconsciência na medida em que pode monitorar se, por exemplo, ele está com carga ideal ou se há danos internos em seu braço robótico. Os dados também são inteligentes no sentido geral. Ele faz muitas coisas distintas em um alto nível de maestria. Ele pode pilotar a Enterprise, receber ordens do Capitão Picard e raciocinar com ele sobre o melhor caminho a seguir.Ele também pode jogar pôquer com seus companheiros de viagem, cozinhar, discutir assuntos atuais com amigos próximos, lutar com inimigos em planetas alienígenas e se envolver em várias formas de trabalho físico. Os dados têm acesso à consciência. Ele claramente passaria no teste de Turing.

No entanto, Data muito provavelmente não tem consciência fenomenal – ele, por exemplo, não se delicia com o perfume de rosas ou sente dor. Ele incorpora uma versão superdimensionada da visão cega. Ele é auto-consciente e tem acesso à consciência – pode pegar a caneta – mas em todos os seus sentidos ele carece de consciência fenomenal.

Agora, se Data não sente dor, pelo menos um dos motivos que Singer oferece para dar uma posição moral a uma criatura não se cumpre. Mas Data pode preencher a outra condição de ser capaz de sofrer, mesmo sem sentir dor. O sofrimento pode não exigir consciência fenomenal da mesma forma que a dor essencialmente exige.

Por exemplo, o que aconteceria se o sofrimento também fosse definido como a ideia de ser impedido de buscar uma causa justa sem causar danos a outras pessoas? Suponha que o objetivo de Data seja salvar sua companheira de tripulação, mas ele não pode alcançá-la por causa de um dano em um de seus membros. A redução do funcionamento de Data, que o impede de salvar seu companheiro de tripulação, é uma espécie de sofrimento não fenomenal. Ele teria preferido salvar o companheiro de tripulação e estaria melhor se o fizesse.

No episódio, a questão acaba não se resolvendo se Data é auto-consciente – isso não está em dúvida. Nem está em questão se ele é inteligente – ele facilmente demonstra que é no sentido geral. O que não está claro é se ele é fenomenalmente consciente. Os dados não são desmontados porque, no final, seus juízes humanos não conseguem concordar sobre a importância da consciência para a posição moral.

Quando os 1s e 0s somam um ser moral. ktsimage / iStock via Getty Images Plus


Uma IA deve ter uma posição moral?
Data é gentil – ele age para apoiar o bem-estar de seus companheiros de tripulação e daqueles que encontra em planetas alienígenas. Ele obedece às ordens das pessoas e parece improvável que as prejudique, além de proteger sua própria existência . Por essas razões, ele parece pacífico e mais fácil de aceitar no reino das coisas que têm posição moral.

Mas e quanto à Skynet nos filmes “Terminator” ? Ou as preocupações recentemente expressas por Elon Musk sobre a IA ser mais perigosa que o nuclear, e por Stephen Hawking sobre a IA acabar com a humanidade?

Os seres humanos não perdem sua reivindicação de posição moral apenas porque agem contra os interesses de outra pessoa. Da mesma forma, você não pode dizer automaticamente que só porque um robô age contra os interesses da humanidade ou outra IA, ela não tem posição moral. Você pode estar justificado em lutar contra uma IA como a Skynet, mas isso não tira sua posição moral. Se a posição moral é dada em virtude da capacidade de sofrer de forma não fenomenal, então a Skynet e Data a terão, mesmo que apenas Data queira ajudar os seres humanos.

Ainda não existem máquinas de inteligência geral artificial. Mas agora é a hora de considerar o que seria necessário para conceder-lhes uma posição moral. O modo como a humanidade escolhe responder à questão da posição moral de criaturas não biológicas terá grandes implicações em como lidamos com IAs no futuro – sejam gentis e úteis como Data, ou destruidores, como Skynet.

Autor: Anand Vaidya, professor de Filosofia da San José State University.
Fonte: The Conversation
Leia o artigo original: aqui

Fernando Giannini

Pesquisador de tecnologia aplicada à educação, arquiteto de objetos virtuais de aprendizagem, fissurado em livros de grandes educadores e viciado em games de todos os tipos. Conhecimentos aprimorados em cursos de grandes empresas de tecnologia, principalmente no Google Business Educational Center e Microsoft. Sócio-proprietário da Streamer, empresa que alia tecnologia e educação. Experiência de 18 anos produzindo e criando objetos de aprendizagem, cursos a distância, design educacional, interfaces para sistemas de aprendizagem. Gestor de equipe para projetos educacionais, no Ensino Básico, Médio e Ensino Superior. Nesse período de trabalho gerenciou equipes e desenvolveu as habilidades de liderança e gestão. Acredita na integração e aplicação prática dos conhecimentos para a realização de projetos inovadores, sólidos e sustentáveis a longo prazo. Um dos grandes sonhos realizados foi o lançamento do curso gratuito Mande Bem no ENEM que atingiu mais de 500 mil estudantes em todo o Brasil contribuindo para a Educação Brasileira.

Participe da nossa comunidade no Whatsapp sobre Educação e Tecnologia

0 comentários

Enviar um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Posts Relacionados

Aprendendo com IA: espelhos sociais e intelectuais

Até recentemente, as interações humanas com máquinas antropomorfizadas (entidades não-humanas que são atribuídas características humanas) eram consideradas divertidas, mas não eram vistas como emocionalmente relevantes para a maioria das pessoas. Embora muitos se...

10 efeitos negativos do uso de celulares para as crianças

Crianças de todo o mundo (embora não todas) utilizam smartphones para diversas finalidades. Algumas passam horas conversando com amigos, enquanto outras se dedicam a jogar inúmeros jogos. A Internet é frequentemente considerada uma fonte de conhecimento para as...

Sistemas de tutoria inteligente

Adaptação da aprendizagem de acordo com o nível e ritmo do estudante Os sistemas de tutoria inteligente se baseiam na capacidade de adaptar a aprendizagem de acordo com o nível e o ritmo do estudante. Usando inteligência artificial e técnicas de aprendizado de...

Quanto custa manter a nuvem no céu para o meio ambiente?

À medida que a humanidade aumenta sua capacidade de intervir na natureza com o objetivo de satisfazer as necessidades e desejos crescentes, aparecem as tensões e conflitos quanto ao uso do espaço e dos recursos naturais. Quanto custa manter a nuvem no céu para o meio...

Competências essenciais na era digital

A proliferação da IA em muitos aspectos da vida humana - desde o lazer pessoal até o trabalho profissional, passando pelas decisões políticas globais - impõe uma questão complexa sobre como preparar as pessoas para um mundo interconectado e em rápida mudança, que está...

Educação digital para prevenir abusos sexuais online

Depois de participar de uma aula incrível com a professora Beatriz Lorencini e o Felipe, fui tirado da bolha onde costumo estar a maior parte do meu tempo se não o tempo todo. Quando percebi eu estava em choque por "não saber ou escolher não saber" que existem...

Tag Cloud

Posts Relacionados

[dgbm_blog_module posts_number=”4″ related_posts=”on” show_categories=”off” show_pagination=”off” item_in_desktop=”2″ equal_height=”on” image_size=”mid” author_background_color=”#ffffff” disabled_on=”off|off|on” module_class=”PostRelacionado” _builder_version=”4.16″ _module_preset=”default” title_font=”Montserrat||||||||” title_text_color=”#737373″ title_font_size=”19px” title_line_height=”25px” meta_text_color=”#666″ meta_font_size=”13px” content_font_size=”13px” content_line_height=”30px” author_text_color=”#666666″ custom_css_content_container=”display:flex;||flex-wrap:wrap;” custom_css_image-container=”padding-top:70%;||overflow:hidden;” custom_css_image=”position:absolute;||top:0;||left:0;||bottom:0;||right:0;||object-fit: cover;||height:100%;||width:100%;” custom_css_title=”padding:20px;||margin-top:0;||order:2;” custom_css_content=”padding:0 20px 20px;||order:3;” custom_css_post-meta-middle=”order:1;||padding:20px;||border-bottom:1px solid #dcdcdc;||border-top:1px solid #dcdcdc;” border_width_all_post_item=”0px” border_width_all_content=”0px” box_shadow_style_container=”preset1″ box_shadow_blur_container=”5px” box_shadow_spread_container=”1px” box_shadow_color_container=”rgba(0,0,0,0.1)” global_colors_info=”{}”][/dgbm_blog_module]

Receba a nossa newsletter

Fique por dentro e seja avisado dos novos conteúdos.

Publicações mais recentes