Ética na Inteligência Artificial: até onde podemos ir?

27 de julho de 2021
Adriano Martins Antonio

A Inteligência Artificial (IA) já alcançou um patamar no qual é capaz de mudar as nossas vidas. Porém, ao mesmo tempo, essa tecnologia é alvo de discussões importantes – especialmente sobre até onde podemos ir com ela, garantindo o seu uso ético.

Aliás, esse foi um assunto que abordei um pouco no meu último artigo, sobre a Regulamentação da IA no Brasil

“Com grandes poderes, vem grandes responsabilidades”. Essa frase resume um pouco o sentimento atual sobre a IA, onde discutir a Ética nesse campo se torna cada vez mais necessário.

O que é ética?

Antes de entrar na discussão sobre a Ética na IA, é interessante lembrar da sua definição. Estamos falando de uma filosofia moral, uma disciplina interessada no que é certo e errado, bom e mau. 

Em outras palavras, estamos lidando com a área que lida com os princípios morais.

Enquanto isso, a Ética em IA se preocupa com o comportamento de robôs e seres artificialmente inteligentes.

Lembrando também que a Ética é diferente da Lei – não estamos falando de um conjunto de regras, mas de diretrizes que são base para decidirmos o que é certo e errado.

O objetivo da ética em IA

A Ética em IA identifica como esse tipo de tecnologia promove ou levanta preocupações sobre a vida das pessoas, seja em termos de qualidade de vida, autonomia mental ou até mesmo sobre a democracia onde elas vivem.

Nesse sentido, o foco está em questões de diversidade e inclusão, ou seja, aos fins que os dados do treinamento e a IA de uma forma geral buscam servir. 

Por fim, a Ética em IA busca verificar quem serão os reais beneficiados pelo seu uso.

Como construir um sistema de IA que seja ético?

Por ser um assunto bastante polarizador, é difícil estabelecer “princípios éticos” para a construção de um sistema de IA. 

Por outro lado, iniciativas como as “Diretrizes de Ética para Inteligência Artificial Confiável”, da União Europeia, e os “Princípios Asilomar”, desenvolvido pelo instituto Future of Life, nos ajudam a ter uma compreensão mais clara do que seria uma IA ética.

Diretrizes de Ética para Inteligência Artificial Confiável

Na Europa, as “Diretrizes de Ética para Inteligência Artificial Confiável” consolidaram um conceito de ética para a IA.

A União Europeia é uma das entusiastas em estabelecer a ética na Inteligência Artificial
A União Europeia é uma entusiasta no campo da ética em Inteligência Artificial.

Segundo essas diretrizes, uma IA só pode ser vista como ética se ela for confiável. Nesse caso, ela deve:

  • Respeitar os direitos fundamentais, a regulamentação aplicável e os princípios e valores fundamentais, além de ser ética através da observância de princípios e valores éticos, garantindo assim um propósito ético;
  • Ser tecnicamente sólida e confiável, pois, mesmo com boas intenções, a falta de domínio tecnológico pode causar danos não intencionais.

Princípios Asilomar

Os Princípios Asilomar de IA foram desenvolvidos em 2017, pelo Instituto Future of Life. Eles funcionam como uma lista de 23 diretrizes que todos os envolvidos com IA devem respeitar para garantir o uso seguro, ético e benéfico da IA.

Esses princípios estão divididos em três campos:

Pesquisa

  • Objetivos – O objetivo deve ser criar inteligência benéfica;
  • Financiamento – Investimentos em IA devem ser acompanhados de financiamento para pesquisas sobre como garantir seu uso benéfico;
  • Política – Deve haver um intercâmbio construtivo e saudável entre pesquisadores de IA e formuladores de políticas;
  • Cultura – Deve haver uma cultura de cooperação, confiança e transparência;
  • Prevenção de corrida – Times que desenvolvem IA devem cooperar ativamente para evitar cortes nos padrões de segurança.

Ética e valores

  • Segurança – Os sistemas de IA devem ser seguros ao longo de sua vida operacional;
  • Transparência de falhas – Se um sistema de IA falhar, deve ser possível determinar os motivos;
  • Transparência jurídica – Qualquer envolvimento de um sistema autônomo na tomada de decisões judiciais deve fornecer uma explicação satisfatória;
  • Responsabilidade – Envolvidos em projetos de IA devem se interessar pelas implicações morais de seu uso, assumindo as responsabilidades e moldando essas implicações;
  • Alinhamento de valores – Sistemas de IA autônomos devem ser projetados para que seu comportamento esteja alinhado com os valores humanos;
  • Valores humanos – Sistemas de IA devem ser projetados e operados para serem compatíveis com os ideais de dignidade humana, direitos, liberdades e diversidade;
  • Privacidade pessoal – As pessoas devem ter o direito de acessar, gerenciar e controlar os dados que geram;
  • Liberdade e privacidade – A aplicação de IA aos dados pessoais não deve restringir sem alguma justificativa a liberdade das pessoas;
  • Benefício compartilhado – Tecnologias de IA devem beneficiar e capacitar o maior número possível de pessoas;
  • Prosperidade – A prosperidade econômica criada pela IA deve ser compartilhada para beneficiar a humanidade;
  • Controle humano – Os seres humanos devem escolher como e se delegam decisões aos sistemas de IA;
  • Não subversão – O poder conferido pelo controle de sistemas de IA deve respeitar e melhorar os processos sociais e cívicos;
  • Corrida armamentista de IA – Uma corrida armamentista com armas autônomas letais deve ser evitada.

Questões à longo prazo

  • Cuidado com a capacidade – Devemos evitar suposições fortes sobre os limites superiores das capacidades futuras de IA;
  • Importância – A IA pode representar uma mudança profunda na história da humanidade e deve ser planejada e administrada com cuidados;
  • Riscos – Riscos apresentados por sistemas de IA, especialmente aqueles catastróficos ou existenciais, devem ser mitigados;
  • Autoaprimoramento recursivo – Sistemas de IA projetados para autoaperfeiçoar ou replicar recursivamente de modo que haja um aumento rápido na qualidade ou quantidade desses recursos em questão devem estar sujeitos a medidas de segurança e controle;
  • Bem comum – A superinteligência só deve ser desenvolvida a serviço de ideais éticos amplamente compartilhados e para o benefício de toda a humanidade.

O uso antiético da IA no mundo real

Explicado as diretrizes de ética para a IA, fica mais fácil detectar casos em que a IA teve um uso antiético. Nesse caso, separei dois casos que são emblemáticos nesse sentido.

O primeiro deles é o caso de um drone militar de controle turco, que atacou soldados de forma autônoma na Líbia, segundo relatório da ONU.

Esse incidente ocorreu em 2020, em meio a um combate no país.

Segundo o relatório, o drone STM Kargu-2, uma arma autônoma letal, caçou e atacou remotamente as Forças Armadas Haftar da Líbia.

Armas autônomas letais são um dos maiores objetos de discussão sobre ética em IA. O motivo disso é simples: estamos confiando no treinamento de dados e algoritmos que decidirão quem deve ser combatido em uma zona de guerra. O risco para civis, nesse caso, é enorme.

Outro caso bem recente é o do Software que consegue “ressuscitar” músicos, compondo músicas inéditas. O último exemplo foi com o vocalista do Nirvana, Kurt Cobain, que teve uma composição inédita feita através dessa máquina.

O computador utilizou canções da banda para analisar termos e melodias comuns, e assim criar essa música. Aliás, essa não foi a primeira vez que isso ocorreu. Jimi Hendrix e Amy Winehouse foram outros artistas que fizeram parte dessa espécie de música artificial.

Eu sou um grande fã de rock, e esse caso me impressionou bastante. Por outro lado, ele também levanta algumas discussões sobre limites éticos. Por exemplo:  Por exemplo: diversas vezes, artistas que mesmo em decadência quando vivos, aumentaram consideravelmente suas vendas logo após a morte.. E se os selos e as grandes gravadoras resolverem utilizar esse software para produzir um disco póstumo? 

Esse é um debate que mostra, além das barreiras que a tecnologia pode romper, que a ética em IA é algo muito mais complexo do que se aparenta. Ainda que a intenção do projeto Over the Bridge, responsável por “ressuscitar” essas vozes seja boa (alertar para os perigos da saúde mental), esse caso de uso da IA nos faz pensar em um possível futuro antiético.

A Ética não é apenas mais opcional no contexto de IA

Com tudo isso que mostrei neste artigo, fica claro que já temos uma boa noção do que é “errado” ensinar a um projeto de IA. 

Outro ponto importante é que, por mais que as diretrizes já estabelecidas funcionem, um projeto de IA não deve se prender apenas a isso; seus desenvolvedores e pesquisadores devem ter bom senso para que todos usufruem de modo positivo dessa tecnologia.

Por fim, como escrevi anteriormente no meu artigo sobre a Regulamentação da IA, um sistema desse tipo tem propósito ético apenas se for centrado no ser humano, garantindo que os princípios e valores sejam observados, além dos direitos serem respeitados.

Se gostou deste artigo, não deixe de compartilhar com o amiguinho! Ah, se ficou com alguma dúvida ou quer contribuir com esse debate, deixe nos comentários!

Leia também aqui no blog: Inteligência Artificial e DevOps: entenda como podem trabalhar juntos!

O ChatGPT e a revolução das IAs

No fim do ano passado, uma das mais recentes tecnologias de Inteligência Artificial (IA) foi lançada para uso totalmente gratuito – o ChatGPT.  A ferramenta

Leia Mais »

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Assine Minha Newsletter

Fique por dentro das novidades e receba conteúdos exclusivos em seu e-mail.