Nina da Hora traz uma reflexão importante sobre como o olhar para a ética em IA é importante nos processos que envolvem a tecnologia, de forma a garantir os direitos de todos e todas

 

A ética de dados abrange uma gama incrivelmente ampla de tópicos, muitos dos quais são urgentes, ganhando manchetes diariamente e causando danos a pessoas reais. A área discute problemas tecnológicos na sociedade – debate esse importante por desenvolver nas pessoas habilidades para identificar, criticar e argumentar essas problemáticas. Neste artigo, iremos compreender uma etapa importante dessa reflexão sobre ética em inteligência artificial (IA): a de identificar como lidar com a responsabilidade na era tecnológica. 

 

Quem está por trás da desinformação? 

Peguemos, por exemplo, a questão da desinformação. De deepfakes a informações falsas generalizadas sobre o coronavírus, de temores sobre o seu impacto no desempenho nas eleições a notícias de extensas operações de influência estrangeira, a desinformação aparece nos noticiários com frequência. 

Analisá-la nos indica a complexidade e a natureza interdisciplinar das questões que envolvem a ética de dados, já que podemos fazer essa análise da desinformação com foco na psicologia humana, nos incentivos financeiros desalinhados, nos maus atores envolvidos, nas escolhas de design de tecnologia. Ou seja, a ética de dados não se resume somente à tecnologia.  

Um dos debates em torno dessa onda de desinformação é o engajamento de redes sociais. Por exemplo, no YouTube, usa-se inteligência artificial (IA) para atingir o objetivo de maximizar o tempo de exibição. O Google explica essa questão em seus documentos sobre algoritmos: 

“Se os espectadores estão assistindo mais YouTube, isso nos indica que eles estão mais satisfeitos com o conteúdo que encontraram. Isso significa que os criadores estão atraindo públicos mais engajados. Também abre mais oportunidades para gerar receita para nossos parceiros”.

Essa maximização pode contribuir para o discurso de que há desinformação em notícias confiáveis – como vimos acontecer muito ao longo da pandemia. Esse tipo de conteúdo é mais propenso a viralizar por conta da curiosidade das pessoas, e os algoritmos de IA acabam também contribuindo para prender a atenção do público nesses tipos de vídeos. Logo, quanto mais gente assistindo, mais engajamento e mais sugestão dessas produções para diversos perfis. Nesse cenário, vale nos perguntarmos: qual a transparência desse processo e desses algoritmos? De quem é a responsabilidade na hora de investigar a desinformação: de quem criou esses algoritmos ou de quem criou o conteúdo?

 

Teorias éticas e a IA

A ética se concentra em regras morais, direitos, princípios e deveres. Ela tende a ser mais universalista do que outros tipos de teorias éticas – isto é, as regras/princípios geralmente se destinam a se aplicar à maioria ou a todos os casos possíveis. Isso cria um tipo especial de desafio quando encontramos direitos, princípios e deveres que entram em conflito – onde é impossível seguir uma regra moral sem quebrar outra, ou cumprir nossos deveres morais para com uma parte interessada sem deixar de cumprir um dever moral de outro.

Nesses casos, devemos determinar quais direitos, princípios e deveres carregam a força mais ética naquela situação e/ou encontrar uma solução que minimize a violação ética quando ocorrem cenários “no-win” – muitas vezes chamados de situações morais ”perversas” . Assim, a perspectiva dos direitos ainda requer cuidadosa reflexão ética e julgamento para ser bem utilizada; não é uma simples lista de verificação moral que pode ser implementada sem pensar.

A teoria ética mais amplamente utilizada pelos eticistas é a do imperativo categórico, uma única regra deontológica apresentada por Immanuel Kant (1724-1804) em três formulações. As duas mais comumente usadas na ética prática são a fórmula da lei universal da natureza e a fórmula da humanidade. 

A primeira trata de cada agente racional, como se a regra por trás de nossa prática se tornasse uma lei universal da natureza que todos e todas, em todos os lugares, deveriam seguir. 

A segunda, a fórmula da humanidade, afirma que se deve sempre tratar as outras pessoas como fins em si mesmas (seres dignos a serem respeitados), nunca apenas como meios para um fim (ou seja, nunca como meras ferramentas ou objetos a serem manipulados para meus propósitos). Assim, beneficiar-se da ação de alguém em relação a outra pessoa só é admissível se a própria autonomia e dignidade dessa pessoa não for violada no processo, e se a pessoa tratada como meio consentir com tal tratamento como parte de seus próprios fins autonomamente escolhidos.

As questões e preocupações éticas frequentemente destacadas por meio dessa lente ética incluem, mas não estão limitadas a:

  • Autonomia, na medida em que as pessoas podem escolher livremente por elas mesmas;
  • Dignidade, na medida em que as pessoas são valorizadas por si mesmas, não como objetos com um preço;
  • Transparência, condições honestas, abertas e informadas de tratamento/distribuição social.

 

Perspectivas em fairness 

Essa lente ética amplamente usada concentra-se em dar aos indivíduos – ou grupos – o que lhes é devido. Isso inclui a distribuição adequada de benefícios e encargos, levando em consideração distinções eticamente relevantes entre as pessoas – o que é conhecido como justiça distributiva.

Aristóteles (384-322 a.C.) argumentou que os iguais deveriam ser tratados igualmente. No entanto, isso deixa em aberto a questão de quais critérios devem ser usados ​​para determinar se as pessoas são “iguais”. Afinal, vale lembrar que, na configuração atual e do passado, nunca fomos colocados na sociedade como iguais – pelo contrário, o racismo e a lgtfobia são exemplos de marcadores de violências que contrariam a noção de justiça colocada por Aristóteles. 

Assim como a perspectiva dos direitos, a lente da justiça também está relacionada às noções de dignidade humana. Concentra-se mais, no entanto, nas relações entre as pessoas – nas condições e processos necessários para implementar o respeito social pela dignidade humana.  

As questões e preocupações éticas frequentemente destacadas por meio dessa lente ética incluem, mas não estão limitadas a: 

  • Igualdade, equidade e justiça (uma distribuição moralmente justificável de benefícios, bens, danos e riscos);
  • Diversidade e inclusão (garantindo que todas as partes interessadas impactadas, e particularmente aquelas em grupos vulneráveis ​​ou marginalizados, sejam pessoas participantes ativas no processo de determinar a distribuição correta). 

Ao analisar de forma mais filosófica esses conceitos, percebe-se que a falta de interloção da tecnologia com estas áreas tornam as ferramentas obsoletas perante a grandiosidade das relaçõs humanas. Deixar toda a tomada de decisão em modelos estatisticos estabelece diversas restrições que não abarcam a evolução humana de forma igualitária e diversa. 

Assim, a noção de responsabilidade na era tecnológica não pode ser centrada na tecnologia. O foco tem que ser mais no humano e os questionamentos devem ser direcionados a quem está construindo e pensando a lógica por trás dessas ferramentas. A mitigação de riscos das reproduções violentas dos algoritmos começa com uma análise mais humana destas construções.

 

CRÉDITOS

Autora

Nina da Hora é cientista da computação, com ênfase em pesquisa computacional, formada pela PUC Rio. De Duque de Caxias, é pesquisadora no Cyberbrics do Centro de Tecnologia e Sociedade (CTS) da FGV e membro do Conselho Consultivo de Segurança do TikTok no Brasil. Criou o Ogunhe Podcast e participou do Programa Apple Developer Academy (Formação de desenvolvedores da Apple para estudantes), da 2018 Scholarship Apple WorldWide Developers Conference e do Research Scholarship Youth Program Internet – CGI 2020. É também colunista do MIT Tech Review Brasil e do GizModo. 

Saiba mais no LinkedIn 

 

Revisora

Stephanie Kim Abe é jornalista, formada pela Escola de Comunicações e Artes da Universidade de São Paulo (ECA-USP). Trabalha na área de Educação e no terceiro setor. Esteve nos primórdios da Programaria, mas testou as águas da programação e achou que não era a sua praia. Mas isso foi antes do curso Eu Programo

Saiba mais no LinkedIn 

 

Este conteúdo faz parte da PrograMaria Sprint Área de dados.

O que você achou deste conteúdo? Responda nosso feedback: