Como tecnologias se tornam ferramentas de opressão e quais os desafios da computação em garantir justiça, ética e explicabilidade de sistemas de algoritmos

 

Em um mundo em que estamos delegando cada vez mais decisões às máquinas, é cada vez maior também as preocupações éticas sobre os algoritmos. Afinal, não estamos falando de decisões com respostas únicas, fechadas. São decisões, como já colocou a socióloga turca-americana Zeynep Tufekci, que exigem “respostas subjetivas, abertas e que envolvem julgamento de valor”.

Nesse cenário, quem deve ser responsabilizado quando um algoritmo discrimina pessoas ou segmentos sociais, invade a privacidade, cria acidentes ou gera resultados injustos, ofensivos e até letais?

Esse questionamento é atual e já existem situações em que ele se faz necessário, pois a inteligência artificial está entre nós. Para dar um exemplo disso, Carla Vieira, engenheira de dados e mestre em inteligência artificial, relembra no vídeo abaixo o caso Eric Loomis. Em 2013, ele foi condenado a seis anos de prisão, no estado de Wisconsin (EUA), sendo que sua sentença foi determinada com auxilio do resultado de um algoritmo chamado COMPAS, que calcula o risco de reincidência criminal. O caso ganhou notoriedade porque o algoritmo não era capaz de dar explicação para o resultado gerado. 

Daí a importância da explicabilidade (ou interpretabilidade) que está ligada à ideia de justiça, transparência e accountability, e que utiliza diferentes metodologias para explicar as predições dos modelos de aprendizado de máquina.

Carla Vieira explica porque explicabilidade e transparência importam tanto, discorre sobre a relação entre acuracia e explicabilidade e as vantagens e desvantagens da interpretabilidade intrínseca e extrínseca. Ela ainda mostra como ferramentas de explicabilidade podem ser usadas para fazer esse tipo de análise, como Lime, Shap e explicações contrafactuais.

Considerando que lidar com a inteligência artificial é inevitável, ela nos guia por uma reflexão sobre como as tecnologias se tornam ferramentas de opressão e os desafios da computação para garantir que o uso dos algoritmos não tenha impactos negativos na sociedade.

Assista o vídeo completo abaixo:

Acesse aqui a apresentação 

 

CRÉDITOS

Autora

Carla Vieira é engenheira de dados na QuantumBlack e mestre em Inteligência Artificial pela Universidade de São Paulo (USP). Acredita na tecnologia como ferramenta de transformação social e tem estudado sobre como garantir interpretabilidade e fairness em Inteligência Artificial. Também foi reconhecida como Google Developer Expert em Machine Learning.

Saiba mais no LinkedIn

Revisora

Stephanie Kim Abe é jornalista, formada pela Escola de Comunicações e Artes da Universidade de São Paulo (ECA-USP). Trabalha na área de Educação e no terceiro setor. Esteve nos primórdios da Programaria, mas testou as águas da programação e achou que não era a sua praia. Mas isso foi antes do curso Eu Programo

Saiba mais no LinkedIn

Este conteúdo faz parte da Programaria Sprint Dados: Ampliando as Fronteiras.