Ética na IA: A Moralidade dos Artefatos e Algoritmos Inteligentes
Miguel S. Albergaria contesta a ideia de que a tecnologia é moralmente neutra, especialmente no que se refere a artefatos com capacidade de previsão, aprendizado ou tomada de decisão.
Por Miguel S. Albergaria (*)
Em um raro momento de desconforto moral, 007, o agente a serviço de Sua Majestade, questionou o armeiro que havia aprimorado uma arma se não se sentia incomodado com essa profissão. A resposta foi: “Mr. Bond, as balas não matam. É o dedo que puxa o gatilho.” Esta cena de O Homem da Pistola Dourada introduziu-me à ideia da neutralidade moral da tecnologia. É uma noção impactante, mas, na minha opinião, incorreta.
Essa ideia sugere que a moralidade se relaciona com a capacidade de ação e que os artefatos técnicos não possuem essa capacidade. A primeira afirmação pode ser aceita sem contestação, mas a segunda não é tão simples. No sentido mais rigoroso, “agência” refere-se à habilidade de reconhecer alternativas comportamentais possíveis, escolher valores a serem considerados, aplicá-los, tomar decisões e promover ações correspondentes. Se essa agência existe, será por ora completamente humana. Contudo, na acepção mais ampla de intervenção na determinação e estímulo do comportamento, mesmo que essa intervenção seja, por sua vez, influenciada por fatores genéticos e experiências anteriores, nós humanos a possuímos, assim como outros animais. Algo que difere de balas, gatilhos e qualquer ferramenta concebida para certas funções, ou mesmo de objetos naturais que podem ser utilizados como utensílios. Quanto a esses itens, somente seus utilizadores são realmente ativos, portanto, apenas eles ou seus comportamentos possuem valor moral.
Essa última premissa é contestada pelo filósofo holandês P.P. Verbeek em sua obra provocativa: What Things Do. Isto é, os objetos não são simplesmente manipulados por ações de terceiros; eles têm suas próprias funções. Em uma perspectiva, não experimentamos o mundo da mesma maneira dependendo do artefato que estamos utilizando. Por exemplo, ao escrever, se usamos um teclado, estabelecemos uma conexão maior com o mundo, proporcionando tempo para outras atividades e ampliando nossa audiência, comparado ao uso de caneta e papel. Por outro lado, manusear uma caneta torna o mundo mais significativo para nós, pois a motricidade fina parece ativar as mesmas áreas do cérebro que organizam ideias, e isso ajuda na retenção dessas ideias (mesmas ondas cerebrais estão envolvidas na escrita manual e na memória).
Verbeek assinala que todos os artefatos técnicos desempenham um papel mediador entre os seres humanos e seu mundo. Com uma dimensão existencial – conforme discutido na primeira comparação das duas formas de escrita – e outra hermenêutica – da segunda comparação. Isto confere a cada artefato um significado moral relacionado à forma como escolhemos viver, favorecendo um modo de existir em detrimento de outros, e influenciando nossa interpretação do mundo, em vez de outras possibilidades, uma vez que essas diferenças podem ser categorizadas entre um extremo positivo e um negativo.
No entanto, a moralidade intrínseca à tecnologia torna-se ainda mais proeminente quando se trata de artefatos que possuem capacidades de previsão, aprendizado ou decisão. Essas novas tecnologias não atuam apenas dentro de suas estruturas em determinadas circunstâncias; elas também ajustam suas estruturas e podem selecionar (mesmo que não com plena agência) as situações onde irão intervir.
Alguns estudiosos atribuem a elas uma “moralidade funcional”, como nos casos dos modelos de comportamento utilizados em veículos autônomos, baseados nas opções dos motoristas humanos ou nas avaliações que algoritmos fazem sobre situações que podem resultar de diferentes comportamentos. Outros, que questionam a legitimidade de uma ética centrada no homem, atribuem às tecnologias inteligentes uma “moralidade a-mental”. Esta última sugere um certo nível de autonomia e capacidade de adaptação na execução de ações moralmente significativas – como as realizadas por um cão de resgate ou um robô social.
Independentemente da moralidade limitada desses artefatos inteligentes, é indispensável adotar uma abordagem ética em relação ao que essas tecnologias realizam. Isso implica também uma análise de como elas operam – por exemplo, questões de enviesamento nos dados de aprendizado ou transparência nos algoritmos. E sobre os recursos utilizados – desde a extração de minérios até a coleta de dados pessoais, incluindo o trabalho humano necessário para classificar objetos.
Em síntese, com a ascensão da IA, nos distanciamos ainda mais da nossa reflexão cinematográfica sobre a moralidade e a tecnologia.
