Home News A teologia medieval tem uma visão antiga sobre um novo problema: a...

A teologia medieval tem uma visão antiga sobre um novo problema: a responsabilidade da IA

10
0

(The Conversation) — Um táxi autônomo não tem passageiros, então ele estaciona sozinho em um estacionamento para reduzir o congestionamento e poluição do ar. Após ser chamado, o táxi sai para pegar seu passageiro – e tragicamente atropela um pedestre na faixa de pedestres no caminho.

Quem ou o que merece elogios pelas ações do carro para reduzir o congestionamento e a poluição do ar? E quem ou o que merece culpa pelos ferimentos do pedestre?

Uma possibilidade é o designer ou desenvolvedor do táxi autônomo. Mas, em muitos casos, eles não teriam sido capazes de prever o comportamento exato do táxi. Na verdade, as pessoas geralmente querem que a inteligência artificial descubra alguma ideia ou plano novo ou inesperado. Se soubermos exatamente o que o sistema deve fazer, não precisamos nos preocupar com IA.

Alternativamente, talvez o próprio táxi deva ser elogiado e culpado. No entanto, esses tipos de sistemas de IA são essencialmente determinísticos: seu comportamento é ditado por seu código e pelos dados do sensor de entrada, mesmo que os observadores possam ter dificuldade para prever esse comportamento. Parece estranho julgar moralmente uma máquina que não teve escolha.

De acordo com muitos moderno filósofosagentes racionais pode ser moralmente responsável para suas ações, mesmo que suas ações fossem completamente predeterminadas – seja pela neurociência ou pelo código. Mas a maioria concorda que o agente moral deve ter certas capacidades que os táxis autônomos quase certamente não têm, como a capacidade de moldar seus próprios valores. Os sistemas de IA caem em um meio termo desconfortável entre agentes morais e ferramentas não morais.

Como sociedade, enfrentamos um enigma: parece que ninguém, ou nenhuma coisa, é moralmente responsável pelas ações da IA ​​– o que os filósofos chamam de lacuna de responsabilidade. As teorias atuais de responsabilidade moral simplesmente não parecem apropriadas para entender situações envolvendo sistemas de IA autônomos ou semiautônomos.

Se as teorias atuais não funcionarem, então talvez devêssemos olhar para o passado – para ideias centenárias com ressonância surpreendente hoje.

Se os carros autônomos decolarem, essas questões sobre responsabilidade só aumentarão.
dowell/Momento via Getty Images

Deus e o homem

Uma questão semelhante deixou perplexos os teólogos cristãos nos séculos XIII e XIV, desde Tomás de Aquino para Duns Escoto para Guilherme de Ockham. Como as pessoas podem ser responsáveis ​​por suas ações e pelos resultados, se um Deus onisciente as projetou – e presumivelmente sabia o que elas fariam?

Os filósofos medievais sustentavam que as decisões de alguém resultam de sua vontade, operando nos produtos de seu intelecto. Em termos gerais, eles entenderam intelecto humano como um conjunto de capacidades mentais que permitem o pensamento racional e a aprendizagem.

Intelecto é a parte racional e lógica da mente ou alma das pessoas. Quando duas pessoas são apresentadas a situações idênticas e ambas chegam à mesma “conclusão racional” sobre como lidar com as coisas, elas estão usando o intelecto. O intelecto é como um código de computador dessa forma.

Mas o intelecto nem sempre fornece uma resposta única. Muitas vezes, o intelecto fornece apenas possibilidades, e a vontade seleciona entre elesseja consciente ou inconscientemente. A vontade é o ato de escolhendo livremente dentre as possibilidades.

Como um exemplo simples, em um dia chuvoso, o intelecto dita que eu deveria pegar um guarda-chuva do meu armário, mas não qual. Will está escolhendo o guarda-chuva vermelho em vez do azul.

Para estes pensadores medievais, responsabilidade moral dependia do que a vontade e o intelecto contribuem cada um. Se o intelecto determina que há apenas uma ação possível, então eu não poderia fazer de outra forma, e então eu não sou moralmente responsável. Alguém pode até concluir que Deus é moralmente responsável, já que meu intelecto vem de Deus – embora os teólogos medievais fossem muito cautelosos em atribuir responsabilidade a Deus.

Por outro lado, se o intelecto não coloca absolutamente nenhuma restrição em minhas ações, então sou totalmente responsável moralmente, já que a vontade está fazendo todo o trabalho. Claro, a maioria das ações envolve contribuições tanto do intelecto quanto da vontade – geralmente não é um ou/ou.

Além disso, outras pessoas muitas vezes nos limitam: desde pais e professores até juízes e monarcas, especialmente na época dos filósofos medievais – tornando ainda mais complicado atribuir responsabilidade moral.

O homem e a IA

Claramente, a relação entre os desenvolvedores de IA e suas criações não é exatamente a mesma que entre Deus e os humanos. Mas como professores de filosofia e computaçãovemos paralelos intrigantes. Essas ideias mais antigas podem nos ajudar hoje a pensar em como um sistema de IA e seus designers podem compartilhar responsabilidade moral.

Os desenvolvedores de IA não são deuses oniscientes, mas fornecem o “intelecto” do sistema de IA ao selecionando e implementando seus métodos de aprendizado e capacidades de resposta. Da perspectiva do designer, esse “intelecto” restringe o comportamento da IA, mas quase nunca determina seu comportamento completamente.

Um homem de óculos olha através de uma tela transparente com palavras em fonte preta cobrindo a maior parte dela.

Onde termina a responsabilidade dele e começa a do sistema de IA?
Laurence Dutton/E+ via Getty Images

A maioria dos sistemas modernos de IA são projetados para aprender com dados e podem responder dinamicamente aos seus ambientes. A IA, portanto, parecerá ter uma “vontade” que escolhe como responder, dentro das restrições de seu “intelecto”.

Usuários, gerentes, reguladores e outras partes podem restringir ainda mais os sistemas de IA – de forma análoga à forma como autoridades humanas, como monarcas, restringem as pessoas na estrutura dos filósofos medievais.

Quem é o responsável?

Essas ideias milenares mapeiam surpreendentemente bem a estrutura de problemas morais envolvendo sistemas de IA. Então, vamos retornar às nossas perguntas iniciais: Quem ou o que é responsável pelos benefícios e danos do táxi autônomo?

Os detalhes importam. Por exemplo, se o desenvolvedor de táxis explicitamente escreve como o táxi deve se comportar em faixas de pedestres, então suas ações seriam inteiramente devidas ao seu “intelecto” – e então os desenvolvedores seriam responsáveis.

No entanto, digamos que o táxi encontrou situações para as quais não foi explicitamente programado – como se a faixa de pedestres fosse pintada de uma forma incomum, ou se o táxi aprendeu algo diferente dos dados em seu ambiente do que o que o desenvolvedor tinha em mente. Em casos como esses, as ações do táxi seriam principalmente devido à sua “vontade”, porque o táxi selecionou uma opção inesperada – e, portanto, o táxi é responsável.

Se o táxi é moralmente responsável, então o que? A empresa de táxi é responsável? O código do táxi deve ser atualizado? Mesmo nós dois não concordamos sobre a resposta completa. Mas achamos que uma melhor compreensão da responsabilidade moral é um primeiro passo importante.

Ideias medievais não são apenas sobre objetos medievais. Esses teólogos podem ajudar os eticistas de hoje a entender melhor o desafio atual dos sistemas de IA – embora tenhamos apenas arranhado a superfície.

Mike Kirby não trabalha, não é consultor, não possui ações ou recebe financiamento de nenhuma empresa ou organização que se beneficiaria deste artigo, e não declarou nenhuma afiliação relevante além de sua nomeação acadêmica.

(David Danks, Professor de Ciência de Dados, Filosofia e Política, Universidade da Califórnia, San Diego. Mike Kirby, Professor de Computação, Universidade de Utah. As opiniões expressas neste comentário não refletem necessariamente as do Religion News Service.)

A Conversa

Source link