Ética da IA ​​ponderando sobre os méritos de fundos de expiação legalmente obrigatórios para garantir a responsabilidade pela IA agindo mal

Quem é o culpado?

Essa pode parecer uma pergunta direta, embora no caso da famosa comédia da lendária dupla Abbott e Costello sobre um time de beisebol, o “quem” possa ser confuso. Você pode estar vagamente familiarizado com o Quem está em primeiro lugar rotina cômica que eles transformaram em uma das esquetes mais duradouras de todos os tempos (alerta de spoiler para quem não ouviu).

Abbott diz a Costello que Quem está em primeiro, O que está em segundo e I Don't Know está em terceiro. O truque inteligente é que o primeiro baseman se chama Who, o segundo porão se chama What, e o terceiro baseman se chama I Don't Know. É claro que essas frases também têm seu significado convencional e, assim, tentar interpretar o que Abbott está dizendo pode ser totalmente confuso. De fato, Costello faz a pergunta aparentemente inócua de quem está em primeiro lugar, para a qual a resposta é um sim firmemente declarado. Mas isso não faz sentido para Costello, pois ele esperava um nome e, em vez disso, recebeu um sim desconcertante como resposta.

Mudando de marcha, quando se trata do advento da Inteligência Artificial (IA), uma das perguntas mais irritantes que continuam sendo feitas envolve quem ou talvez o que será responsabilizado quando a IA se desviar.

Eu já discuti a responsabilidade criminal para quando a IA leva ou realiza ações criminosas, veja minha cobertura em o link aqui. Há também a questão da responsabilidade civil, como quem ou o que você pode processar quando a IA fez algo errado, que é o tópico que discutirei aqui. Tudo isso tem considerações significativas de ética em IA. Para minha cobertura contínua e extensa de Ética em IA e IA Ética, consulte o link aqui e o link aqui, Apenas para nomear alguns.

Os preceitos da Ética da IA ​​nos fazem permanecer vigilantes. Os tecnólogos de IA às vezes podem ficar preocupados com a tecnologia, particularmente com a otimização da alta tecnologia. Eles não estão necessariamente considerando as maiores ramificações sociais. Ter uma mentalidade de Ética em IA e fazê-lo integralmente no desenvolvimento e em campo da IA ​​é vital para produzir IA apropriada, incluindo (talvez surpreendentemente ou ironicamente) a avaliação de como a Ética da IA ​​é adotada pelas empresas.

Além de empregar os preceitos da Ética da IA ​​em geral, há uma questão correspondente sobre se devemos ter leis para governar vários usos da IA. Novas leis estão sendo divulgadas nos níveis federal, estadual e local que dizem respeito ao alcance e à natureza de como a IA deve ser concebida. O esforço para redigir e promulgar tais leis é gradual. A ética da IA ​​serve como um paliativo considerado, no mínimo, e quase certamente, em algum grau, será diretamente incorporado a essas novas leis.

Esteja ciente de que alguns argumentam inflexivelmente que não precisamos de novas leis que cubram a IA e que nossas leis existentes são suficientes. Na verdade, eles avisam que, se promulgarmos algumas dessas leis de IA, estaremos matando a galinha dos ovos de ouro ao reprimir os avanços da IA ​​que oferecem imensas vantagens sociais.

Um debate acalorado é se as leis existentes são capazes de abordar adequadamente o surgimento de sistemas de IA em toda a sociedade. A responsabilidade legal normalmente exige que você possa colocar o rabo no burro para saber quem é o responsável pela conduta prejudicial. No caso da IA, pode haver um caminho pouco claro que liga uma determinada pessoa ou pessoas à IA que realizou alguma ação prejudicial. A IA pode não ser rastreável até a fonte ou inventor que compôs a IA.

Outra consideração é que, mesmo que as raízes da IA ​​possam ser atribuídas a alguém, a questão é se a pessoa ou pessoas podem não ter sido capazes de prever razoavelmente o resultado adverso que a IA finalmente produziu. O cerne da previsibilidade é um fator habitualmente notável na avaliação da responsabilidade legal.

Você pode ficar tentado a pensar que pode simplesmente ir atrás da própria IA e nomeá-la como a parte legal responsável por qualquer dano supostamente incorrido. Em geral, a visão jurídica predominante é que a IA ainda não atingiu um nível de personalidade jurídica. Assim, você não poderá, estritamente falando, buscar fazer com que a IA pague e precisará encontrar humanos que estavam trabalhando as alavancas nos bastidores, por assim dizer (para minha análise da personalidade jurídica da IA, consulte o link aqui).

Em todo esse possível pântano legal, surge uma ideia que está sendo lançada como um possível remédio, seja a curto prazo ou possivelmente a longo prazo. A ideia é que talvez um fundo compensatório especial deva ser estabelecido para fornecer alívio financeiro para aqueles que foram prejudicados pela IA. Se você não conseguir que a IA o compense e não puder identificar as pessoas que deveriam ser responsabilizadas, a próxima melhor opção pode ser recorrer a um fundo compensatório que visa ajudar os prejudicados pela IA.

Tal fundo seria semelhante a uma espécie de seguro, conforme declarado em um artigo de pesquisa instigante: “Isso seria essencialmente um mecanismo de seguro contra a incerteza: uma estrutura clara e transparente para compensação rápida nos casos em que um processo de responsabilidade incerto ou sem perspectiva de sucesso devido à natureza imprevisível da conduta danosa, o (tipo de) dano em si, ou os custos excessivos e/ou complexidade do procedimento” (artigo de Olivia Erdelyi e Gabor Erdelyi, “The AI ​​Liability Puzzle E uma solução alternativa baseada em fundos”, Jornal de Pesquisa em Inteligência Artificial, 2021).

O fundo compensatório faria parte de um esquema abrangente de garantia de IA (AIGS) e seria acompanhado por algumas alterações leves nas leis existentes sobre responsabilidade legal. O toque leve seria presumivelmente mais fácil de decretar e não exigiria o tipo árduo de angústia legal e social se uma série mais dolorosa de mudanças demonstrativas fosse feita nos regimes legais existentes. De acordo com os pesquisadores: “Isso reflete nossa crença de que – apesar do apelo de uma solução tão rápida – o inalterado aplicação das regras de responsabilidade existentes à IA ou a um motivação protecionista o recurso à responsabilidade objetiva para apurar a responsabilidade a qualquer custo não são as respostas corretas por três razões: primeiro, ignorando que essas regras foram adaptadas a circunstâncias diferentes e podem, portanto, ser inadequadas para a IA, elas violam os objetivos delicadamente equilibrados da sistema de responsabilidade legal. Em segundo lugar, eles inibem a inovação da IA ​​ao adotar uma abordagem indevidamente punitiva. Terceiro, o recurso indevido à responsabilidade objetiva apenas contorna os problemas de previsibilidade e falhas de maneira dogmaticamente inconsistente, em vez de remediá-los” (conforme o artigo citado acima).

Os argumentos a favor de tais fundos compensatórios de IA incluem:

  • Reduz a necessidade de julgamentos legais demorados e dispendiosos para lidar com os danos causados ​​pela IA
  • Garante aos humanos que eles podem fazer uso da IA ​​e ser compensados ​​se forem prejudicados
  • Promove a inovação em IA, aliviando a incerteza jurídica enfrentada pelos inovadores de IA
  • Pode ser colocado em uso muito mais rápido do que fazer mudanças maciças nas leis existentes
  • Oferece um remédio relativamente claro que é confiável e prontamente disponível
  • Outros

Enquanto isso, aqueles que se opõem à abordagem dos fundos compensatórios da IA ​​dizem o seguinte:

  • Vamos deixar os criadores de IA excessivamente fora do gancho e permitir que eles evitem a responsabilidade
  • Irá encorajar os fabricantes de IA a criar IA que carece de segurança e controles adequados
  • Pode estimular as pessoas a alegar falsamente danos à IA para que possam aproveitar os fundos
  • Evita e mina a verdadeira necessidade de revisar nossas leis para governar a IA suficientemente
  • Pode se tornar um pesadelo burocrático que atola e usa mal os fundos
  • Outros

Como pode ser evidente, há tanto defensores quanto oponentes dessa noção totalmente controversa.

Você teria dificuldade em descartar sumariamente o fundo compensatório da IA ​​como uma abordagem potencial para as crescentes preocupações sobre a IA que causa danos. Nem é a solução proposta um slam dunk.

Um ponto de vista é que os fabricantes de IA precisariam colocar dinheiro nos fundos como parte de seus esforços ao conceber e promulgar a IA. Isso pode ser interpretado como um tipo de taxa ou imposto que eles devem suportar como parte de poder liberar sua IA para o mundo. Mas esse custo adicional potencialmente suprime os esforços das startups que estão tentando ultrapassar os limites da IA ​​de hoje? E como seria feita a fiscalização para garantir que os fabricantes de IA pagassem suas taxas ou impostos?

Uma série de perguntas surgem e precisam ser resolvidas:

  • Em quais países um fundo compensatório de IA seria mais viável?
  • Poderia ser estabelecida uma aparência global de fundos compensatórios de IA interconectados?
  • Quais seriam os mecanismos detalhados e viáveis ​​associados a esses fundos?
  • Como os fundos compensatórios de IA serão financiados (públicos, privados, beneficentes)?
  • Isso seria uma base de seguro sem falhas ou alguma outra abordagem seria adotada?
  • Etc.

Um reino que já teve a ideia de fundos compensatórios de IA em torno consiste em sistemas autônomos, como veículos autônomos e carros autônomos. Para minha cobertura de carros autônomos e sistemas autônomos de IA, consulte o link aqui.

Aqui está um esboço de como isso pode funcionar para carros autônomos baseados em IA.

Suponha que um carro autônomo colida com um ciclista. O motociclista está ferido. O motociclista pode buscar reparação legal perseguindo a montadora do veículo autônomo. Ou eles podem apontar para a empresa de tecnologia autônoma que criou o sistema de direção de IA. Se o carro autônomo estiver sendo operado como uma frota, outra via legal seria perseguir o operador da frota. Tentar processar a IA não é uma opção neste momento, pois a personalidade jurídica da IA ​​ainda não está estabelecida.

Em vez de tomar medidas legais contra qualquer uma dessas partes, outro recurso seria apresentar uma solicitação ou reivindicação a um fundo compensatório de IA adequado. O fundo teria formalizado processos envolvendo a revisão da reclamação e, em seguida, determinaria se algum pagamento compensatório poderia ser fornecido ao reclamante. Pode haver um processo de apelação que ajude os requerentes que acreditam que foram negados erroneamente pelo fundo ou insuficientemente compensados ​​pelo fundo.

Em teoria, o fundo compensatório da IA ​​seria um caminho muito mais rápido para ser compensado pelos danos infligidos. Você pode imaginar como um processo judicial pode ser trabalhoso, pelo qual as empresas processadas podem tentar arrastar o caso.

Os advogados podem, no entanto, enfatizar que o fundo compensatório da IA ​​poderia permitir que outras partes, como os fabricantes de IA, aparentemente evitassem qualquer penalidade clara por ter soltado seu carro autônomo em vias públicas que acabou atingindo um ciclista. O que mais essas empresas podem optar por fazer “descuidadosamente”? Sem o espectro iminente da espada legal pendurada sobre suas cabeças, poderíamos nos encontrar diariamente confrontando a IA que está repleta de capacidades perigosas.

Voltas e voltas os argumentos vão.

Conclusão

A ética da IA ​​nos lembra que devemos sempre considerar as ramificações éticas e legais da IA. Neste caso dos fundos compensatórios da IA, a noção proposta de um fundo de fundos semelhante a um seguro para compensar aqueles que são prejudicados pela IA parece atraente. Os fundos aparentemente estariam esperando lá, prontos para serem aproveitados e forneceriam a compensação mais rápida possível.

As desvantagens de saber se isso pode abrir as comportas para tornar a IA com cada vez menos controles de segurança é uma preocupação assustadora e muito real. Provavelmente não precisamos adicionar combustível a um incêndio que talvez já esteja em andamento.

Podemos, de alguma forma, ainda obrigar os fabricantes de IA a conceberem IA Ética apropriada e, simultaneamente, estabelecer esses fundos compensatórios de IA?

Alguns diriam que sim, podemos. Ao reajustar as leis existentes para se alinhar com os fundos compensatórios da IA, aqueles que são prejudicados pela IA teriam potencialmente um caminho duplo para buscar sua compensação justa.

Quem está em primeiro lugar?

Sim, é isso que (como todos nós) está no primeiro aviso de que deveríamos estar refletindo sobre o uso potencial de fundos compensatórios de IA e modificando as leis existentes, mesmo que apenas levemente, fornecendo um meio para lidar com o ataque de boa IA e IA ruim.

Não há confusão sobre essa consideração vital.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legally-mandating-atonement-funds-to-ensure-ai- responsabilidade/