IA responsável aprecia impulso preeminente por meio da proclamação de ética da IA ​​pela principal sociedade profissional, a ACM

Você viu ou ouviu as notícias?

Outro conjunto de preceitos de Ética da IA ​​foi recentemente proclamado.

Aplausos estridentes, por favor.

Então, novamente, você pode não notei isso devido ao fato de que tantos outros decretos de Ética da IA ​​estão circulando por aí há algum tempo. Alguns estão dizendo que a percolação aparentemente ininterrupta de proclamações de IA ética está se tornando um pouco entorpecente. De quantos nós precisamos? Alguém consegue acompanhar todos eles? Qual é o melhor? Será que estamos exagerando nos princípios de Ética da IA? E assim por diante.

Bem, neste caso particular, digo que devemos dar as boas-vindas a esta última adição ao clube.

Vou explicar perspicazmente por que em um momento.

Em primeiro lugar, como esclarecimento, refiro-me ao conjunto de preceitos de Ética da IA ​​agora conhecido oficialmente como “Declaração sobre princípios para sistemas algorítmicos responsáveis” que foi publicado recentemente pelo ACM Technology Policy Council em 26 de outubro de 2022. Parabéns às equipes de especialistas que elaboraram este documento premiado, incluindo os co-autores principais Jeanna Matthews (Clarkson University) e Ricardo Baeza-Yates (Universitat Pompeu Fabra ).

Aqueles de vocês que o conhecem podem, após uma inspeção minuciosa, perceber que este documento parece vagamente familiar.

Bom olho!

Esta última encarnação é essencialmente uma variante atualizada e expandida da anterior “Declaração sobre Transparência Algorítmica e Responsabilidade” que foi promulgada pelo Comitê de Política de Tecnologia dos EUA da ACM e pelo Comitê de Política de Tecnologia da Europa da ACM em 2017. Leitores fiéis de minhas colunas podem se lembrar disso De tempos em tempos, mencionei o decreto de 2017 em minha coluna sobre as principais facetas subjacentes à Ética e à Lei da IA.

Para minha avaliação extensa e contínua e análises de tendências da Ética da IA ​​e da Lei da IA, consulte o link aqui e o link aqui, Apenas para nomear alguns.

Esta última declaração do ACM é notavelmente importante por várias razões vitais.

Aqui está o porquê.

O ACM, que é um acrônimo útil para o Association for Computing Machinery, é considerada a maior associação focada em computação do mundo. Com cerca de 110,000 membros, o ACM é um pioneiro de longa data no campo da computação. O ACM produz algumas das pesquisas acadêmicas mais importantes no campo da computação e, da mesma forma, fornece networking profissional e também atrai profissionais da computação. Como tal, o ACM é uma voz importante que representa geralmente aqueles que são de alta tecnologia e tem se esforçado continuamente para avançar no campo da computação (o ACM foi fundado em 1947).

Eu poderia adicionar um pouco de nota pessoal sobre isso também. Quando comecei a trabalhar com computadores no ensino médio, entrei para a ACM e participei de seus programas educacionais, especialmente a empolgante chance de competir em sua competição anual de programação de computadores (essas competições são amplamente comuns hoje em dia e rotuladas normalmente como hackathons). Continuo envolvido com o ACM enquanto estava na faculdade por meio de meu capítulo da universidade local e tive a oportunidade de aprender sobre liderança ao me tornar um oficial do capítulo estudantil. Ao entrar na indústria, juntei-me a um capítulo profissional e mais uma vez assumi um papel de liderança. Mais tarde, quando me tornei professor, atuei nos comitês e conselhos editoriais da ACM, além de patrocinar o capítulo estudantil do campus. Ainda hoje, sou ativo na ACM, inclusive atuando no Comitê de Política de Tecnologia da ACM nos EUA.

Eu aprecio a visão cativante e duradoura da ACM de aprendizagem ao longo da vida e desenvolvimento de carreira.

De qualquer forma, em termos da última declaração de Ética da IA, o fato de ter sido emitido pelo ACM carrega um grande peso para ela. Você pode razoavelmente afirmar que os preceitos da IA ​​ética são a totalidade ou a voz coletiva de um grupo mundial de profissionais de computação. Isso diz algo bem ali.

Há também o aspecto de que outros no campo da computação serão inspirados a se animar e ouvir no sentido de dar a devida consideração ao que a declaração declara por seus colegas de computação. Assim, mesmo para aqueles que não fazem parte do ACM ou não sabem absolutamente nada sobre o grupo reverenciado, espera-se que haja um grande interesse em descobrir do que se trata a declaração.

Enquanto isso, aqueles que estão lado de fora do campo da computação pode ser atraído para a declaração como uma espécie de visão privilegiada dos bastidores sobre o que os computadores estão dizendo sobre a IA ética. Quero enfatizar, porém, que a declaração é destinada a todos, não apenas à comunidade de computadores e, portanto, lembre-se de que os preceitos de Ética da IA ​​são gerais, por assim dizer.

Finalmente, há uma reviravolta que poucos considerariam.

Às vezes, pessoas de fora percebem as associações de computação como sendo profundas em tecnologia e não especialmente cientes dos impactos sociais dos computadores e da IA. Você pode ficar tentado a presumir que essas entidades profissionais se preocupam apenas com os avanços mais recentes e recentes em hardware ou software. Eles são percebidos pelo público, de uma maneira simples e grosseira, como nerds tecnológicos.

Para esclarecer as coisas, estou imerso nos impactos sociais da computação desde que comecei a trabalhar com computadores e, da mesma forma, o ACM também está profundamente envolvido com esses tópicos.

Para quem está surpreso com o fato de esta declaração sobre os preceitos de ética da IA ​​ter sido elaborada e divulgada pela ACM, eles não estão prestando atenção às pesquisas e trabalhos de longa data que estão sendo realizados sobre esses assuntos. Eu também gostaria de pedir aos interessados ​​que dêem uma boa olhada no ACM Código de Ética, um rigoroso código de ética profissional que evoluiu ao longo dos anos e enfatiza que os desenvolvedores de sistemas precisam estar cientes, obedecer e estar vigilantes sobre as ramificações éticas de seus empreendimentos e produtos.

A IA tem alimentado o fogo ao se informar sobre a ética da computação.

A visibilidade das considerações éticas e legais no campo da computação aumentou tremendamente com o surgimento da IA ​​atual. Aqueles dentro da profissão estão sendo informados e, às vezes, pressionados a dar a devida atenção às questões de Ética e Lei da IA. Os legisladores estão cada vez mais conscientes dos aspectos da Ética da IA ​​e das Leis da IA. As empresas estão se conscientizando da noção de que a IA que estão desenvolvendo ou usando é vantajosa e, às vezes, também abre enormes riscos e possíveis desvantagens.

Vamos descompactar o que tem acontecido nos últimos anos para que um contexto apropriado possa ser estabelecido antes de entrarmos neste último conjunto de preceitos de Ética da IA.

A consciência crescente da IA ​​ética

A era recente da IA ​​foi inicialmente vista como sendo AI For Good, o que significa que poderíamos usar a IA para a melhoria da humanidade. Nos calcanhares de AI For Good veio a percepção de que também estamos imersos em AI para mau. Isso inclui IA que é planejada ou auto-alterada para ser discriminatória e faz escolhas computacionais imbuindo vieses indevidos. Às vezes, a IA é construída dessa maneira, enquanto em outros casos ela se desvia para esse território desagradável.

Quero ter certeza de que estamos na mesma página sobre a natureza da IA ​​de hoje.

Não há nenhuma IA hoje que seja senciente. Nós não temos isso. Não sabemos se a IA senciente será possível. Ninguém pode prever adequadamente se alcançaremos a IA senciente, nem se a IA senciente de alguma forma milagrosamente surgirá espontaneamente em uma forma de supernova cognitiva computacional (geralmente chamada de singularidade, veja minha cobertura em o link aqui).

O tipo de IA em que estou focando consiste na IA não senciente que temos hoje. Se quiséssemos especular descontroladamente sobre a IA senciente, essa discussão poderia seguir uma direção radicalmente diferente. Uma IA senciente supostamente seria de qualidade humana. Você precisaria considerar que a IA senciente é o equivalente cognitivo de um humano. Mais ainda, já que alguns especulam que podemos ter IA superinteligente, é concebível que tal IA possa acabar sendo mais inteligente que os humanos (para minha exploração da IA ​​superinteligente como uma possibilidade, veja a cobertura aqui).

Eu sugiro fortemente que mantenhamos as coisas no chão e consideremos a IA computacional não senciente de hoje.

Perceba que a IA de hoje não é capaz de “pensar” de forma semelhante ao pensamento humano. Quando você interage com Alexa ou Siri, as capacidades de conversação podem parecer semelhantes às capacidades humanas, mas a realidade é que é computacional e carece de cognição humana. A era mais recente da IA ​​fez uso extensivo de Machine Learning (ML) e Deep Learning (DL), que alavancam a correspondência de padrões computacionais. Isso levou a sistemas de IA que têm a aparência de tendências humanas. Enquanto isso, não há nenhuma IA hoje que tenha uma aparência de bom senso e nem a maravilha cognitiva do pensamento humano robusto.

Tenha muito cuidado ao antropomorfizar a IA de hoje.

ML/DL é uma forma de correspondência de padrões computacional. A abordagem usual é reunir dados sobre uma tarefa de tomada de decisão. Você alimenta os dados nos modelos de computador ML/DL. Esses modelos buscam encontrar padrões matemáticos. Depois de encontrar esses padrões, se encontrados, o sistema de IA usará esses padrões ao encontrar novos dados. Na apresentação de novos dados, os padrões baseados nos dados “antigos” ou históricos são aplicados para tornar uma decisão atual.

Eu acho que você pode adivinhar onde isso está indo. Se os humanos que tomaram as decisões padronizadas estão incorporando vieses indesejáveis, as chances são de que os dados reflitam isso de maneiras sutis, mas significativas. A correspondência de padrões computacionais de aprendizado de máquina ou aprendizado profundo simplesmente tentará imitar matematicamente os dados de acordo. Não há aparência de senso comum ou outros aspectos sensíveis da modelagem criada por IA per se.

Além disso, os desenvolvedores de IA também podem não perceber o que está acontecendo. A matemática misteriosa no ML/DL pode dificultar a descoberta dos preconceitos agora ocultos. Você esperaria e esperaria, com razão, que os desenvolvedores de IA testassem os vieses potencialmente enterrados, embora isso seja mais complicado do que possa parecer. Existe uma chance sólida de que, mesmo com testes relativamente extensos, ainda haja vieses embutidos nos modelos de correspondência de padrões do ML/DL.

Você poderia usar um pouco o famoso ou infame ditado de trash-in garbage out. O problema é que isso é mais parecido com preconceitos que insidiosamente são infundidos como preconceitos submersos na IA. O algoritmo de tomada de decisão (ADM) da IA ​​torna-se axiomaticamente carregado de iniquidades.

Não é bom.

Tudo isso tem implicações notavelmente significativas na ética da IA ​​e oferece uma janela útil para as lições aprendidas (mesmo antes de todas as lições acontecerem) quando se trata de tentar legislar a IA.

Além de empregar os preceitos da Ética da IA ​​em geral, há uma questão correspondente sobre se devemos ter leis para governar vários usos da IA. Novas leis estão sendo divulgadas nos níveis federal, estadual e local que dizem respeito ao alcance e à natureza de como a IA deve ser concebida. O esforço para redigir e promulgar tais leis é gradual. A ética da IA ​​serve como um paliativo considerado, no mínimo, e quase certamente, em algum grau, será diretamente incorporado a essas novas leis.

Esteja ciente de que alguns argumentam inflexivelmente que não precisamos de novas leis que cubram a IA e que nossas leis existentes são suficientes. Eles avisam que, se promulgarmos algumas dessas leis de IA, estaremos matando o ganso de ouro ao reprimir os avanços na IA que oferecem imensas vantagens sociais.

Em colunas anteriores, cobri os vários esforços nacionais e internacionais para criar e promulgar leis que regulam a IA, veja o link aqui, por exemplo. Também abordei os vários princípios e diretrizes de Ética em IA que várias nações identificaram e adotaram, incluindo, por exemplo, o esforço das Nações Unidas, como o conjunto de Ética em IA da UNESCO que quase 200 países adotaram. o link aqui.

Aqui está uma lista útil de critérios ou características de IA ética em relação aos sistemas de IA que explorei de perto anteriormente:

  • Transparência
  • Justiça e equidade
  • Não-Maleficência
  • Social Corporativa
  • Privacidade
  • Beneficência
  • Liberdade e autonomia
  • Confiança
  • Sustentabilidade
  • Dignidade
  • Solidariedade

Esses princípios de ética da IA ​​devem ser utilizados por desenvolvedores de IA, juntamente com aqueles que gerenciam os esforços de desenvolvimento de IA e até mesmo aqueles que, em última análise, trabalham e realizam manutenção em sistemas de IA.

Todas as partes interessadas em todo o ciclo de vida de desenvolvimento e uso da IA ​​são consideradas dentro do escopo de cumprir as normas estabelecidas da IA ​​Ética. Este é um destaque importante, pois a suposição usual é que “somente codificadores” ou aqueles que programam a IA estão sujeitos a aderir às noções de Ética da IA. Como anteriormente enfatizado aqui, é preciso uma aldeia para conceber e colocar em campo a IA, e para a qual toda a aldeia deve ser versada e obedecer aos preceitos da Ética da IA.

Também examinei recentemente a Declaração de Direitos da IA que é o título oficial do documento oficial do governo dos EUA intitulado “Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People” que foi o resultado de um esforço de um ano do Office of Science and Technology Policy (OSTP ). O OSTP é uma entidade federal que serve para assessorar o Presidente Americano e o Escritório Executivo dos EUA em vários aspectos tecnológicos, científicos e de engenharia de importância nacional. Nesse sentido, você pode dizer que esta Declaração de Direitos da IA ​​é um documento aprovado e endossado pela Casa Branca dos EUA existente.

Na Declaração de Direitos da IA, existem cinco categorias fundamentais:

  • Sistemas seguros e eficazes
  • Proteções de discriminação algorítmica
  • Dados privados
  • Aviso e explicação
  • Alternativas humanas, consideração e fallback

Eu revisei cuidadosamente esses preceitos, veja o link aqui.

Agora que estabeleci uma base útil sobre esses tópicos relacionados à Ética da IA ​​e à Lei da IA, estamos prontos para entrar no recém-lançado ACM “Declaração de princípios para sistemas algorítmicos responsáveis” (a propósito, já que o título do documento se refere a responsável sistemas algorítmicos, você pode querer dar uma olhada na minha avaliação do que significa falar de IA confiável, Ver o link aqui).

Prepare-se para uma jornada neste último conjunto de princípios de Ética da IA.

Explorando atentamente os preceitos de ética de IA declarados pela ACM

O pronunciamento da ACM sobre IA ética consiste nestes nove pilares:

  • Legitimidade e competência
  • Minimizando os danos
  • Segurança e privacidade
  • Transparência
  • Interpretabilidade e explicabilidade
  • Manutenção
  • Contestação e auditabilidade
  • Prestação de contas e responsabilidade
  • Limitando os impactos ambientais

Se você comparar este último conjunto com outros conjuntos notavelmente disponíveis, há uma grande semelhança ou correspondência entre eles.

Por um lado, você pode considerar isso um bom sinal.

Em geral, podemos esperar que a enorme quantidade de princípios de Ética da IA ​​que paira por aí esteja se unindo para a mesma cobertura geral. Ver que um conjunto é um pouco comparável a outro conjunto dá a você uma aparência de confiança de que esses conjuntos estão dentro do mesmo estádio e não de alguma forma em um campo esquerdo intrigante.

Uma reclamação potencial de alguns é que esses vários conjuntos parecem ser aproximadamente os mesmos, o que possivelmente cria confusão ou pelo menos consternação devido ao receio de que não devemos ter várias listas aparentemente duplicadas. Não pode haver apenas uma lista? O problema, é claro, é que não há uma maneira simples de fazer com que todas essas listas sejam uniformemente exatamente iguais. Diferentes grupos e diferentes entidades abordaram isso de maneiras diferentes. A boa notícia é que praticamente todos chegaram à mesma conclusão abrangente. Podemos ficar aliviados que os conjuntos não tenham grandes diferenças, o que talvez nos deixasse inquietos se não houvesse um consenso geral.

Um contrário pode exortar que a semelhança dessas listas é desconcertante, argumentando que talvez haja um pensamento de grupo acontecendo. Talvez todos esses grupos díspares estejam pensando da mesma maneira e não sejam capazes de olhar além da norma. Todos nós estamos caindo em uma armadilha idêntica. As listas estão ostensivamente ancorando nosso pensamento e não somos capazes de ver além de nossos próprios narizes.

Olhar além de nossos narizes é, sem dúvida, uma causa digna.

Certamente estou aberto para ouvir o que os contrários têm a dizer. Às vezes, eles ficam sabendo de algo que tem o Titânico indo em direção a um iceberg gigante. Precisamos de alguns vigias com visão de águia. Mas, no que diz respeito a esses preceitos de Ética da IA, não houve nada definitivamente articulado por contrários que pareça patentemente minar ou levantar preocupações sobre uma semelhança indevida acontecendo. Acho que estamos bem.

Neste conjunto ACM, existem alguns pontos particularmente notáveis ​​ou de destaque que eu acho que são particularmente dignos de atenção notável.

Primeiro, gosto do fraseado de alto nível, que é um pouco diferente da norma.

Por exemplo, referindo-se a legitimidade e competência (o primeiro item com marcadores) evoca uma aparência da importância das competências de design e gerenciamento associadas à IA. Além disso, o legitimidade bordão acaba nos levando para a Ética da IA e Reino da Lei da IA. Digo isso porque muitos dos preceitos de ética da IA ​​concentram-se quase inteiramente nas implicações éticas, mas parecem omitir ou se esquivar de observar também as ramificações legais. No campo jurídico, as considerações éticas são frequentemente apresentadas como sendo “soft law”, enquanto as leis nos livros são interpretadas como “hard Laws” (o que significa que carregam o peso dos tribunais legais).

Uma das minhas frases favoritas de todos os tempos foi proferida pelo famoso jurista Earl Warren: “Na vida civilizada, a lei flutua em um mar de ética”.

Precisamos garantir que os preceitos de ética da IA ​​também englobem e enfatizem o lado hard-law das coisas, como na elaboração, promulgação e aplicação das leis da IA.

Em segundo lugar, agradeço que a lista inclua contestabilidade e auditabilidade.

Eu escrevi repetidamente sobre o valor de poder contestar ou levantar uma bandeira vermelha quando você está sujeito a um sistema de IA, veja o link aqui. Além disso, veremos cada vez mais novas leis obrigando os sistemas de IA a serem auditados, o que discuti longamente sobre a lei da cidade de Nova York (NYC) sobre vieses de auditoria de sistemas de IA usados ​​para contratação e promoção de funcionários, consulte o link aqui. Infelizmente, e de acordo com minha crítica aberta à nova lei de Nova York, se essas leis de auditabilidade forem falhas, elas provavelmente criarão mais problemas do que soluções.

Em terceiro lugar, há um despertar gradual de que a IA pode imbuir questões de sustentabilidade e estou satisfeito em ver que o ambiental tópico obteve um faturamento de alto nível nesses preceitos de Ética da IA ​​(veja o último marcador da lista).

O ato de criar um sistema de IA sozinho pode consumir muitos recursos de computação. Esses recursos computacionais podem direta ou indiretamente ser usurpadores da sustentabilidade. Há uma compensação a ser considerada quanto aos benefícios que uma IA oferece versus os custos que acompanham a IA. O último dos itens com marcadores do ACM observa as considerações ambientais e de sustentabilidade que surgem com a IA. Para minha cobertura de questões de pegada de carbono relacionadas à IA, consulte o link aqui.

Agora que demos uma olhada nas alturas da lista ACM de preceitos de Ética da IA, em seguida, colocamos nossos pés mais fundo nas águas.

Aqui estão as descrições oficiais para cada um dos preceitos de alto nível de ética da IA ​​(citados da declaração formal):

1. 'Legitimidade e competência: Os projetistas de sistemas algorítmicos devem ter competência de gerenciamento e autorização explícita para construir e implantar tais sistemas. Eles também precisam ter experiência no domínio do aplicativo, uma base científica para o uso pretendido dos sistemas e ser amplamente considerados como socialmente legítimos pelas partes interessadas afetadas pelo sistema. Avaliações legais e éticas devem ser conduzidas para confirmar que quaisquer riscos introduzidos pelos sistemas serão proporcionais aos problemas que estão sendo abordados e que quaisquer compensações benefício-dano sejam compreendidas por todas as partes interessadas relevantes”.

2. 'Minimizando danos: Gerentes, designers, desenvolvedores, usuários e outras partes interessadas de sistemas algorítmicos devem estar cientes dos possíveis erros e vieses envolvidos em seu design, implementação e uso, e o dano potencial que um sistema pode causar aos indivíduos e à sociedade. As organizações devem realizar rotineiramente avaliações de impacto nos sistemas que empregam para determinar se o sistema pode gerar danos, especialmente danos discriminatórios, e aplicar mitigações apropriadas. Sempre que possível, eles devem aprender com as medidas de desempenho real, não apenas com padrões de decisões passadas que podem ter sido discriminatórias”.

3. 'Segurança e privacidade: O risco de partes mal-intencionadas pode ser mitigado com a introdução de práticas recomendadas de segurança e privacidade em todas as fases dos ciclos de vida dos sistemas, incluindo controles robustos para mitigar novas vulnerabilidades que surgem no contexto de sistemas algorítmicos.”

4. 'Transparência: Os desenvolvedores de sistemas são incentivados a documentar claramente a maneira como conjuntos de dados, variáveis ​​e modelos específicos foram selecionados para desenvolvimento, treinamento, validação e teste, bem como as medidas específicas usadas para garantir a qualidade dos dados e da saída. Os sistemas devem indicar seu nível de confiança em cada saída e os humanos devem intervir quando a confiança estiver baixa. Os desenvolvedores também devem documentar as abordagens que foram usadas para explorar possíveis vieses. Para sistemas com impacto crítico na vida e no bem-estar, devem ser exigidos procedimentos independentes de verificação e validação. O escrutínio público dos dados e modelos fornece oportunidade máxima para correção. Os desenvolvedores, portanto, devem facilitar os testes de terceiros no interesse público.”

5. 'Interpretabilidade e explicabilidade: Os gerentes de sistemas algorítmicos são encorajados a produzir informações sobre os procedimentos que os algoritmos empregados seguem (interpretabilidade) e as decisões específicas que eles tomam (explicabilidade). A explicabilidade pode ser tão importante quanto a precisão, especialmente em contextos de políticas públicas ou em qualquer ambiente em que haja preocupações sobre como os algoritmos podem ser distorcidos para beneficiar um grupo em detrimento de outro sem reconhecimento. É importante distinguir entre explicações e racionalizações após o fato que não refletem as evidências ou o processo de tomada de decisão usado para chegar à conclusão que está sendo explicada.”

6. 'Capacidade de manutenção: A evidência da solidez de todos os sistemas algorítmicos deve ser coletada ao longo de seus ciclos de vida, incluindo a documentação dos requisitos do sistema, o projeto ou implementação de mudanças, casos de teste e resultados e um registro de erros encontrados e corrigidos. A manutenção adequada pode exigir sistemas de retreinamento com novos dados de treinamento e/ou substituição dos modelos empregados.”

7. 'Contestação e auditabilidade: Os reguladores devem encorajar a adoção de mecanismos que permitam que indivíduos e grupos questionem os resultados e busquem reparação por efeitos adversos resultantes de decisões informadas por algoritmos. Os gerentes devem garantir que os dados, modelos, algoritmos e decisões sejam registrados para que possam ser auditados e os resultados replicados nos casos em que houver suspeita ou alegação de dano. As estratégias de auditoria devem ser tornadas públicas para permitir que indivíduos, organizações de interesse público e pesquisadores revisem e recomendem melhorias.”

8. 'Responsabilidade e responsabilidade: Órgãos públicos e privados devem ser responsabilizados pelas decisões tomadas pelos algoritmos que utilizam, mesmo que não seja viável explicar detalhadamente como esses algoritmos produziram seus resultados. Esses órgãos devem ser responsáveis ​​por sistemas inteiros implantados em seus contextos específicos, não apenas pelas partes individuais que compõem um determinado sistema. Quando são detectados problemas em sistemas automatizados, as organizações responsáveis ​​pela implantação desses sistemas devem documentar as ações específicas que serão tomadas para remediar o problema e sob quais circunstâncias o uso de tais tecnologias deve ser suspenso ou encerrado.”

9. 'Limitando os impactos ambientais: Os sistemas algorítmicos devem ser projetados para relatar estimativas de impactos ambientais, incluindo emissões de carbono de treinamento e cálculos operacionais. Os sistemas de IA devem ser projetados para garantir que suas emissões de carbono sejam razoáveis, dado o grau de precisão exigido pelo contexto em que são implantados”.

Espero que você dê a cada um desses preceitos cruciais de Ética da IA ​​uma leitura cuidadosa e antiga. Por favor, leve-os a sério.

Conclusão

Há uma parte sutil, mas igualmente crucial, do pronunciamento da ACM que, acredito, muitos podem ignorar inadvertidamente. Deixe-me ter certeza de trazer isso à sua atenção.

Estou aludindo a uma parte que discute o enigma agonizante de ter que pesar as compensações associadas aos preceitos de Ética da IA. Veja bem, a maioria das pessoas costuma acenar com a cabeça sem pensar ao ler os princípios éticos da IA ​​e assume que todos os preceitos são iguais em peso, e todos os preceitos sempre receberão a mesma aparência ideal de deferência e valor.

Não no mundo real.

Quando a borracha encontra a estrada, qualquer tipo de IA que tenha até mesmo um mínimo de complexidade testará desagradavelmente os preceitos de Ética da IA ​​quanto a alguns dos elementos serem suficientemente atingíveis sobre alguns dos outros princípios. Sei que você pode estar exclamando em voz alta que toda IA ​​deve maximizar todos os preceitos de Ética da IA, mas isso não é especialmente realista. Se essa é a posição que você deseja tomar, ouso dizer que provavelmente precisaria dizer à maioria ou quase todos os fabricantes e usuários de IA para fecharem as portas e acabarem com a IA completamente.

Compromissos precisam ser feitos para que a IA saia da porta. Dito isso, não estou defendendo atalhos que violem os preceitos de ética da IA, nem insinuando que eles devam violar as leis da IA. Um mínimo específico deve ser alcançado e, acima do qual, o objetivo é se esforçar mais. No final, um equilíbrio precisa ser cuidadosamente julgado. Esse ato de equilíbrio deve ser feito de forma consciente, explícita, legal e com a Ética da IA ​​como uma crença genuína e sincera (você pode querer ver como as empresas estão utilizando os Conselhos de Ética da IA ​​para tentar obter essa abordagem solene, consulte o link aqui).

Aqui estão alguns pontos que a declaração ACM menciona sobre as complexidades de compensações (citadas do documento formal):

  • “As soluções devem ser proporcionais ao problema a ser resolvido, mesmo que isso afete a complexidade ou o custo (por exemplo, rejeitar o uso de videovigilância pública para uma simples tarefa de previsão).”
  • “Uma ampla variedade de métricas de desempenho deve ser considerada e pode ser ponderada de forma diferente com base no domínio do aplicativo. Por exemplo, em algumas aplicações de saúde, os efeitos dos falsos negativos podem ser muito piores do que os falsos positivos, enquanto na justiça criminal as consequências dos falsos positivos (por exemplo, prender uma pessoa inocente) podem ser muito piores do que os falsos negativos. A configuração do sistema operacional mais desejável raramente é aquela com precisão máxima.”
  • “Preocupações com privacidade, proteção de segredos comerciais ou revelação de análises que possam permitir que agentes mal-intencionados manipulem o sistema podem justificar a restrição de acesso a indivíduos qualificados, mas não devem ser usadas para justificar a limitação do escrutínio de terceiros ou para isentar os desenvolvedores da obrigação reconhecer e reparar erros”.
  • “A transparência deve ser combinada com processos de responsabilidade que permitem que as partes interessadas impactadas por um sistema algorítmico busquem reparação significativa pelos danos causados. A transparência não deve ser usada para legitimar um sistema ou para transferir a responsabilidade para outras partes.”
  • “Quando o impacto de um sistema é alto, um sistema mais explicável pode ser preferível. Em muitos casos, não há compromisso entre explicabilidade e precisão. Em alguns contextos, no entanto, explicações incorretas podem ser ainda piores do que nenhuma explicação (por exemplo, nos sistemas de saúde, um sintoma pode corresponder a muitas doenças possíveis, não apenas a uma).

Aqueles que estão desenvolvendo ou usando IA podem não perceber abertamente as compensações que enfrentam. Os principais líderes de uma empresa podem presumir ingenuamente que a IA atende ao máximo em todos os princípios de Ética da IA. Eles acreditam nisso porque não têm ideia sobre a IA, ou querem acreditar nisso e talvez estejam piscando para adotar prontamente a IA.

As chances são de que deixar de confrontar substantiva e abertamente as compensações acabe com uma IA que produzirá danos. Esses danos, por sua vez, provavelmente abrirão uma empresa para responsabilidades potencialmente em grande escala. Além disso, as leis convencionais podem se aplicar a possíveis atos criminosos associados à IA, juntamente com as novas leis focadas na IA que martelam nisso também. Uma tonelada de tijolos está esperando acima das cabeças daqueles que pensam que podem contornar os tradeoffs ou que desconhecem profundamente que os tradeoffs existem (uma compreensão esmagadora cairá inevitavelmente sobre eles).

Por enquanto, darei a última palavra sobre este tópico para o aspecto conclusivo do pronunciamento da ACM, pois acho que faz um trabalho robusto de explicar o que esses preceitos de IA ética visam macroscopicamente:

  • “As recomendações anteriores se concentram no design, desenvolvimento e uso responsável de sistemas algorítmicos; responsabilidade deve ser determinada por lei e ordem pública. O crescente poder dos sistemas algorítmicos e seu uso em aplicações vitais e consequentes significa que muito cuidado deve ser exercido ao usá-los. Esses nove princípios instrumentais devem servir de inspiração para lançar discussões, iniciar pesquisas e desenvolver métodos de governança para trazer benefícios a uma ampla gama de usuários, promovendo confiabilidade, segurança e responsabilidade. No final, é o contexto específico que define o design e o uso corretos de um sistema algorítmico em colaboração com representantes de todas as partes interessadas impactadas” (citado no documento formal).

Como as palavras de sabedoria nos dizem astutamente, uma jornada de mil milhas começa com um primeiro passo.

Eu imploro que você se familiarize com a Ética da IA ​​e com a Lei da IA, dando qualquer primeiro passo para colocá-lo em andamento e, em seguida, ajude a levar adiante esses esforços vitais. A beleza é que ainda estamos na infância de como gerenciar e lidar socialmente com a IA, portanto, você está entrando no térreo e seus esforços podem moldar comprovadamente seu futuro e o futuro de todos nós.

A jornada da IA ​​apenas começou e os primeiros passos vitais ainda estão em andamento.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/11/27/responsible-ai-relishes-mighty-boost-via-ai-ethics-proclamation-rolled-out-by-estimaed-computing- associação-de-profissão-a-acm/