A ética da IA ​​e o desastre iminente quando a lei da cidade de Nova York que exige auditorias para vieses da IA ​​entra em ação

Às vezes, a melhor das intenções é lamentavelmente frustrada por uma grave falta de atenção aos detalhes.

Um excelente exemplo dessa sabedoria sábia é digno de ser explorado.

Especificamente, vamos dar uma olhada em uma nova lei na cidade de Nova York sobre Inteligência Artificial (IA) que entrará em vigor em 1º de janeiro de 2023. Você pode facilmente ganhar uma aposta considerável de que todo tipo de confusão, consternação e problemas surgirão assim que a lei entrar em vigor. Embora os problemas não sejam por design, eles indubitavelmente ocorrerão como resultado de um design ruim ou, pelo menos, de uma estipulação insuficiente de detalhes necessários que deveriam e poderiam ter sido facilmente planejados e declarados explicitamente.

Estou me referindo a uma lei local aprovada no ano passado em 11 de dezembro de 2021, na reverenciada cidade de Nova York, que está programada para entrar em ação no início de 2023. Atualmente, estamos a apenas alguns meses do grande despertar que esta nova lei vai mexer. Eu gostaria de poder dizer que a lei ambiciosa fará perfeitamente o que deve fazer, ou seja, lidar com possíveis vieses da IA ​​no domínio da tomada de decisões de emprego. Infelizmente, embora a intenção seja louvável, vou orientá-lo através das lacunas, omissões e falta de especificidade que prejudicarão essa lei e deixarão os empregadores loucos enquanto procuram lidar com as repercussões não intencionais, mas bastante adversas.

Você pode dizer que esta é a questão clássica de seguir em frente com um plano incompleto. Uma máxima reverenciada atribuída a Dwight Eisenhower era que um plano não é nada, enquanto o planejamento é tudo. Em suma, esta lei em particular fornecerá um exemplo vívido de como os legisladores às vezes podem falhar ao não pensar antecipadamente as particularidades necessárias para que a lei cumpra seus louváveis ​​objetivos e possa ser adotada de forma seguramente razoável e prudente.

Um desastre espera.

As desculpas já estão sendo arranjadas.

Alguns especialistas disseram que você nunca pode especificar completamente uma lei e tem que vê-la em ação para saber quais aspectos da lei precisam ser ajustados (um truísmo geral que está sendo distorcido desproporcionalmente neste caso). Além disso, eles argumentam acaloradamente que esse é especialmente o caso quando se trata da novidade emergente das leis relacionadas à IA. Caramba, eles exortam, a IA é uma feitiçaria de alta tecnologia sobre a qual não sabemos muito como legisladores, portanto, a lógica é que ter algo colocado nas páginas legais é melhor do que não ter nada lá.

Na superfície, isso certamente soa persuasivo. Vá mais fundo e você perceberá que é potencialmente hooey, inclusive e particularmente no caso desta lei específica. Esta lei poderia ser prontamente estipulada de forma mais hábil e judiciosa. Não precisamos de poções mágicas. Não precisamos esperar até que surjam ruínas. Na época em que a lei foi elaborada, o tipo certo de redação e detalhes poderiam ter sido estabelecidos.

Vamos também nos certificar de que a ideia imprópria e flutuante de que os aspectos da adoção não poderiam ser adivinhados de antemão é dolorosamente absurda. É um aceno de mão legal mumbo-jumbo do tipo mais vazio. Há muitas considerações já conhecidas sobre como lidar com vieses de IA e realizar auditorias de IA que poderiam ter sido prontamente incorporadas a essa lei. O mesmo pode ser dito para qualquer outra jurisdição que pretenda estabelecer tal lei. Não se deixe enganar acreditando que devemos apenas recorrer a lançar cegamente um dardo legal aos ventos selvagens e sofrer angústia. Uma dose de pensamento jurídico combinado com uma compreensão adequada da IA ​​já é viável e não há necessidade de se agarrar apenas a canudos.

Posso acrescentar que ainda há tempo para corrigir isso. O relógio ainda está correndo. Pode ser possível acordar antes que os alarmes comecem a tocar. O aconselhamento necessário pode ser obtido e divulgado. O tempo é curto, por isso deve ser dada a devida prioridade.

Em qualquer caso, certifique-se de que você está entendendo a ênfase aqui.

Permitam-me esclarecer fervorosamente que tal lei sobre preconceitos de IA tem mérito. Vou explicar o porquê momentaneamente. Também descreverei quais problemas existem com essa nova lei que muitos diriam ser a primeira a ser colocada nos livros jurídicos (existem outras variações, talvez não exatamente como esta).

De fato, você pode esperar que leis semelhantes venham gradualmente a existir em todo o país. Uma preocupação notável é que, se essa tentativa de pioneirismo de Nova York der errado, isso pode fazer com que o resto do país fique cauteloso em promulgar tais leis. Essa não é a lição certa a ser aprendida. A lição correta é que se você vai escrever tal lei, faça-o com sensatez e com a devida consideração.

As leis lançadas nos livros sem a devida verificação podem ser bastante perturbadoras e criar todo tipo de dificuldades a jusante. Nesse sentido das coisas, por favor, não jogue o bebê fora com a água do banho (um velho ditado, provavelmente deveria ser aposentado). A essência é que tais leis podem ser genuinamente produtivas e protetoras quando corretamente compostas.

Este em particular, infelizmente, não vai fazê-lo fora do portão.

Todos os tipos de orientação em pânico são obrigados a vir dos executores e executores da lei. Marque seus calendários para o final de janeiro e fevereiro de 2023 para assistir à disputa. O apontar de dedos será imensamente intenso.

Ninguém está gritando especialmente agora porque a lei ainda não caiu nas cabeças dos empregadores que serão prejudicados pela nova lei. Imagine que este é um tipo de terremoto metaforicamente falando que está programado para ocorrer nas primeiras semanas de 2023. Poucos estão se preparando para o terremoto. Muitos nem sabem que o terremoto já está no calendário. Tudo isso dito, uma vez que o terremoto aconteça, muitas empresas muito surpresas e chocadas vão se perguntar o que aconteceu e por que a bagunça aconteceu.

Tudo isso tem implicações notavelmente significativas na ética da IA ​​e oferece uma janela útil para as lições aprendidas (mesmo antes de todas as lições acontecerem) quando se trata de tentar legislar a IA. Para minha cobertura contínua e extensa de Ética em IA, IA Ética, juntamente com Lei de IA em meio às facetas legais da governança de IA, podem ser encontradas em o link aqui e o link aqui, para nomear apenas alguns.

Este conto legal de aflição está relacionado a preocupações emergentes anteriores sobre a IA de hoje e especialmente o uso de Machine Learning (ML) e Deep Learning (DL) como uma forma de tecnologia e como ela está sendo utilizada. Veja, há usos de ML/DL que tendem a envolver a IA ser antropomorfizada pelo público em geral, acreditando ou optando por assumir que a ML/DL é IA senciente ou próxima (não é). Além disso, ML/DL pode conter aspectos de correspondência de padrões computacionais que são indesejáveis ​​ou totalmente impróprios, ou ilegais do ponto de vista ético ou legal.

Pode ser útil primeiro esclarecer o que quero dizer ao me referir à IA em geral e também fornecer uma breve visão geral do Machine Learning e Deep Learning. Há uma grande confusão sobre o que a Inteligência Artificial conota. Eu também gostaria de apresentar os preceitos da Ética da IA ​​para você, que serão especialmente essenciais para o restante deste discurso.

Declarando o registro sobre a IA

Vamos nos certificar de que estamos na mesma página sobre a natureza da IA ​​de hoje.

Não há nenhuma IA hoje que seja senciente.

Nós não temos isso.

Não sabemos se a IA senciente será possível. Ninguém pode prever adequadamente se alcançaremos a IA senciente, nem se a IA senciente de alguma forma milagrosamente surgirá espontaneamente em uma forma de supernova cognitiva computacional (geralmente chamada de The Singularity, veja minha cobertura em o link aqui).

Perceba que a IA de hoje não é capaz de “pensar” de forma semelhante ao pensamento humano. Quando você interage com Alexa ou Siri, as capacidades de conversação podem parecer semelhantes às capacidades humanas, mas a realidade é que é computacional e carece de cognição humana. A era mais recente da IA ​​fez uso extensivo de Machine Learning e Deep Learning, que alavancam a correspondência de padrões computacionais. Isso levou a sistemas de IA que têm a aparência de tendências humanas. Enquanto isso, não há nenhuma IA hoje que tenha uma aparência de bom senso e nem a maravilha cognitiva do pensamento humano robusto.

Parte do problema é nossa tendência de antropomorfizar computadores e especialmente a IA. Quando um sistema de computador ou IA parece agir de maneira que associamos ao comportamento humano, há um desejo quase irresistível de atribuir qualidades humanas ao sistema. É uma armadilha mental comum que pode agarrar até o cético mais intransigente sobre as chances de alcançar a senciência.

Até certo ponto, é por isso que a ética da IA ​​e a IA ética são um tópico tão crucial.

Os preceitos da Ética da IA ​​nos fazem permanecer vigilantes. Os tecnólogos de IA às vezes podem ficar preocupados com a tecnologia, particularmente com a otimização da alta tecnologia. Eles não estão necessariamente considerando as maiores ramificações sociais. Ter uma mentalidade de ética em IA e fazê-lo integralmente no desenvolvimento e campo de IA é vital para a produção de IA apropriada, incluindo a avaliação de como a ética de IA é adotada pelas empresas.

Além de empregar os preceitos da Ética da IA ​​em geral, há uma questão correspondente sobre se devemos ter leis para governar vários usos da IA. Novas leis estão sendo divulgadas nos níveis federal, estadual e local que dizem respeito ao alcance e à natureza de como a IA deve ser concebida. O esforço para redigir e promulgar tais leis é gradual. A ética da IA ​​serve como um paliativo considerado, no mínimo, e quase certamente, em algum grau, será diretamente incorporado a essas novas leis.

Esteja ciente de que alguns argumentam inflexivelmente que não precisamos de novas leis que cubram a IA e que nossas leis existentes são suficientes. Eles avisam que, se promulgarmos algumas dessas leis de IA, estaremos matando o ganso de ouro ao reprimir os avanços na IA que oferecem imensas vantagens sociais. Veja por exemplo minha cobertura em o link aqui.

Em colunas anteriores, cobri os vários esforços nacionais e internacionais para criar e promulgar leis que regulam a IA, veja o link aqui, por exemplo. Também abordei os vários princípios e diretrizes de Ética em IA que várias nações identificaram e adotaram, incluindo, por exemplo, o esforço das Nações Unidas, como o conjunto de Ética em IA da UNESCO que quase 200 países adotaram. o link aqui.

Aqui está uma lista útil de critérios ou características de IA ética em relação aos sistemas de IA que explorei de perto anteriormente:

  • Transparência
  • Justiça e equidade
  • Não-Maleficência
  • Social Corporativa
  • Privacidade
  • Beneficência
  • Liberdade e autonomia
  • Confiança
  • Sustentabilidade
  • Dignidade
  • Solidariedade

Esses princípios de ética da IA ​​devem ser utilizados por desenvolvedores de IA, juntamente com aqueles que gerenciam os esforços de desenvolvimento de IA e até mesmo aqueles que, em última análise, colocam em campo e realizam manutenção em sistemas de IA. Todas as partes interessadas em todo o ciclo de vida de desenvolvimento e uso da IA ​​são consideradas dentro do escopo de cumprir as normas estabelecidas da IA ​​Ética. Este é um destaque importante, pois a suposição usual é que “somente codificadores” ou aqueles que programam a IA estão sujeitos a aderir às noções de Ética da IA. Como anteriormente enfatizado aqui, é preciso uma aldeia para conceber e colocar em campo a IA, e para a qual toda a aldeia deve ser versada e obedecer aos preceitos da Ética da IA.

Vamos manter as coisas no chão e nos concentrar na IA computacional não senciente de hoje.

ML/DL é uma forma de correspondência de padrões computacional. A abordagem usual é reunir dados sobre uma tarefa de tomada de decisão. Você alimenta os dados nos modelos de computador ML/DL. Esses modelos buscam encontrar padrões matemáticos. Depois de encontrar esses padrões, se encontrados, o sistema de IA usará esses padrões ao encontrar novos dados. Na apresentação de novos dados, os padrões baseados nos dados “antigos” ou históricos são aplicados para tornar uma decisão atual.

Eu acho que você pode adivinhar onde isso está indo. Se os humanos que tomaram as decisões padronizadas estão incorporando vieses indesejáveis, as chances são de que os dados reflitam isso de maneiras sutis, mas significativas. A correspondência de padrões computacionais de aprendizado de máquina ou aprendizado profundo simplesmente tentará imitar matematicamente os dados de acordo. Não há aparência de senso comum ou outros aspectos sensíveis da modelagem criada por IA per se.

Além disso, os desenvolvedores de IA também podem não perceber o que está acontecendo. A matemática misteriosa no ML/DL pode dificultar a descoberta dos preconceitos agora ocultos. Você esperaria e esperaria, com razão, que os desenvolvedores de IA testassem os vieses potencialmente enterrados, embora isso seja mais complicado do que possa parecer. Existe uma chance sólida de que, mesmo com testes relativamente extensos, ainda haja vieses embutidos nos modelos de correspondência de padrões do ML/DL.

Você poderia usar um pouco o famoso ou infame ditado de trash-in garbage out. O problema é que isso é mais parecido com preconceitos que insidiosamente são infundidos como preconceitos submersos na IA. O algoritmo de tomada de decisão (ADM) da IA ​​torna-se axiomaticamente carregado de iniquidades.

Não é bom.

Acredito que agora preparei o cenário para discutir suficientemente o papel da IA ​​dentro da rubrica de desistência silenciosa.

IA que é usada na tomada de decisões de emprego

A lei da cidade de Nova York se concentra no tópico da tomada de decisões de emprego.

Se você recentemente tentou se candidatar a um emprego moderno em quase qualquer lugar do mundo, provavelmente encontrou um elemento baseado em IA no processo de tomada de decisão de emprego. Claro, você pode não saber que está lá, pois pode estar escondido nos bastidores e você não teria uma maneira pronta de discernir que um sistema de IA estava envolvido.

Um bordão comum usado para se referir a esses sistemas de IA é que eles são considerados Ferramentas de decisão de emprego automatizadas, abreviado como AEDT.

Vejamos como a lei de Nova York definiu essas ferramentas ou aplicativos que envolvem a tomada de decisões trabalhistas:

  • “O termo 'ferramenta automatizada de decisão de emprego' significa qualquer processo computacional, derivado de aprendizado de máquina, modelagem estatística, análise de dados ou inteligência artificial, que emite saída simplificada, incluindo uma pontuação, classificação ou recomendação, que é usada para auxiliar substancialmente ou substituir a tomada de decisões discricionárias por decisões de emprego que afetem as pessoas físicas. O termo 'ferramenta automatizada de decisão de emprego' não inclui uma ferramenta que não automatize, apoie, auxilie substancialmente ou substitua os processos de tomada de decisão discricionária e que não afete materialmente pessoas físicas, incluindo, mas não limitado a, um filtro de lixo eletrônico, firewall, software antivírus, calculadora, planilha, banco de dados, conjunto de dados ou outra compilação de dados” (NYC, Int 1894-2020, Subcapítulo 25, Seção 20-870).

Examinarei brevemente essa redação, pois é vital para toda a natureza e escopo da lei.

Primeiro, como afirmei muitas vezes em meus escritos, um dos obstáculos mais difíceis ao escrever leis sobre IA consiste em tentar definir adequadamente o que IA significa. Não existe um único padrão à prova de balas que todos tenham concordado legalmente. Todos os tipos de definições existem. Alguns são úteis, outros não. Veja minhas análises em o link aqui.

Você pode ficar tentado a pensar que não importa especialmente como podemos definir IA. Desculpe, mas você estaria errado sobre isso.

A questão é que, se a definição de IA for vagamente especificada em uma determinada lei, ela permite que aqueles que desenvolvem IA tentem contornar a lei aparentemente alegando que seu software ou sistema não é infundido por IA. Eles argumentariam com grande ousadia que a lei não se aplica ao seu software. Da mesma forma, alguém que usa o software também pode alegar que a lei não se aplica a eles porque o software ou sistema que está usando está fora da definição de IA estabelecida na lei.

Os humanos são complicados assim.

Uma das maneiras mais astutas de evitar ser derrotado por uma lei que você não é a favor é afirmar que a lei não se aplica a você. Nesse caso, você procuraria desmontar a definição de AEDT aos poucos. Seu objetivo, supondo que você não queira que a lei fique nas suas costas, seria argumentar legalmente que a definição dada na lei está errada sobre o que seu sistema de computador relacionado ao emprego é ou faz.

Uma lei desse tipo pode ser tanto ajudada quanto às vezes prejudicada por ter incluído propositalmente estipulações de exclusão na definição.

Dê uma olhada novamente na definição de AEDT conforme declarado nesta lei. Espera-se que você tenha observado que existe uma cláusula de exclusão que diz “… não inclui uma ferramenta que não automatize, apoie, auxilie substancialmente ou substitua os processos de tomada de decisão discricionária e que não afete materialmente as pessoas físicas…”.

Por um lado, a base para incluir tal exclusão é decididamente útil.

Parece estar sugerindo (na minha visão de leigo) que o AEDT deve fornecer um propósito específico e ser utilizado de maneira substantiva. Se o AEDT for, digamos, superficial ou periférico, e se a decisão de contratação ainda for bastante feita à mão, talvez o sistema de software usado não deva ser interpretado como um AEDT. Além disso, se o software ou sistema não está “materialmente” impactando pessoas físicas (humanos), então não parece valer a pena manter os pés no fogo, por assim dizer.

De forma sensata, você não quer que uma lei exagere seu escopo e engolfe tudo, incluindo a pia da cozinha. Fazer isso é essencialmente injusto e oneroso para aqueles que a lei não pretendia abranger. Eles podem ser pegos em um pântano que age como uma dessas redes de pesca pega-tudo. Presumivelmente, nossas leis devem ser cuidadosas para evitar arrastar os inocentes para o âmbito da lei.

Tudo está bem e bom.

Um advogado experiente é obrigado a perceber que uma cláusula de exclusão pode ser uma espécie de cartão legal de saída da prisão (como um aparte, esta lei específica estipula penalidades civis, não penalidades criminais, então o sair da cadeia observação é meramente metafórica e para uma pungência saborosa). Se alguém afirmasse que uma empresa estava usando um AEDT no processamento de empregos, uma das primeiras maneiras de tentar superar essa alegação seria argumentar que o chamado AEDT estava realmente no domínio da exclusão. Você pode tentar mostrar que o chamado AEDT não automatizar a decisão de emprego, ou não ajuda a decisão de emprego, ou não ajudar substancialmente or substituir processos decisórios discricionários.

Você pode então seguir o caminho tortuoso de identificar o que as palavras “automatizar”, “apoiar”, “auxiliar substancialmente” ou “substituir” significam neste contexto. É uma toca de coelho legal bastante útil. Um argumento convincente pode ser feito de que o software ou sistema alegadamente um AEDT faz parte das indicações de exclusão. Portanto, nenhum dano, nenhuma falta, em relação a esta lei em particular.

Obviamente, advogados licenciados devem ser consultados para tais assuntos (nenhuma aparência de aconselhamento jurídico é indicada aqui e esta é uma visão inteiramente de leigos).

Meu ponto aqui é que haverá espaço de manobra nesta nova lei. A margem de manobra permitirá que alguns empregadores que estão genuinamente usando um AEDT encontrem uma brecha para contornar o uso do AEDT. O outro lado dessa moeda é que pode haver empresas que não estão genuinamente usando um AEDT que serão enredadas por essa lei. Pode ser feita uma alegação de que o que eles estavam usando era de fato um AEDT, e eles precisarão encontrar um meio de mostrar que seu software ou sistema caiu fora do AEDT e na disposição de exclusão.

Podemos fazer esta previsão ousada:

  • Indubitavelmente, haverá empregadores que conscientemente estão usando um AEDT que potencialmente tentarão fugir de suas responsabilidades legais.
  • Inevitavelmente, empregadores que não estão usando um AEDT ficarão atolados em alegações de que estão usando um AEDT, forçando-os a ter que fazer um esforço “extra” para mostrar que não estão usando um AEDT.

Estarei expondo mais sobre essas inúmeras permutações e combinações quando avançarmos nesta discussão. Temos muito mais terreno a trilhar.

A utilização de um AEDT em si não é a parte desta questão que suscita preocupações demonstrativas, é a forma como o AEDT realiza as suas ações que fazem fluir a ira legal. O ponto crucial é que, se o AEDT também introduzir vieses relacionados à tomada de decisões de emprego, você estará em uma situação potencialmente quente (bem, mais ou menos).

Como podemos saber se um AEDT de fato introduz vieses carregados de IA em um esforço de tomada de decisão de emprego?

A resposta de acordo com esta lei é que uma auditoria de IA deve ser realizada.

Eu cobri anteriormente e com frequência a natureza das auditorias de IA e o que elas são, além de observar as desvantagens existentes e facetas mal definidas, como em o link aqui e o link aqui, entre muitas outras postagens semelhantes. Simplificando, a noção é que, assim como você pode realizar uma auditoria financeira de uma empresa ou uma auditoria de tecnologia relacionada a um sistema de computador, você pode fazer uma auditoria em um sistema de IA. Usando técnicas, ferramentas e métodos de auditoria especializados, você examina e avalia em que consiste um sistema de IA, incluindo, por exemplo, tentar verificar se ele contém vieses de um tipo ou de outro.

Esta é uma área emergente de atenção.

Você pode esperar que esse subcampo de auditoria dedicado à auditoria de IA continue a crescer. É evidente que, à medida que teremos mais e mais sistemas de IA sendo lançados no mercado e, por sua vez, haverá cada vez mais clamor por auditorias de IA. Novas leis ajudarão a desencadear isso. Mesmo sem essas leis, haverá muitas auditorias de IA, pois pessoas e empresas afirmam que foram prejudicadas pela IA e procurarão fornecer uma indicação documentada tangível de que o dano estava presente e vinculado à IA que está sendo usada.

Os auditores de IA estarão em alta e em alta demanda.

Pode ser um trabalho emocionante. Um elemento talvez emocionante envolve estar imerso na mais recente e melhor IA. A IA continua avançando. À medida que isso acontece, um auditor de IA astuto terá que se manter alerta. Se você é um auditor que se cansou de fazer auditorias convencionais todos os dias, a sempre nova arena de auditoria de IA oferece promessas (digo isso para elevar parcialmente a estatura dos auditores, já que geralmente são os heróis desconhecidos que trabalham nas trincheiras e tendem a ser negligenciados por seus esforços).

Como um aparte, fui um auditor certificado de sistemas de computador (uma dessas designações é o CISA) e fiz auditorias de TI (Tecnologia da Informação) muitas vezes ao longo de muitos anos, incluindo auditorias de IA. Na maioria das vezes, você não recebe o reconhecimento que merece por tais esforços. Você provavelmente pode adivinhar o porquê. Em geral, os auditores tendem a encontrar coisas erradas ou quebradas. Nesse sentido, eles estão sendo bastante úteis, embora isso possa ser percebido por alguns como más notícias, e o mensageiro de más notícias geralmente não é especialmente colocado em um pedestal.

De volta ao assunto em questão.

Em relação à lei de Nova York, aqui está o que a lei diz sobre auditoria de IA e busca descobrir vieses de IA:

  • “O termo 'auditoria parcial' significa uma avaliação imparcial por um auditor independente. Essa auditoria de viés deve incluir, mas não se limitar ao teste de uma ferramenta automatizada de decisão de emprego para avaliar o impacto díspar da ferramenta em pessoas de qualquer categoria do componente 1 que deve ser relatada pelos empregadores de acordo com a subseção (c) da seção 2000e-8 do título 42 do código dos Estados Unidos, conforme especificado na parte 1602.7 do título 29 do código de regulamentos federais” (NYC, Int 1894-2020, Subcapítulo 25, Seção 20-870).

Recapitulando, aqui é onde estamos até agora para descompactar esta lei:

  • A lei abrange as ferramentas automatizadas de decisão de emprego (AEDT)
  • Uma definição de tipos é incluída para identificar o que é um AEDT
  • A definição de AEDT também menciona disposições de exclusão
  • A essência é que a lei quer expor vieses de IA no AEDT
  • Para descobrir se os vieses de IA estão presentes, uma auditoria de IA deve ser feita
  • A auditoria de IA presumivelmente tornará conhecidos quaisquer vieses de IA

Em seguida, podemos cavar um pouco mais na lei.

Veja em que consiste uma decisão de emprego:

  • “O termo 'decisão de emprego' significa selecionar candidatos para emprego ou funcionários para promoção dentro da cidade” (NYC, Int 1894-2020, Subcapítulo 25, Seção 20-870).

Observe que o aspecto delimitador de “a cidade” sugere que o assunto trata apenas de circunstâncias relacionadas ao emprego em Nova York. Além disso, vale a pena notar que uma decisão de emprego, conforme definida, envolve a triagem de candidatos, que é a conotação usual do que pensamos como uma decisão de emprego, além de incluir promoções também.

Este é um golpe duplo no sentido de que as empresas precisarão perceber que precisam estar no topo de como seu AEDT (se estiverem usando um) está sendo usado para configurações iniciais de emprego e também ao promover dentro da empresa. Você provavelmente pode adivinhar ou supor que muitas empresas não estarão cientes do elemento de promoções que está dentro dessa rubrica também. Eles inevitavelmente ignorarão essa construção adicional por sua própria conta e risco.

Em seguida, fornecerei um trecho chave adicional da lei para esclarecer a essência do que está sendo interpretado como ilegal por esta lei:

  • “Requisitos para ferramentas automatizadas de decisão de emprego. uma. Na cidade, será ilegal para um empregador ou agência de emprego usar uma ferramenta automatizada de decisão de emprego para selecionar um candidato ou empregado para uma decisão de emprego, a menos que: 1. Tal ferramenta tenha sido objeto de uma auditoria parcial conduzida por não mais de um ano antes do uso de tal ferramenta; e 2. Um resumo dos resultados da auditoria parcial mais recente de tal ferramenta, bem como a data de distribuição da ferramenta à qual tal auditoria se aplica, foi disponibilizada publicamente no site do empregador ou agência de emprego antes do uso de tal ferramenta…” (NYC, Int 1894-2020, Subcapítulo 25, Seção 20-871). Existem subcláusulas adicionais que você pode querer dar uma olhada, se estiver muito interessado na redação legal.

Céticos e críticos argumentam que isso parece um tanto morno quanto à atividade ilegal que está sendo denunciada.

Eles dizem que a lei apenas foca estreita e minimamente condutor uma auditoria de IA e divulgação os resultados, em vez de se a auditoria de IA descobriu vieses de IA e quais as ramificações que isso teve na tomada de decisões de emprego que estão sob o escopo desta lei. Em essência, é aparentemente ilegal não optar por realizar tal auditoria de IA (quando aplicável, conforme discutido anteriormente), além de também ser ilegal no caso se você realizar a auditoria de IA, mas não não divulgá-lo.

A lei parece silenciosa sobre a questão de saber se os vieses da IA ​​foram detectados e presentes ou não. Da mesma forma, o silêncio sobre se os vieses da IA ​​afetaram alguém relacionado a uma atividade de tomada de decisão de emprego importante. A chave é aparentemente “meramente” realizar uma auditoria de IA e contar sobre isso.

Esta lei não vai longe o suficiente?

Parte do contra-argumento para argumentar que isso é aparentemente satisfatório quanto ao alcance ou escopo do que esta lei abrange é que, se uma auditoria de IA encontrar vieses de IA e se esses vieses de IA estiverem vinculados a instâncias específicas de tomada de decisão de emprego, a pessoa ou pessoas assim prejudicadas poderiam perseguir o empregador sob de outros leis. Assim, não há necessidade de incluir esse aspecto nesta lei em particular.

Supostamente, esta lei destina-se a trazer tais questões à luz.

Uma vez que a luz do dia seja lançada sobre essas práticas desfavoráveis, todos os tipos de outras vias legais podem ser seguidas se os vieses da IA ​​forem existentes e impactantes para as pessoas. Sem essa lei, o argumento é que aqueles que usam AEDTs estariam fazendo isso enquanto possivelmente enlouquecem e têm potencialmente toneladas de vieses de IA, para os quais aqueles que procuram emprego ou promoções não saberiam que está ocorrendo.

Traga-os para a superfície. Faça-os contar. Fique sob o capô. Veja o que está dentro desse motor. Esse é o mantra neste caso. A partir dessa revelação e revelação, ações adicionais podem ser realizadas.

Além de buscar uma ação legal como resultado de esclarecer que uma auditoria de IA talvez tenha relatado que vieses de IA estavam presentes, também há a crença de que a publicação desses resultados trará repercussões à reputação. Os empregadores que estão sendo exibidos como usando AEDTs que têm preconceitos de IA provavelmente sofrerão iras sociais, como nas mídias sociais e afins. Eles serão expostos por suas maldades e envergonhados para corrigir seu comportamento, e também podem se ver privados de pessoas que procuram trabalhar lá devido aos escrúpulos de que os preconceitos da IA ​​estão impedindo a contratação ou usurpando promoções.

As penalidades declaradas associadas à ilegalidade são as seguintes:

  • “Penalidades. uma. Qualquer pessoa que viole qualquer disposição deste subcapítulo ou qualquer regra promulgada de acordo com este subcapítulo é responsável por uma multa civil de não mais de $ 500 por uma primeira violação e cada violação adicional que ocorrer no mesmo dia da primeira violação, e não inferior a $ 500 nem mais de $ 1,500 para cada violação subsequente” (NYC, Int 1894-2020, Subcapítulo 25, Seção 20-872). Existem subcláusulas adicionais que você pode querer dar uma olhada, se estiver muito interessado na redação legal.

Céticos e críticos afirmam que as penalidades não são suficientemente severas. Uma grande empresa supostamente zombaria ou riria das minúsculas multas em dólares envolvidas. Outros apontam que a multa pode acabar sendo mais do que aparenta, de modo que, se uma empresa tivesse mil dólares de violações por dia (apenas um cenário, existem muitos outros cenários), o valor de um ano seria em torno de $ 365,000, supondo que a empresa simplesmente ignorou a lei por um ano inteiro e se safou ao fazê-lo (parece difícil de imaginar, mas pode acontecer, e pode até ocorrer por mais tempo ou por uma culminação mais alta de multas diárias, em teoria).

Enquanto isso, alguns estão preocupados com empresas menores e as multas associadas. Se uma pequena empresa que mal consegue pagar as contas for atingida pelas multas, e supostamente não o fez por uma motivação deliberada para burlar a lei, as multas podem afetar materialmente seus negócios oscilantes.

As considerações problemáticas fundamentais em questão

Tenho uma pergunta simples e direta para você.

No contexto desta lei, o que exatamente constitui uma auditoria de IA?

Problematicamente, não há indicação definitiva dentro da narrativa da lei. Tudo o que parece ser dito é que a “auditoria de viés” deve ser realizada por meio de “uma avaliação imparcial por um auditor independente” (conforme a redação da lei).

Você pode dirigir um caminhão Mac por esse buraco.

Aqui está o porquê.

Considere este exemplo bastante desconcertante. Um golpista entra em contato com uma empresa em Nova York e explica que eles fornecem um serviço para fazer a chamada “auditoria de viés” de seu AEDT. Eles prometem que o farão “imparcialmente” (o que quer que isso signifique). Eles se apresentam como auditores independentes e se ungiram como um. Não há necessidade de nenhum tipo de treinamento em contabilidade ou auditoria, diplomas, certificações ou qualquer coisa do tipo. Talvez eles se dêem ao trabalho de imprimir alguns cartões de visita ou criarem às pressas um site divulgando sua posição de auditor independente.

Eles cobrarão da empresa uma taxa modesta de, digamos, US$ 100. O serviço deles consiste em talvez fazer algumas perguntas sobre o AEDT e depois proclamar que o AEDT é livre de preconceitos. Em seguida, eles enviam um relatório de uma página e declara os “resultados” da chamada auditoria. A empresa obedientemente publica isso em seu site.

A empresa cumpriu essa lei?

Diz-me tu.

Parece que eles têm.

Você pode se surpreender imediatamente com o fato de a auditoria ter sido feita de maneira superficial (isso é ser educado e generoso nesse cenário específico). Você pode se incomodar que a detecção de viés (ou a falta dela) tenha sido essencialmente predeterminada (voila, você parece estar livre de viés). Você pode ficar chateado porque os resultados publicados podem dar uma aura de ter passado por uma auditoria rigorosa por um auditor de boa-fé experiente, treinado, experiente e certificado.

Sim, isso faz sobre o tamanho das coisas.

Um empregador pode ficar aliviado por ter concluído esse requisito “bobo” e feliz por ter custado apenas míseros US $ 100. O empregador pode perceber interna e silenciosamente que a auditoria independente foi uma farsa, mas aparentemente isso não está em seus ombros para decidir. Eles foram apresentados a um auditor independente, o auditor fez o trabalho que o auditor disse estar em conformidade, a empresa pagou por isso, eles obtiveram os resultados e publicaram os resultados.

Alguns empregadores farão isso e perceberão que estão cumprindo a lei. No entanto, eles acreditarão que estão sendo totalmente compatíveis.

Outros empregadores podem ser enganados. Tudo o que eles sabem é a necessidade de cumprir a lei. Felizmente para eles (ou assim eles supõem), um “auditor independente” entra em contato com eles e promete que uma auditoria e resultado da reclamação podem ser obtidos por US$ 100. Para evitar receber essa multa diária de US$ 500 ou mais, a empresa acha que recebeu um presente dos céus. Eles pagam os US $ 100, a “auditoria” ocorre, eles recebem um atestado de saúde gratuito pela falta de vieses de IA, publicam os resultados e esquecem isso até a próxima vez que precisarem fazer outra auditoria desse tipo .

Como todas as empresas em Nova York que estão sujeitas a essa lei devem saber o que é conformidade de boa-fé com a lei?

Caso você ainda não esteja com o estômago embrulhado, podemos piorar as coisas. Espero que você não tenha comido nas últimas horas, já que a próxima reviravolta será difícil de manter intacta.

Está pronto para começar?

Este provedor de serviços falso acaba sendo mais falso do que você imagina. Eles fazem com que a empresa se inscreva no serviço de US$ 100 para fazer a auditoria de viés imparcial como auditor independente. E eis que eles fazem a “auditoria” e descobrem que há preconceitos em todos os cantos do AEDT.

Eles têm preconceitos de IA como uma infestação de baratas.

Caramba, diz a empresa, o que podemos fazer sobre isso?

Não há problema, eles são informados, podemos corrigir esses vieses de IA para você. Custará apenas US $ 50 por cada viés encontrado. Ok, a empresa diz, por favor, conserte-os, obrigado por fazê-lo. O provedor de serviços faz um pouco de codificação e diz à empresa que eles corrigiram cem vieses de IA e, portanto, cobrará US $ 5,000 (ou seja, US $ 50 por viés de IA a ser corrigido, multiplicado pelos 100 encontrados).

Ai, a empresa se sente pressionada, mas ainda é melhor do que enfrentar a violação de US $ 500 ou mais por dia, então eles pagam o “auditor independente” e recebem um novo relatório mostrando que agora estão livres de preconceitos. Eles postam isso com orgulho em seu site.

Mal sabem eles que isso foi um boondoggle, uma fraude, uma farsa.

Você pode insistir que esse provedor de serviços seja punido por sua trapaça. Pegar e parar esses trapaceiros vai ser muito mais difícil do que você imagina. Assim como ir atrás daqueles príncipes estrangeiros que têm uma fortuna para você provavelmente em alguma terra estrangeira além do alcance da lei dos Estados Unidos, o mesmo pode ocorrer neste caso também.

Espere que uma indústria caseira surja devido a esta nova lei.

Haverá auditores de boa-fé que procurarão fornecer esses serviços. Bom para eles. Haverá auditores esboçados que vão atrás deste trabalho. Haverá auditores falsamente proclamados que vão atrás deste trabalho.

Mencionei que o cenário do provedor de serviços envolvia pedir US$ 100 para fazer a chamada auditoria de IA. Isso foi apenas um espaço reservado inventado. Talvez alguns vão cobrar $ 10 (parece esboçado). Talvez uns $50 (ainda incompletos). etc.

Suponha que um provedor de serviços diga que custará $ 10,000 para fazer o trabalho.

Ou $ 100,000 para fazê-lo.

Possivelmente $ 1,000,000 para fazê-lo.

Alguns empregadores não têm a menor idéia de quanto isso pode ou deve custar. A comercialização desses serviços será gratuita. Esta é uma lei lucrativa para aqueles que executam esses serviços legitimamente e um gerador de dinheiro para aqueles que estão sendo dissimulados ao fazê-lo também. Vai ser difícil saber qual é qual.

Também vou pedir que contemplem outro buraco.

No contexto desta lei, o que exatamente constitui um viés de IA?

Além da menção ao código de regulamentações federais dos Estados Unidos (isso não responde particularmente à questão dos vieses da IA ​​e, portanto, não serve como um paliativo ou solucionador sobre o assunto), você teria dificuldade em afirmar que esse novo A lei fornece qualquer indicação substantiva de quais são os vieses da IA. Mais uma vez, isso estará inteiramente aberto a interpretações amplamente díspares e você não saberá especialmente o que foi procurado, o que foi encontrado e assim por diante. Além disso, o trabalho realizado mesmo por auditores de IA genuínos provavelmente será incomparável a outro, de modo que cada um tenderá a usar suas definições e abordagens proprietárias.

Em suma, podemos observar com apreensão e preocupação o que os empregadores encontrarão como resultado dessa lei mal-intencionada, embora bem-intencionada:

  • Alguns empregadores saberão sobre a lei e cumprirão com seriedade e totalmente o melhor de sua capacidade
  • Alguns empregadores conhecerão a lei e cumprirão marginalmente o caminho mais fino, barato e possivelmente desagradável que puderem encontrar ou que chegar à sua porta
  • Alguns empregadores saberão sobre a lei e acreditarão que não estão dentro do escopo da lei, então não farão nada sobre isso (embora, acabe, eles possam estar no escopo)
  • Alguns empregadores saberão sobre a lei e decidirão ignorá-la, talvez acreditando que ninguém notará ou que a lei não será aplicada, ou que a lei será considerada inexequível, etc.
  • Alguns empregadores não saberão sobre a lei e serão pegos de surpresa, lutando para cumprir
  • Alguns empregadores não saberão sobre a lei e serão miseravelmente roubados por vigaristas
  • Alguns empregadores não sabem sobre a lei, eles não estão dentro do escopo, mas ainda assim são espoliados de qualquer maneira por vigaristas que os convencem de que estão dentro do escopo
  • Alguns empregadores não saberão sobre a lei e não farão nada sobre isso, enquanto milagrosamente nunca são pegos ou prejudicados por sua supervisão
  • Outros

Uma consideração crucial a ter em mente é a magnitude ou escala associada a essa nova lei.

De acordo com várias estatísticas relatadas sobre o número de empresas na cidade de Nova York, a contagem geralmente é indicada como algo em torno de 200,000 ou mais empresas (vamos usar isso como uma ordem de magnitude). Assumindo que esta é uma aproximação razoável, presumivelmente aquelas empresas como empregadores estão sujeitas a esta nova lei. Assim, tome as várias maneiras acima mencionadas em que os empregadores vão reagir a esta lei e contemple quantos estarão em cada um dos vários baldes que acabei de mencionar.

É um problema de escala bastante impressionante.

Além disso, de acordo com estatísticas relatadas, existem talvez 4 milhões de empregos no setor privado na cidade de Nova York, além de uma contagem estimada de 300,000 funcionários públicos empregados pelo governo de Nova York (novamente, use-os como ordens de magnitude em vez de contagens precisas). Se você levar em conta que novas contratações estão aparentemente dentro do escopo desta nova lei, juntamente com promoções associadas a todos os trabalhadores existentes e futuros, o número de funcionários que de uma forma ou de outra serão afetados por esta lei é francamente surpreendente .

A Big Apple tem uma nova lei que à primeira vista parece ser inócua e ostensivamente insignificante ou mundana, mas quando você percebe os fatores de escala envolvidos, bem, isso pode fazer sua cabeça girar

Conclusão

Mencionei no início desta discussão que esta é uma nova lei bem intencionada.

Tudo o que acabei de descrever como possíveis brechas, omissões, lacunas, problemas e coisas do gênero, poderia ser facilmente antecipado. Isso não é ciência de foguetes. Devo acrescentar que há ainda mais preocupações inerentes e aspectos confusos a essa lei que, devido a restrições de espaço aqui, não chamei a atenção.

Você pode encontrá-los tão prontamente quanto atirar em um peixe em um barril.

Leis desse tipo devem ser cuidadosamente elaboradas para tentar evitar esse tipo de finalização sorrateira. Presumo que os compositores sérios procuraram escrever uma lei que eles acreditavam ser relativamente rígida e que talvez, na pior das hipóteses, tivesse algumas gotinhas aqui ou ali. Lamentavelmente, é uma mangueira de incêndio de pingos. Vai ser necessária muita fita adesiva.

A lei poderia ter sido escrita de uma forma mais elucidada para fechar essas brechas bastante aparentes e questões associadas?

Sim, abundantemente.

Agora, sendo esse o caso, você pode exortar indignado que tal lei seria, sem dúvida, muito mais longa. Há sempre uma troca de ter uma lei que continua e continua, tornando-se pesada, versus ser sucinta e compacta. No entanto, você não quer ganhar concisão com a perda do que seria clareza e especificidade substantivas e meritórias. Uma lei curta que permite travessuras é repleta de problemas. Uma lei mais longa, mesmo que aparentemente mais complexa, geralmente seria uma compensação válida se evitasse, evitasse ou pelo menos minimizasse os problemas posteriores durante o estágio de adoção.

Santo Agostinho disse: “Parece-me que uma lei injusta não é lei alguma”.

Podemos fornecer um corolário de que uma lei justa composta de linguagem problemática é uma lei que implora para produzir problemas severos. Neste caso, parece que ficamos com as sábias palavras do grande jurista Oliver Wendell Holmes Jr., a saber, que uma página de história vale um quilo de lógica.

Esteja assistindo como a história está prestes a ser feita.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/09/23/ai-ethics-and-the-looming-debacle-when-that-new-york-city-law-requiring-ai- vieses-auditorias-chutes-em-engrenagem/