Veja por que as empresas estão tendo um relacionamento tumultuado de amor e ódio com os conselhos de ética da IA

Uma empresa deve estabelecer um conselho consultivo de ética em IA?

Você pode se surpreender ao saber que essa não é uma resposta fácil de sim ou não.

Antes de entrar nas complexidades subjacentes aos prós e contras de criar um conselho consultivo de ética em IA, vamos nos certificar de que estamos todos na mesma página sobre o que consiste um conselho consultivo de ética em IA e por que ele subiu para o nível de manchete proeminência.

Como todos sabem, a Inteligência Artificial (IA) e o uso prático da IA ​​para atividades de negócios passaram do telhado como um must-have para as empresas modernas. Você seria duramente pressionado para argumentar o contrário. Até certo ponto, a infusão de IA tornou os produtos e serviços melhores, além de, às vezes, levar a custos mais baixos associados ao fornecimento desses produtos e serviços. Uma lista bacana de eficiências e aumentos de eficácia pode ser potencialmente atribuída à aplicação sensata e apropriada da IA. Em suma, a adição ou aumento do que você faz incorporando a IA pode ser uma proposta bastante lucrativa.

Há também o digamos grande respingo que vem com a adição de IA em seus empreendimentos corporativos.

As empresas são barulhentas e orgulhosas sobre o uso da IA. Se a IA também melhorar seus produtos, isso é ótimo. Enquanto isso, as alegações de uso da IA ​​chamam a atenção o suficiente para que você possa fazer as mesmas coisas que fazia antes, mas ganhar muito mais dinheiro ou globos oculares lançando a bandeira da IA ​​como parte de sua estratégia de negócios. mercadorias da porta.

Esse último ponto sobre às vezes fingir um pouco sobre se a IA está realmente sendo usada nos leva à arena da Ética da IA. Há todo tipo de alegações falsas sobre IA feitas por empresas. Pior ainda, talvez, consiste em usar a IA que acaba por ser o chamado AI para mau.

Por exemplo, você sem dúvida leu sobre as muitas instâncias de sistemas de IA usando Machine Learning (ML) ou Deep Learning (DL) que têm preconceitos raciais arraigados, preconceitos de gênero e outras práticas discriminatórias indevidas. Para minha cobertura contínua e extensa desses assuntos relacionados à IA adversa e ao surgimento de clamores por Ética em IA e IA Ética, consulte o link aqui e o link aqui, Apenas para nomear alguns.

Portanto, temos esses fatores azedos ocultos no uso aparentemente promissor da IA ​​pelas empresas:

  • Reivindicações vazias de uso de IA quando, na verdade, não há IA ou infusão de IA insignificante
  • Alegações falsas sobre o uso de IA que são intencionalmente concebidas para enganar
  • Inclusão inadvertida de IA que acaba imbuindo preconceitos impróprios e é discriminatória
  • IA propositadamente moldada para promulgar preconceitos ruins e ações discriminatórias desprezíveis
  • Outros

Como esses tipos de práticas impensadas ou vergonhosas surgem nas empresas?

Uma peça notável do quebra-cabeça é a falta de consciência da ética da IA.

Os altos executivos podem não estar cientes da própria noção de conceber IA que obedece a um conjunto de preceitos éticos de IA. Os desenvolvedores de IA em tal empresa podem ter alguma consciência do assunto, embora talvez estejam familiarizados apenas com as teorias de Ética da IA ​​e não saibam como preencher a lacuna nos esforços diários de desenvolvimento de IA. Há também a circunstância de desenvolvedores de IA que desejam adotar a Ética em IA, mas recebem uma forte reação quando gerentes e executivos acreditam que isso desacelerará seus projetos de IA e aumentará os custos de criação de IA.

Muitos executivos de alto escalão não percebem que a falta de adesão à ética da IA ​​provavelmente acabará chutando eles e a empresa em seu traseiro após o lançamento da IA, repleta de questões espinhosas e totalmente feias. Uma empresa pode ser pega com IA ruim em seu meio, o que prejudica lamentavelmente a reputação acumulada de longa data da empresa (risco de reputação). Os clientes podem optar por não mais usar os produtos e serviços da empresa (risco de perda do cliente). Os concorrentes podem capitalizar essa falha (risco competitivo). E há muitos advogados prontos para ajudar aqueles que foram transgredidos, com o objetivo de abrir processos contra empresas que permitiram IA podre em seus produtos da empresa (risco jurídico).

Em resumo, o ROI (retorno sobre o investimento) para fazer uso adequado da ética da IA ​​é quase certamente mais benéfico do que em comparação com os custos a jusante associados a sentar-se em cima de um fedor de IA ruim que não deveria ter sido concebido nem lançado.

Acontece que nem todos receberam esse memorando, por assim dizer.

A ética da IA ​​está ganhando força apenas gradualmente.

Alguns acreditam que, inevitavelmente, o longo braço da lei pode ser necessário para inspirar ainda mais a adoção de abordagens de IA Ética.

Além de empregar os preceitos da Ética da IA ​​em geral, há uma questão correspondente sobre se devemos ter leis distintas para governar vários desenvolvimentos e usos da IA. Novas leis estão de fato sendo divulgadas nos níveis internacional, federal, estadual e local que dizem respeito ao alcance e à natureza de como a IA deve ser concebida. O esforço para redigir e promulgar tais leis é medido. A ética da IA ​​serve como um paliativo considerado, no mínimo, e quase certamente, em algum grau, será diretamente incorporado a essas novas leis.

Esteja ciente de que alguns argumentam inflexivelmente que não precisamos de novas leis que cubram a IA e que nossas leis existentes são suficientes. Na verdade, eles avisam que, se promulgarmos algumas dessas leis de IA, estaremos matando a galinha dos ovos de ouro ao reprimir os avanços da IA ​​que oferecem imensas vantagens sociais. Veja por exemplo minha cobertura em o link aqui e o link aqui.

Vamos nos certificar de que estamos todos na mesma página sobre o que os fundamentos da Ética da IA ​​contêm.

Na cobertura da minha coluna, discuti anteriormente várias análises coletivas dos princípios de ética da IA, como esta avaliação em o link aqui, que oferece uma lista útil de critérios ou características de IA ética em relação aos sistemas de IA:

  • Transparência
  • Justiça e equidade
  • Não-Maleficência
  • Social Corporativa
  • Privacidade
  • Beneficência
  • Liberdade e autonomia
  • Confiança
  • Sustentabilidade
  • Dignidade
  • Solidariedade

Esses princípios de ética da IA ​​devem ser utilizados por desenvolvedores de IA, juntamente com aqueles que gerenciam os esforços de desenvolvimento de IA e até mesmo aqueles que, em última análise, trabalham e realizam manutenção em sistemas de IA.

Todas as partes interessadas em todo o ciclo de vida de desenvolvimento e uso da IA ​​são consideradas dentro do escopo de cumprir as normas estabelecidas da IA ​​Ética. Este é um destaque importante, pois a suposição usual é que “somente codificadores” ou aqueles que programam a IA estão sujeitos a aderir às noções de Ética da IA. É preciso uma vila para conceber e colocar em campo a IA, e para a qual toda a vila deve ser versada e obedecer aos preceitos da Ética da IA.

Um meio de tentar introduzir e manter atenção sustentada em relação ao uso dos preceitos de Ética da IA ​​pode ser parcialmente realizado por meio do estabelecimento de um conselho consultivo de Ética da IA.

Em seguida, descompactaremos as facetas do conselho consultivo de ética da IA.

Conselhos de ética de IA e como fazê-los corretamente

As empresas podem estar em vários estágios de adoção da IA ​​e, da mesma forma, em diferentes estágios de adoção da Ética da IA.

Visualize uma empresa que deseja adotar a ética da IA, mas não sabe como fazê-lo. Outro cenário pode ser uma empresa que já se interessou pela ética da IA, mas parece não ter certeza do que precisa ser feito para promover o esforço. Um terceiro cenário poderia ser uma empresa que vem desenvolvendo e usando ativamente a IA e internamente fez muito para incorporar a Ética da IA, embora percebam que há uma chance de estarem perdendo outros insights, talvez devido ao pensamento de grupo interno.

Para qualquer um desses cenários, a criação de um conselho consultivo de ética em IA pode ser prudente.

A noção é bastante direta (bem, para esclarecer, a noção geral é a proverbial ponta do iceberg e o diabo está certamente nos detalhes, como abordaremos momentaneamente).

Um conselho consultivo de ética da IA ​​geralmente consiste principalmente de consultores externos que são solicitados a atuar em um conselho ou comitê consultivo especial para a empresa. Também pode haver alguns participantes internos incluídos no conselho, embora geralmente a ideia seja reunir consultores de fora da empresa e isso pode trazer uma perspectiva semi-independente para o que a empresa está fazendo.

Digo semi-independente, pois sem dúvida haverá alguns potenciais conflitos de independência que podem surgir com os membros escolhidos do conselho consultivo de ética da AI. Se a empresa está pagando aos consultores, isso levanta a questão óbvia de saber se os membros pagos se sentem dependentes da empresa para receber um salário ou se podem ficar desconfortáveis ​​criticando o cavalo de presente que têm em mãos. Por outro lado, as empresas estão acostumadas a fazer uso de consultores externos pagos para todos os tipos de opiniões independentes consideradas, então isso é um pouco habitual e esperado de qualquer maneira.

O conselho consultivo de Ética da AI geralmente é solicitado a se reunir periodicamente, pessoalmente ou remotamente. Eles são usados ​​como uma caixa de ressonância pela empresa. As probabilidades também são de que os membros estejam recebendo vários documentos internos, relatórios e memorandos sobre os esforços em andamento relacionados à IA na empresa. Membros específicos do conselho consultivo de ética da IA ​​podem ser convidados a participar de reuniões internas conforme sua experiência específica. etc.

Além de poder ver o que está acontecendo com a IA dentro da empresa e fornecer novos olhos, o conselho consultivo de ética da IA ​​geralmente tem o duplo papel de ser um fornecedor de fora para dentro do que há de mais recente em IA e IA ética. Os recursos internos podem não ter tempo para investigar o que está acontecendo fora da empresa e, portanto, podem obter pontos de vista de última geração altamente focados e personalizados dos membros do conselho consultivo de ética da IA.

Há também os usos de dentro para fora de um conselho consultivo de ética em IA.

Isso pode ser complicado.

O conceito é que o conselho consultivo de Ética em IA é utilizado para informar ao mundo exterior o que a empresa está fazendo quando se trata de IA e Ética de IA. Isso pode ser útil como meio de reforçar a reputação da empresa. Os produtos e serviços com infusão de IA podem ser percebidos como mais confiáveis ​​devido ao selo de ouro de aprovação do conselho consultivo de ética da IA. Além disso, os apelos para que a empresa faça mais sobre a IA ética podem ser um pouco embotados ao apontar que um conselho consultivo de ética da IA ​​já está sendo utilizado pela empresa.

As perguntas que geralmente são trazidas a um conselho consultivo de ética da IA ​​pela empresa que utiliza esse mecanismo geralmente incluem:

  • A empresa deveria usar IA para um determinado produto ou serviço, ou isso parece muito preocupante?
  • A empresa está levando em consideração toda a gama de considerações de Ética de IA em seus esforços de IA?
  • A empresa caiu no pensamento de grupo e se tornou relutante ou incapaz de ver quedas potencialmente perturbadoras da ética da IA ​​aguardando esses esforços?
  • Que tipos de abordagens mais recentes para a ética da IA ​​a empresa deve procurar adotar?
  • Seria viável oferecer aclamação externa para nossos esforços de ética em IA e o compromisso com isso?
  • Outros

A participação em um conselho consultivo de ética em IA certamente faz sentido e as empresas têm caminhado cada vez mais por esse caminho.

Por favor, esteja ciente de que há um outro lado desta moeda.

De um lado da moeda, os conselhos consultivos de ética da IA ​​podem ser a próxima melhor coisa desde o pão fatiado. Não negligencie o outro lado da moeda, ou seja, eles também podem ser uma dor de cabeça monumental e você pode se arrepender de ter entrado nesse território arriscado (como você verá nesta discussão, as desvantagens podem ser gerenciadas, se você souber o que estão fazendo).

As empresas estão começando a perceber que podem se encontrar em apuros ao optar por seguir a rota do conselho consultivo de ética da IA. Você poderia afirmar que essa maquinação é um pouco semelhante a brincar com fogo. Veja bem, o fogo é um elemento muito poderoso que você pode usar para cozinhar refeições, protegê-lo de predadores enquanto estiver no deserto, mantê-lo aquecido, trazer luz e fornecer uma série de benefícios úteis e vitais.

O fogo também pode te queimar se você não for capaz de lidar bem com isso.

Houve várias manchetes de notícias recentes que demonstram vividamente os perigos potenciais de ter um conselho consultivo de ética em IA. Se um membro decidir sumariamente que não acredita mais que a empresa está fazendo as atividades corretas de IA Ética, o membro insatisfeito pode pedir demissão com um enorme acesso de raiva. Supondo que a pessoa provavelmente seja bem conhecida no campo da IA ​​ou na indústria, seu navio de salto certamente atrairá a atenção da mídia.

Uma empresa então tem que ir na defesa.

Por que o membro saiu?

O que a empresa está nefastamente fazendo?

Algumas empresas exigem que os membros do conselho consultivo de ética da IA ​​assinem NDAs (acordos de não divulgação), o que aparentemente protegerá a empresa se o membro decidir ser “desonesto” e destruir a empresa. O problema, porém, é que, mesmo que a pessoa permaneça relativamente silenciosa, há, no entanto, um provável reconhecimento de que ela não atua mais no conselho consultivo de ética da IA. Isso, por si só, levantará todos os tipos de perguntas de levantar as sobrancelhas.

Além disso, mesmo que exista um NDA, às vezes o membro tentará contornar as disposições. Isso pode incluir a referência a “estudos de caso” genéricos sem nome para destacar anomalias de ética em IA que eles acreditam que a empresa estava realizando de forma insidiosa.

O membro caído pode ser totalmente descarado e sair nomeando diretamente suas preocupações sobre a empresa. Se isso é uma violação clara do NDA, talvez seja menos crucial do que o fato de que está sendo espalhada a notícia de escrúpulos éticos da IA. Uma empresa que tenta processar o membro por violação do NDA pode brutalmente trazer água quente para si mesma, atiçando mais atenção para a disputa e parecendo ser o clássico duelo de Davi contra Golias (a empresa é o grande “monstro”).

Alguns executivos de alto escalão supõem que podem simplesmente chegar a um acordo financeiro com qualquer membro do conselho consultivo de ética da IA ​​que sinta que a empresa está fazendo as coisas erradas, incluindo ignorar ou minimizar as preocupações expressas.

Isso pode não ser tão fácil quanto se supõe.

Muitas vezes, os membros têm uma mente ética e devota e não recuam prontamente do que eles percebem ser uma luta ética do certo contra o errado. Eles também podem ser financeiramente estáveis ​​e não dispostos a mudar seus preceitos éticos ou podem ter outro emprego que permaneça intocado por terem deixado o conselho consultivo de ética da IA.

Como pode ser evidente, alguns percebem mais tarde que um conselho consultivo de ética em IA é uma faca de dois gumes. Há um valor tremendo e uma percepção importante que esse grupo pode transmitir. Ao mesmo tempo, você está brincando com fogo. Pode ser que um membro ou membros decidam que não acreditam mais que a empresa está fazendo um trabalho confiável de IA ética. Nas notícias, há indicações de que, às vezes, todo o conselho consultivo de ética da IA ​​se demitiu, de uma só vez, ou teve alguma preponderância dos membros anunciando que estão saindo.

Esteja pronto para o bem e os problemas que podem surgir com os conselhos consultivos de ética da IA.

Claro, há momentos em que as empresas de fato não estão fazendo as coisas certas quando se trata de ética em IA.

Portanto, esperamos e esperamos que um conselho consultivo de ética de IA nessa empresa se pronuncie para tornar isso conhecido, presumivelmente internamente dentro da empresa primeiro. Se a empresa continuar no mau caminho percebido, os membros certamente pareceriam eticamente obrigados (possivelmente legalmente também) a tomar outras medidas que julgarem apropriadas (os membros devem consultar seu advogado pessoal para qualquer aconselhamento jurídico). Pode ser que esta seja a única maneira de fazer com que a empresa mude seus caminhos. Uma ação drástica de um membro ou grupo de membros pode parecer o último recurso que os membros esperam que mude a maré. Além disso, esses membros provavelmente não querem fazer parte de algo que acreditam ardentemente ter se desviado da Ética da IA.

Uma maneira útil de considerar essas possibilidades é esta:

  • A empresa está se desviando, o membro opta por sair devido à percepção de falta de conformidade da empresa
  • A empresa não está se desviando, mas o membro acredita que a empresa está e, portanto, sai devido a uma falta de conformidade percebida

O mundo exterior não saberá necessariamente se o membro que sai tem uma base genuína de preocupação com a empresa ou se pode ser alguma idiossincrasia ou má impressão do membro. Há também a possibilidade bastante direta de um membro deixar o grupo por outros compromissos ou por motivos pessoais que nada têm a ver com o que a empresa está fazendo.

A essência é que é importante para qualquer empresa que adote um conselho consultivo de ética em IA pensar conscientemente em toda a gama de fases do ciclo de vida associadas ao grupo.

Com toda essa conversa sobre aspectos problemáticos, não quero dar a impressão de ficar longe de ter um conselho consultivo de ética em IA. Essa não é a mensagem. A verdadeira essência é ter um conselho consultivo de ética em IA e garantir que você faça isso da maneira certa. Faça disso seu mantra querido.

Aqui estão alguns dos benefícios frequentemente mencionados de um conselho consultivo de ética em IA:

  • Tenha em mãos um meio de rejeitar projetos e ideias de IA de um grupo privado semi-independente
  • Aproveite a experiência em ética da IA ​​que vem de fora da empresa
  • Procure evitar gargalhadas de ética da IA ​​e desastres diretos por parte da empresa
  • Seja um impulsionador de relações públicas para a empresa e seus sistemas de IA
  • Quebra do pensamento de grupo interno sobre IA e ética em IA
  • Obtenha um novo olhar sobre as inovações de IA e sua praticidade
  • Melhorar a posição e a estatura da empresa
  • Servir como uma voz desenfreada para quando os esforços de IA da empresa estiverem errados
  • Outros

Aqui estão algumas maneiras comuns pelas quais as empresas atrapalham e prejudicam seu conselho consultivo de ética em IA (não faça isso!):

  • Fornecer direção vaga e confusa quanto à missão e propósito
  • Apenas consultado com moderação e muitas vezes inoportuno depois que o cavalo já está fora do celeiro
  • Mantido no escuro
  • Informações altamente filtradas do Fed que fornecem uma representação enganosa das coisas
  • Usado apenas como uma vitrine e para nenhum outro objetivo de produção de valor
  • Não é permitido fazer qualquer tipo de exploração sobre assuntos internos
  • Desprovidos de recursos suficientes para realizar seu trabalho suficientemente
  • Falta de liderança explícita dentro do grupo
  • Falta de atenção da liderança da empresa em relação ao grupo
  • Espera-se que dê aprovação cega ao que for apresentado
  • Acidentais quanto aos membros escolhidos
  • Tratado com pouco respeito e aparentemente uma mera marca de seleção
  • Outros

Outro problema frequentemente confuso envolve a natureza e o comportamento dos vários membros que estão servindo em um conselho consultivo de ética em IA, o que às vezes pode ser problemático das seguintes maneiras:

  • Alguns membros podem ser apenas conceitualizadores de Ética de IA, em vez de versados ​​em Ética de IA como prática e, como tal, fornecer insights minimalistas de negócios
  • Alguns podem ser bombásticos quando se trata de ética em IA e são extraordinariamente difíceis de lidar ao longo de sua participação
  • As brigas internas podem se tornar uma distração significativa, muitas vezes confrontos de grandes egos, e fazer com que o grupo se torne disfuncional
  • Alguns podem estar excessivamente ocupados e comprometidos demais, de modo que estão distantes do esforço consultivo de ética da IA
  • Alguns têm uma opinião inabalável profundamente arraigada sobre a Ética da IA ​​que é inflexível e irreal
  • Alguns são propensos a considerações emocionais em vez de analíticas e sistêmicas subjacentes à Ética da IA
  • Pode ser semelhante ao famoso ditado de ser como um rebanho de gatos que não se concentra e vagueia sem rumo
  • Outros

Algumas empresas parecem apenas criar um conselho consultivo de ética em IA de maneira um tanto quanto queira ou não. Nenhum pensamento vai para os membros a serem selecionados. Nenhum pensamento vai para o que cada um traz para a mesa. Nenhum pensamento vai para a frequência das reuniões e como as reuniões devem ser conduzidas. Nenhum pensamento vai para a execução do conselho consultivo de ética da IA, ao todo. etc.

Em certo sentido, por sua própria falta de desenvoltura, você provavelmente está colocando um trem em movimento.

Não faça isso.

Talvez esta lista de coisas certas para fazer agora é ostensivamente óbvio para você com base no discurso até agora, mas talvez você ficasse chocado ao saber que poucas empresas parecem acertar isso:

  • Identifique explicitamente a missão e o propósito do conselho consultivo de ética da IA
  • Garantir que o grupo receba atenção apropriada de nível executivo superior
  • Identifique o tipo de membros que seria mais adequado para o grupo
  • Aproxime-se dos membros desejados e verifique o ajuste para o grupo
  • Faça arranjos adequados com os membros escolhidos
  • Estabeleça a logística das reuniões, frequência, etc.
  • Determinar os deveres dos membros, escopo e profundidade
  • Antecipar os recursos internos necessários para auxiliar o grupo
  • Alocar recursos suficientes para o próprio grupo
  • Mantenha o conselho consultivo de ética da IA ​​ativo e conectado
  • Tenha escalações pré-planejadas para quando surgirem preocupações
  • Indique como as ocorrências orientadas para emergências ou crises serão tratadas
  • Gire os membros para fora ou para dentro conforme necessário para manter a mistura adequada
  • De antemão, tenha antecipado caminhos de saída para os membros
  • Outros

Conclusão

Alguns anos atrás, muitas das montadoras e empresas de tecnologia de direção autônoma que estão embarcando na criação de carros autônomos baseados em IA foram subitamente levadas a agir para adotar conselhos consultivos de ética em IA. Até aquele momento, parecia haver pouca consciência de ter um grupo assim. Supunha-se que o foco interno na IA Ética seria suficiente.

Discuti detalhadamente em minha coluna os vários lapsos ou descuidos infelizes da ética da IA ​​que às vezes levaram a problemas de carros autônomos, como pequenos acidentes veiculares, colisões de carros evidentes e outras calamidades. o link aqui. A importância da segurança da IA ​​e das proteções semelhantes deve ser a principal consideração para aqueles que fabricam veículos autônomos. Os conselhos consultivos de ética da IA ​​neste nicho estão ajudando a manter a segurança da IA ​​como uma prioridade vital.

Minha maneira favorita de expressar esse tipo de revelação sobre a ética da IA ​​é comparar o assunto com terremotos.

Os californianos estão sujeitos a terremotos de tempos em tempos, às vezes bastante fortes. Você pode pensar que estar preparado para terremotos seria uma consideração sempre presente. Não tão. O ciclo funciona assim. Um terremoto substancial acontece e as pessoas são lembradas de estarem preparadas para o terremoto. Por um curto período de tempo, há uma corrida para realizar tais preparativos. Depois de um tempo, a atenção a isso diminui. Os preparativos caem no esquecimento ou são negligenciados. Boom, outro terremoto atinge, e todos aqueles que deveriam ter sido preparados são pegos “inconscientes” como se não tivessem percebido que um terremoto poderia ocorrer algum dia.

As empresas geralmente fazem o mesmo com os conselhos consultivos de ética da IA.

Eles não iniciam um e, de repente, após alguma catástrofe sobre sua IA, eles são estimulados a agir de forma reativa. Eles iniciam um conselho consultivo de ética em IA. Ele tem muitos dos problemas que citei anteriormente aqui. O conselho consultivo de ética da IA ​​desmorona. Ops, uma nova calamidade de IA dentro da empresa desperta a necessidade do conselho consultivo de ética da IA.

Lave, enxágue e repita.

As empresas definitivamente descobrem que às vezes têm uma relação de amor e ódio com os esforços do conselho consultivo de ética da IA. Quando se trata de fazer as coisas da maneira certa, o amor está no ar. Quando se trata de fazer as coisas da maneira errada, o ódio brota ferozmente. Certifique-se de fazer o que for necessário para manter o amor e evitar o ódio quando se trata de estabelecer e manter um conselho consultivo de ética em IA.

Vamos transformar isso em uma relação amor-amor.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/08/08/heres-why-businesses-are-have-a-tumultuous-love-hate-relationship-with-ai-ethics-boards/