A ética da IA ​​fica perplexa por aqueles eticistas de IA que “instigam” práticas éticas de IA

A salga tem sido notícia bastante ultimamente.

Não estou me referindo ao sal que você coloca na sua comida. Em vez disso, estou trazendo à tona a “salga” que está associada a uma prática provocativa e aparentemente altamente controversa associada à interação entre trabalho e negócios.

Você vê, esse tipo de salga envolve a circunstância em que uma pessoa tenta ser contratada em uma empresa para iniciar ostensivamente ou alguns poderiam dizer instigar o estabelecimento de um sindicato. As últimas notícias que discutem esse fenômeno apontam para empresas como Starbucks, Amazon e outras empresas conhecidas e até menos conhecidas.

Vou cobrir primeiro os fundamentos da salga e, em seguida, mudarei para um tópico semelhante sobre o qual você pode ser pego de surpresa, a saber, que parece haver um tipo de salga ocorrendo no campo da Inteligência Artificial (IA). Isso tem considerações cruciais de ética em IA. Para minha cobertura contínua e extensa de Ética em IA e IA Ética, consulte o link aqui e o link aqui, Apenas para nomear alguns.

Agora, vamos entrar nos fundamentos de como a salga normalmente funciona.

Suponha que uma empresa não tenha sindicatos em sua força de trabalho. Como um sindicato pode de alguma forma ganhar uma posição nessa empresa? Um meio seria agir fora da empresa e tentar apelar aos trabalhadores para que se filiassem a um sindicato. Isso pode envolver a exibição de banners próximos à sede da empresa ou o envio de folhetos aos trabalhadores ou o uso de mídias sociais e assim por diante.

Este é um tipo de abordagem decididamente de fora para dentro.

Outro caminho seria estimular de dentro uma faísca que pudesse fazer a bola rolar. Se pelo menos um funcionário pudesse ser acionado como líder de torcida por abraçar um sindicato na empresa, talvez isso iniciasse uma eventual cavalgada interna de apoio à sindicalização lá. Mesmo que tal funcionário não estivesse servindo como um torcedor absoluto, ele poderia ser silenciosamente capaz de obter apoio interno entre os trabalhadores e ser uma força relativamente oculta dentro da organização para buscar a sindicalização.

Nesse modo de pensar, um sindicato pode contemplar as maneiras pelas quais tal empregado pode ser ativado. O sindicato pode gastar energia infinita para encontrar aquela agulha no palheiro. Entre talvez centenas ou milhares de trabalhadores da empresa, tentar descobrir o chamado escolhido, em particular, que irá favorecer a sindicalização pode ser difícil de fazer.

Seria útil “descobrir” mais prontamente esse trabalhador indutor de faíscas (ou inventá-los, por assim dizer).

Isso nos leva à ideia voilá de que talvez a empresa contrate tal pessoa para uma função cotidiana na empresa. Essencialmente, implante o tipo certo de pessoa que estimula o sindicato na empresa. Você não precisa tentar apelar para a multidão de trabalhadores contados de fora e, em vez disso, inserir a única pessoa ativadora para ter certeza de que sua faísca está empregada lá.

O trabalhador recém-contratado procura então incutir um interesse sindical dentro da empresa, enquanto faz qualquer trabalho para o qual foi contratado (expressando o que muitas vezes é chamado de “interesse genuíno” no trabalho). Observe que a pessoa está ativamente empregada pela empresa e ativamente fazendo o trabalho exigido dela como funcionário. No domínio habitual da salga, eles não são apenas um trabalhador não específico relacionado ao trabalho que talvez esteja incorporado à empresa.

Alguns anunciaram esta abordagem.

Eles exortam que isso economiza tempo e recursos em termos de um sindicato que busca inspirar os trabalhadores de uma empresa a considerar se juntar a um sindicato. Outros funcionários geralmente estão mais dispostos a ouvir e serem ativados por um colega de trabalho. A abordagem alternativa de tentar ganhar força de fora é considerada menos atraente, por meio da qual um colega de trabalho fornece uma motivação poderosa aos trabalhadores dentro da empresa em comparação com alguns “estranhos” que são vistos como pouco mais do que não envolvidos e despreocupados. estranhos.

Nem todo mundo está feliz com a abordagem de salga.

As empresas muitas vezes argumentam que esta é uma prática muito sorrateira e desonesta. A gestalt geral da abordagem é que um espião está sendo colocado no meio da empresa. Não foi para isso que a pessoa foi contratada. Eles foram presumivelmente contratados para fazer seu trabalho declarado, enquanto, em vez disso, todas as travessuras variadas parecem a implantação diabólica de um verdadeiro Cavalo de Tróia.

A reconvenção dos sindicatos é que, se a pessoa está fazendo seu trabalho declarado, não há mal nem falta. Presumivelmente, um empregado, ou digamos qualquer empregado da empresa, geralmente pode optar por buscar a sindicalização. Esse funcionário em particular quer fazer isso. O fato de terem entrado na empresa com essa noção em mente é apenas algo que qualquer funcionário recém-contratado também pode estar considerando.

Espere um segundo, as empresas vão responder, este é alguém que por design queria vir para a empresa com o objetivo de iniciar uma base sindical. Esse é o seu desejo dirigido. O funcionário recém-contratado zombou do processo de contratação e explora indevidamente suas aspirações de procura de emprego como uma pretensão camuflada para a vantagem específica do sindicato.

Rodando e rodando esse discurso acalorado vai.

Tenha em mente que há uma infinidade de considerações legais que surgem nessas configurações. Todos os tipos de regras e regulamentos que pertencem, por exemplo, ao National Labor Relations Act (NLRA) e ao National Labor Relations Board (NRLB) fazem parte dessas jogadas. Não quero que você tenha a impressão de que as coisas são diretas nessas frentes. Inúmeras complicações legais abundam.

Devemos também ponderar sobre a variedade de variações que vêm brincar com a salga.

Considere a possibilidade de que a pessoa que deseja ser contratada seja abertamente um defensor do sindicato durante todo o processo de busca de um emprego na empresa. Essa pessoa pode aparecer na entrevista de emprego vestindo uma camisa ou outra roupa que deixa claro que é pró-sindicato. Eles podem, durante as entrevistas, trazer à tona sua esperança de que a empresa um dia abraçará a sindicalização. etc.

Nesse caso, alguns diriam que a empresa sabia no que estava se metendo. Desde o início, a empresa tinha muitas indicações sobre as intenções da pessoa. Você não pode reclamar depois se, ao ser contratado, o novo funcionário fará o que puder para colocar o sindicato na porta. A firma deu um tiro no próprio pé, por assim dizer, e qualquer outra coisa são apenas lágrimas de crocodilo.

A dança sobre isso é novamente mais complexa do que parece. Por questões legais que podem surgir, alguém qualificado para ser contratado pode, se recusado pela empresa contratante, argumentar que foi intencionalmente ignorado como resultado de um viés anti-sindical da empresa. Mais uma vez, o NRLA e o NRLB são atraídos para o assunto confuso.

Eu vou rapidamente passar por uma série de outras considerações que surgem no reino da salga. Também gostaria que você estivesse ciente de que a salga não é um fenômeno exclusivo dos EUA. Pode ocorrer em outros países também. É claro que as leis e práticas dos países diferem drasticamente e, portanto, a salga não é especialmente útil ou possivelmente até totalmente proibida em alguns locais, enquanto a natureza da salga pode ser significativamente alterada com base nos costumes legais e culturais e pode, de fato, ainda tem potência.

Consulte seu amado advogado de leis trabalhistas em qualquer jurisdição de seu interesse.

Alguns fatores adicionais sobre a salga incluem:

  • Sendo pago. Às vezes, a pessoa está sendo paga pelo sindicato para realizar a tarefa de ser contratada na empresa. Eles podem então ser pagos pela empresa e pelo sindicato durante seu mandato na empresa ou podem não ser mais pagos pelo sindicato uma vez contratados pela empresa.
  • Visibilidade. Às vezes, a pessoa mantém-se discreta ou completamente calada durante o processo de contratação sobre suas intenções de sindicalização, enquanto em outros casos a pessoa é abertamente aberta sobre o que pretende fazer. Uma abordagem aparentemente a meio caminho é que a pessoa dirá o que pretende fazer se for explicitamente perguntado durante as entrevistas e, portanto, implica que cabe à empresa descobrir tais intenções, o que é um fardo que as empresas argumentam ser dissimuladamente conivente e estica os limites legais.
  • Tempo. A pessoa uma vez contratada pode optar por esperar para assumir sua capacidade sindical. Eles poderiam esperar semanas, meses ou até anos para serem ativados. As probabilidades são de que eles provavelmente começarão a trabalhar depois de se acostumarem com a empresa e estabelecerem uma posição pessoal como funcionário da empresa. Se eles começarem imediatamente, isso pode prejudicar sua tentativa de ser visto como um insider e lançá-lo como um intruso ou estranho.
  • Passos dados. Às vezes, a pessoa anunciará explicitamente dentro da empresa que está agora buscando adotar a sindicalização, o que pode acontecer logo após ser contratado ou ocorrer um pouco depois (conforme minha indicação acima sobre o fator de tempo). Por outro lado, a pessoa pode optar por servir em um papel disfarçado, fornecendo informações ao sindicato e não chamando a atenção para si. Isso às vezes é criticado como sendo um toupeira de salga, embora outros enfatizem que a pessoa pode estar sujeita a riscos internos se falar diretamente.
  • Mandato. Uma pessoa que assume um esforço de salga pode acabar sendo capaz de iniciar um ímpeto sindicalista (eles são um “salgador”). Eles poderiam permanecer na empresa durante todo o processo de sindicalização. Dito isto, às vezes essa pessoa opta por deixar a empresa que foi desencadeada e optar por ir para outra empresa para recomeçar as atividades de desencadeamento. As discussões sobre isso são intensas. Um ponto de vista é que isso demonstra claramente que a pessoa não tinha em seu coração o trabalho na empresa. O ponto de vista contrastante é que eles provavelmente se encontrarão em águas turvas e possivelmente insustentáveis ​​por permanecerem na empresa uma vez que o esforço de fortalecimento do sindicato tenha ganhado força.
  • Resultado. Uma tentativa de salga não garante um resultado específico. Pode ser que a pessoa se conscientize sobre a sindicalização e o esforço esteja em andamento, portanto, a salga “bem-sucedida” ocorreu. Outro resultado é que a pessoa é incapaz de obter tal tração. Eles então desistem da busca e permanecem na empresa, talvez esperando outra chance mais tarde, ou deixam a empresa e normalmente procuram fazer a salga em alguma outra empresa.
  • Salgador Profissional. Algumas pessoas se consideram fortes defensoras da salga e se orgulham de servir como salgadeira, por assim dizer. Eles repetidamente fazem a salga, indo de empresa em empresa à medida que o fazem. Outros farão isso uma única vez, talvez por causa de uma preferência específica ou para ver como é, e depois optarão por não repetir esse papel. Você pode certamente imaginar os tipos de pressões pessoais e estresse potencial que podem ocorrer quando em uma capacidade de saltador.

Esses fatores serão suficientes por enquanto para destacar o alcance e a dinâmica da salga. Revisitarei esses fatores no contexto das considerações de IA e IA Ética.

A essência é que algumas pessoas procuram ser contratadas em uma empresa para iniciar ou instigar o estabelecimento de princípios de Ética de IA na empresa. Esta é a sua principal motivação para ir trabalhar na empresa.

De certa forma, eles estão salgando não para fins de sindicalização, mas sim “salgando” para tentar enraizar uma empresa nos preceitos éticos da IA.

Eu vou dizer muito mais sobre isso momentaneamente.

Antes de entrar em um pouco mais de carne e batatas sobre as considerações selvagens e lanosas subjacentes à salga em um contexto de IA, vamos apresentar alguns fundamentos adicionais sobre tópicos profundamente essenciais. Precisamos mergulhar brevemente na Ética da IA ​​e especialmente no advento do Machine Learning (ML) e Deep Learning (DL).

Você pode estar vagamente ciente de que uma das vozes mais altas nos dias de hoje no campo da IA ​​e mesmo fora do campo da IA ​​consiste em clamar por uma aparência maior de IA Ética. Vamos dar uma olhada no que significa se referir à Ética da IA ​​e à IA Ética. Além disso, vamos explorar o que quero dizer quando falo de Machine Learning e Deep Learning.

Um segmento específico ou parte da Ética da IA ​​que vem recebendo muita atenção da mídia consiste na IA que exibe preconceitos e desigualdades indesejáveis. Você deve estar ciente de que, quando a última era da IA ​​começou, houve uma enorme explosão de entusiasmo pelo que alguns agora chamam de AI For Good. Infelizmente, na esteira dessa empolgação, começamos a testemunhar AI para mau. Por exemplo, vários sistemas de reconhecimento facial baseados em IA foram revelados como contendo preconceitos raciais e de gênero, que discuti em o link aqui.

Esforços para lutar contra AI para mau estão ativamente em andamento. Além de vociferante legal buscas de refrear as irregularidades, há também um impulso substantivo para abraçar a Ética da IA ​​para corrigir a vileza da IA. A noção é que devemos adotar e endossar os principais princípios éticos da IA ​​para o desenvolvimento e a colocação em campo da IA, fazendo isso para minar o AI para mau e simultaneamente anunciando e promovendo o preferível AI For Good.

Em uma noção relacionada, sou um defensor de tentar usar a IA como parte da solução para os problemas da IA, combatendo fogo com fogo dessa maneira de pensar. Podemos, por exemplo, incorporar componentes de IA ética em um sistema de IA que monitorará como o resto da IA ​​está fazendo as coisas e, assim, potencialmente detectar em tempo real quaisquer esforços discriminatórios, veja minha discussão em o link aqui. Também poderíamos ter um sistema de IA separado que atua como um tipo de monitor de Ética de IA. O sistema de IA serve como um supervisor para rastrear e detectar quando outra IA está entrando no abismo antiético (veja minha análise de tais recursos em o link aqui).

Em um momento, compartilharei com você alguns princípios abrangentes subjacentes à Ética da IA. Existem muitos desses tipos de listas flutuando aqui e ali. Pode-se dizer que ainda não existe uma lista singular de apelo e concordância universal. Essa é a notícia infeliz. A boa notícia é que pelo menos existem listas de Ética em IA prontamente disponíveis e elas tendem a ser bastante semelhantes. Tudo dito, isso sugere que, por uma forma de convergência racional, estamos encontrando nosso caminho em direção a uma semelhança geral do que consiste a Ética da IA.

Primeiro, vamos abordar brevemente alguns dos preceitos gerais da IA ​​ética para ilustrar o que deve ser uma consideração vital para qualquer pessoa que crie, coloque em campo ou use a IA.

Por exemplo, como afirmou o Vaticano no Roma Call For AI Ethics e como eu cobri em profundidade em o link aqui, estes são os seis princípios éticos primários da IA ​​identificados:

  • Transparência: Em princípio, os sistemas de IA devem ser explicáveis
  • Inclusão: As necessidades de todos os seres humanos devem ser levadas em consideração para que todos possam se beneficiar, e a todos os indivíduos possam ser oferecidas as melhores condições possíveis para se expressar e se desenvolver
  • Responsabilidade: Aqueles que projetam e implantam o uso da IA ​​devem proceder com responsabilidade e transparência
  • Imparcialidade: Não crie ou aja de acordo com o preconceito, salvaguardando assim a justiça e a dignidade humana
  • Confiabilidade: Os sistemas de IA devem ser capazes de funcionar de forma confiável
  • Segurança e privacidade: Os sistemas de IA devem funcionar com segurança e respeitar a privacidade dos usuários.

Conforme declarado pelo Departamento de Defesa dos EUA (DoD) em seu Princípios Éticos para o Uso da Inteligência Artificial e como eu cobri em profundidade em o link aqui, estes são os seis principais princípios éticos da IA:

  • Responsável: O pessoal do DoD exercerá níveis apropriados de julgamento e cuidado, permanecendo responsável pelo desenvolvimento, implantação e uso dos recursos de IA.
  • Equitativo: O Departamento tomará medidas deliberadas para minimizar o viés não intencional nos recursos de IA.
  • Rastreável: Os recursos de IA do Departamento serão desenvolvidos e implantados de modo que o pessoal relevante possua uma compreensão adequada da tecnologia, processos de desenvolvimento e métodos operacionais aplicáveis ​​aos recursos de IA, incluindo metodologias transparentes e auditáveis, fontes de dados e procedimentos e documentação de design.
  • Confiável: Os recursos de IA do Departamento terão usos explícitos e bem definidos, e a segurança, proteção e eficácia de tais recursos estarão sujeitas a testes e garantias dentro desses usos definidos em todo o seu ciclo de vida.
  • Governável: O Departamento projetará e projetará recursos de IA para cumprir suas funções pretendidas, possuindo a capacidade de detectar e evitar consequências não intencionais e a capacidade de desengatar ou desativar sistemas implantados que demonstrem comportamento não intencional.

Também discuti várias análises coletivas de princípios de ética em IA, incluindo um conjunto elaborado por pesquisadores que examinaram e condensaram a essência de vários princípios nacionais e internacionais de ética em IA em um artigo intitulado “The Global Landscape Of AI Ethics Guidelines” (publicado dentro Natureza), e que minha cobertura explora em o link aqui, o que levou a esta lista de keystone:

  • Transparência
  • Justiça e equidade
  • Não-Maleficência
  • Social Corporativa
  • Privacidade
  • Beneficência
  • Liberdade e autonomia
  • Confiança
  • Sustentabilidade
  • Dignidade
  • Solidariedade

Como você pode adivinhar diretamente, tentar definir as especificidades subjacentes a esses princípios pode ser extremamente difícil de fazer. Ainda mais, o esforço para transformar esses princípios amplos em algo totalmente tangível e detalhado o suficiente para ser usado na criação de sistemas de IA também é um osso duro de roer. Em geral, é fácil fazer alguns acenos sobre o que são os preceitos da Ética da IA ​​e como eles devem ser geralmente observados, embora seja uma situação muito mais complicada na codificação da IA ​​ter que ser a verdadeira borracha que encontra a estrada.

Os princípios de ética da IA ​​devem ser utilizados por desenvolvedores de IA, juntamente com aqueles que gerenciam os esforços de desenvolvimento de IA e até mesmo aqueles que, em última análise, colocam em campo e realizam manutenção em sistemas de IA. Todas as partes interessadas em todo o ciclo de vida de desenvolvimento e uso da IA ​​são consideradas dentro do escopo de cumprir as normas estabelecidas da IA ​​Ética. Este é um destaque importante, pois a suposição usual é que “somente codificadores” ou aqueles que programam a IA estão sujeitos a aderir às noções de Ética da IA. Como afirmado anteriormente, é preciso uma vila para conceber e colocar em campo a IA, e para a qual toda a vila deve ser versada e obedecer aos preceitos da Ética da IA.

Vamos também garantir que estamos na mesma página sobre a natureza da IA ​​de hoje.

Não há nenhuma IA hoje que seja senciente. Nós não temos isso. Não sabemos se a IA senciente será possível. Ninguém pode prever adequadamente se alcançaremos a IA senciente, nem se a IA senciente de alguma forma milagrosamente surgirá espontaneamente em uma forma de supernova cognitiva computacional (geralmente chamada de singularidade, veja minha cobertura em o link aqui).

O tipo de IA em que estou focando consiste na IA não senciente que temos hoje. Se quiséssemos especular loucamente sobre autoconsciente AI, essa discussão pode ir em uma direção radicalmente diferente. Uma IA senciente supostamente seria de qualidade humana. Você precisaria considerar que a IA senciente é o equivalente cognitivo de um humano. Mais ainda, já que alguns especulam que podemos ter IA superinteligente, é concebível que tal IA possa acabar sendo mais inteligente que os humanos (para minha exploração da IA ​​superinteligente como uma possibilidade, veja a cobertura aqui).

Vamos manter as coisas mais realistas e considerar a IA computacional não senciente de hoje.

Perceba que a IA de hoje não é capaz de “pensar” de forma semelhante ao pensamento humano. Quando você interage com Alexa ou Siri, as capacidades de conversação podem parecer semelhantes às capacidades humanas, mas a realidade é que é computacional e carece de cognição humana. A era mais recente da IA ​​fez uso extensivo de Machine Learning (ML) e Deep Learning (DL), que alavancam a correspondência de padrões computacionais. Isso levou a sistemas de IA que têm a aparência de tendências humanas. Enquanto isso, não há nenhuma IA hoje que tenha uma aparência de bom senso e nem a maravilha cognitiva do pensamento humano robusto.

ML/DL é uma forma de correspondência de padrões computacional. A abordagem usual é reunir dados sobre uma tarefa de tomada de decisão. Você alimenta os dados nos modelos de computador ML/DL. Esses modelos buscam encontrar padrões matemáticos. Depois de encontrar esses padrões, se encontrados, o sistema de IA usará esses padrões ao encontrar novos dados. Na apresentação de novos dados, os padrões baseados nos dados “antigos” ou históricos são aplicados para tornar uma decisão atual.

Eu acho que você pode adivinhar onde isso está indo. Se os humanos que tomaram as decisões padronizadas estão incorporando vieses indesejáveis, as chances são de que os dados reflitam isso de maneiras sutis, mas significativas. A correspondência de padrões computacionais de aprendizado de máquina ou aprendizado profundo simplesmente tentará imitar matematicamente os dados de acordo. Não há aparência de senso comum ou outros aspectos sensíveis da modelagem criada por IA per se.

Além disso, os desenvolvedores de IA também podem não perceber o que está acontecendo. A matemática misteriosa no ML/DL pode dificultar a descoberta dos preconceitos agora ocultos. Você esperaria e esperaria, com razão, que os desenvolvedores de IA testassem os vieses potencialmente enterrados, embora isso seja mais complicado do que possa parecer. Existe uma chance sólida de que, mesmo com testes relativamente extensos, ainda haja vieses embutidos nos modelos de correspondência de padrões do ML/DL.

Você poderia usar um pouco o famoso ou infame ditado de trash-in garbage out. O problema é que isso é mais parecido com preconceitos que insidiosamente são infundidos como preconceitos submersos na IA. O algoritmo de tomada de decisão (ADM) da IA ​​torna-se axiomaticamente carregado de iniquidades.

Não é bom.

Vamos voltar ao nosso foco na salga em um contexto de IA.

Primeiro, estamos removendo qualquer aparência do elemento de sindicalização da terminologia da salga e, em vez disso, usando a salga apenas como um paradigma generalizado ou abordagem como modelo. Então, por favor, deixe de lado as facetas relacionadas ao sindicato para fins desta discussão sobre salga relacionada à IA.

Em segundo lugar, como mencionado anteriormente, a salga neste contexto de IA implica que algumas pessoas podem procurar ser contratadas para uma empresa para iniciar ou instigar o estabelecimento de princípios de Ética de IA na empresa. Esta é a sua principal motivação para ir trabalhar na empresa.

Para esclarecer, há absolutamente muitos que são contratados em uma empresa e já têm em mente que a ética da IA ​​é importante. Isso, porém, não está na vanguarda de sua base para tentar ser contratado pela empresa específica de interesse. Em essência, eles serão contratados para fazer algum tipo de trabalho de desenvolvimento ou implantação de IA, e para o qual trazem consigo uma crença estridente na IA ética.

Eles então trabalharão da melhor maneira possível para infundir ou inspirar as considerações de ética da IA ​​na empresa. Bom para eles. Precisamos de mais que tenham isso como um desejo profundamente sincero.

Mas não é a essa salga que me refiro aqui. Imagine que alguém escolha uma empresa em particular que parece não estar fazendo muito ou nada relacionado à adoção da Ética da IA. A pessoa decide que será contratada por essa empresa se puder fazê-lo em algum trabalho diário de IA (ou talvez até em uma função que não seja IA), e então seu foco principal será instalar ou instigar princípios de Ética de IA no companhia. Esse não é seu dever principal de trabalho e nem mesmo listado em seus deveres de trabalho (menciono isso porque, obviamente, se alguém é contratado para trazer intencionalmente a Ética da IA, ele não está “salgando” na forma de conotação e aparência aqui).

Essa pessoa não se preocupa especialmente com o trabalho em si. Claro, eles farão o que quer que o trabalho consista, e eles presumivelmente estão devidamente qualificados para fazê-lo. Enquanto isso, sua verdadeira agenda é estimular a Ethical AI a se tornar parte integrante da empresa. Essa é a missão. Esse é o objetivo. O trabalho em si é apenas um meio ou veículo para permitir que eles façam isso de dentro.

Você pode dizer que eles poderiam fazer o mesmo de fora da empresa. Eles poderiam tentar pressionar as equipes de IA da empresa para se envolverem mais com a Ética da IA. Eles podem tentar envergonhar a empresa a fazê-lo, talvez postando em blogs ou tomando outras medidas. E assim por diante. A questão é que eles ainda seriam um estranho, assim como apontado anteriormente ao discutir a premissa abrangente da salga.

A pessoa que salga a IA está sendo enganosa?

Voltamos a nos lembrar da mesma pergunta feita sobre o contexto sindical da salga. A pessoa pode insistir que não há engano. Eles foram contratados para fazer um trabalho. Eles estão fazendo o trabalho. Acontece que, além disso, eles são um defensor interno da ética da IA ​​e trabalham fortemente para que outros façam o mesmo. Nenhum dano, nenhuma falta.

Eles provavelmente também apontariam que não há nenhuma desvantagem específica em estimular a empresa em direção à IA ética. No final, isso ajudará a empresa a evitar potencialmente processos judiciais que, de outra forma, poderiam surgir se a IA estiver sendo produzida que não esteja de acordo com os preceitos da Ética da IA. Assim, eles estão salvando a empresa de si mesma. Mesmo que a pessoa talvez não se importe especialmente em fazer o trabalho em mãos, eles estão fazendo o trabalho e, simultaneamente, tornando a empresa mais sábia e segura por meio de um impulso vociferante em direção à IA ética.

Espere um segundo, alguma réplica, essa pessoa está sendo dissimulada. Eles aparentemente vão abandonar o barco assim que ocorrer a adoção da Ética da IA. Seu coração não está na empresa nem no trabalho. Eles estão usando a empresa para promover sua própria agenda. Claro, a agenda parece boa o suficiente, buscando colocar a IA ética em mente, mas isso pode ir longe demais.

Veja, o argumento é que a busca pela Ética da IA ​​pode se tornar excessivamente zelosa. Se a pessoa vier para iniciar a Ethical AI, ela pode não ter uma visão maior do que a empresa em geral está lidando. Com a exclusão de tudo o mais, essa pessoa pode distrair a empresa de forma míope e não estar disposta a permitir a adoção da Ética da IA ​​de forma fundamentada e em um ritmo prudente.

Eles podem se tornar um descontente disruptivo que apenas briga continuamente sobre onde a empresa está em termos de preceitos éticos de IA. Outros desenvolvedores de IA podem se distrair com a conversa de sintonia única. Colocar a ética da IA ​​na mistura é certamente sensato, embora a teatralidade e outras possíveis interrupções dentro da empresa possam impedir o progresso da IA ​​ética em vez de ajudá-lo.

Vamos girar e girar.

Agora podemos revisitar esses fatores adicionais sobre a salga que apresentei anteriormente:

  • Sendo pago. É concebível que a pessoa possa ser inicialmente paga por alguma entidade que deseja que uma empresa adote a Ética da IA, talvez com o objetivo de fazê-lo de forma inócua ou talvez para vender à empresa um conjunto específico de ferramentas ou práticas de Ética da IA. Geralmente improvável, mas vale a pena mencionar.
  • Visibilidade. A pessoa pode não mencionar especialmente sua missão devocional de Ética da IA ​​ao passar pelo processo de contratação. Em outros casos, eles podem certificar-se de que está na frente e no centro, de modo que a empresa contratante entenda sem qualquer ambiguidade em relação ao seu foco devoto. É mais provável que isso seja expresso como se a Ética da IA ​​fosse uma preocupação secundária e que o trabalho fosse sua principal preocupação, e não o contrário.
  • Tempo. A pessoa uma vez contratada pode optar por esperar para realizar seus inícios de Ética em IA. Eles poderiam esperar semanas, meses ou até anos para serem ativados. As probabilidades são de que eles provavelmente começarão a trabalhar depois de se acostumarem com a empresa e estabelecerem uma posição pessoal como funcionário da empresa. Se eles começarem imediatamente, isso pode prejudicar sua tentativa de ser visto como um insider e lançá-lo como um intruso ou estranho.
  • Passos dados. Às vezes, a pessoa anunciará explicitamente dentro da empresa que agora está procurando chamar a atenção para a Ética da IA, o que pode acontecer logo após a contratação ou ocorrer um pouco depois (conforme minha indicação acima sobre o fator de tempo). Por outro lado, a pessoa pode optar por servir em uma função disfarçada, trabalhando discretamente dentro da empresa e não dando atenção especial a si mesma. Eles também podem fornecer informações à imprensa e outras pessoas de fora sobre quais omissões ou falhas de ética da IA ​​estão ocorrendo dentro da empresa.
  • Mandato. Uma pessoa que assume um esforço de salga pode acabar sendo capaz de obter um impulso de ética em IA. Eles poderiam permanecer na empresa durante todo o processo de adoção de IA ética. Dito isto, às vezes tal pessoa opta por deixar a empresa que foi desencadeada e optar por ir para outra empresa para recomeçar as atividades de desencadeamento. As discussões sobre isso são intensas. Um ponto de vista é que isso demonstra claramente que a pessoa não tinha em seu coração o trabalho na empresa. O ponto de vista contrastante é que eles provavelmente se encontrarão em águas turvas e possivelmente insustentáveis ​​ao permanecerem na empresa se agora forem rotulados como vozes barulhentas ou encrenqueiros.
  • Resultado. Uma tentativa de salga não garante um resultado específico. Pode ser que a pessoa aumente a conscientização sobre a IA ética e o esforço esteja em andamento, portanto, a salga “bem-sucedida” ocorreu. Outro resultado é que a pessoa é incapaz de obter tal tração. Eles então desistem da busca e permanecem na empresa, talvez esperando outra chance mais tarde, ou deixam a empresa e normalmente procuram fazer a salga em outra empresa.
  • Salgador Profissional. Algumas pessoas podem se considerar um forte defensor da salga da ética da IA ​​e se orgulham de servir como salgadores, por assim dizer. Eles repetidamente fazem a salga, indo de empresa em empresa à medida que o fazem. Outros podem fazer isso uma única vez, talvez por causa de uma preferência específica ou para ver como é, e depois optar por não repetir esse papel. Você pode certamente imaginar os tipos de pressões pessoais e estresse potencial que podem ocorrer quando em uma capacidade de saltador.

Se esse tipo de salga orientada para a ética da IA ​​pega, ainda não se sabe. Se as empresas forem lentas para promover a IA ética, isso pode fazer com que os fervorosos eticistas da IA ​​assumam esforços de salga. Eles podem não perceber diretamente que estão salgando. Em outras palavras, alguém vai para a empresa X e tenta atrair a ética da IA, talvez o faça, e percebe que deveria fazer o mesmo em outro lugar. Eles então mudam para a empresa Y. Enxágue e repita.

Mais uma vez, a ênfase é que a adoção da Ética da IA ​​é sua principal prioridade. Conseguir o emprego é secundário ou nem mesmo especialmente importante, além de poder entrar e fazer os esforços internos de salga relacionados à IA ética.

Acrescentarei também que aqueles que estudam e analisam os aspectos de ética da IA ​​agora têm uma adição um tanto nova aos tópicos de pesquisas éticas de IA:

  • Esses esforços de salga de ética em IA devem ser tolerados ou evitados em geral?
  • O que motiva aqueles que desejam realizar a salga neste contexto de IA?
  • Como as empresas devem reagir a um ato percebido de salga de contexto de IA?
  • Haverá metodologias concebidas para incentivar a salga relacionada à IA como essa?
  • Etc.

Até certo ponto, é por isso que a ética da IA ​​e a IA ética são um tópico tão crucial. Os preceitos da Ética da IA ​​nos fazem permanecer vigilantes. Os tecnólogos de IA às vezes podem ficar preocupados com a tecnologia, particularmente com a otimização da alta tecnologia. Eles não estão necessariamente considerando as maiores ramificações sociais. Ter uma mentalidade de ética em IA e fazê-lo integralmente no desenvolvimento e em campo da IA ​​é vital para produzir IA apropriada, incluindo (talvez surpreendentemente ou ironicamente) a avaliação de como a ética da IA ​​é adotada pelas empresas.

Além de empregar os preceitos da Ética da IA ​​em geral, há uma questão correspondente sobre se devemos ter leis para governar vários usos da IA. Novas leis estão sendo divulgadas nos níveis federal, estadual e local que dizem respeito ao alcance e à natureza de como a IA deve ser concebida. O esforço para redigir e promulgar tais leis é gradual. A ética da IA ​​serve como um paliativo considerado, no mínimo, e quase certamente, em algum grau, será diretamente incorporado a essas novas leis.

Esteja ciente de que alguns argumentam inflexivelmente que não precisamos de novas leis que cubram a IA e que nossas leis existentes são suficientes. Na verdade, eles avisam que, se promulgarmos algumas dessas leis de IA, estaremos matando a galinha dos ovos de ouro ao reprimir os avanços da IA ​​que oferecem imensas vantagens sociais.

Neste momento desta discussão pesada, eu aposto que você está desejoso de alguns exemplos ilustrativos que possam mostrar este tópico. Há um conjunto especial e seguramente popular de exemplos que estão perto de meu coração. Veja bem, na minha qualidade de especialista em IA, incluindo as ramificações éticas e legais, sou frequentemente solicitado a identificar exemplos realistas que mostrem dilemas de ética em IA para que a natureza um tanto teórica do tópico possa ser mais prontamente compreendida. Uma das áreas mais evocativas que apresenta vividamente esse dilema ético da IA ​​é o advento dos verdadeiros carros autônomos baseados em IA. Isso servirá como um caso de uso útil ou um exemplo para uma ampla discussão sobre o tópico.

Aqui está, então, uma questão digna de nota que vale a pena contemplar: O advento dos verdadeiros carros autônomos baseados em IA ilumina alguma coisa sobre a salga relacionada à IA e, em caso afirmativo, o que isso mostra?

Permita-me um momento para descompactar a pergunta.

Primeiro, observe que não há um motorista humano envolvido em um verdadeiro carro autônomo. Lembre-se de que os verdadeiros carros autônomos são conduzidos por meio de um sistema de direção de IA. Não há necessidade de um motorista humano ao volante, nem há uma provisão para um humano dirigir o veículo. Para minha cobertura extensa e contínua de Veículos Autônomos (AVs) e especialmente carros autônomos, consulte o link aqui.

Eu gostaria de esclarecer melhor o que quero dizer quando me refiro a verdadeiros carros autônomos.

Compreendendo os níveis de carros autônomos

Para esclarecer, os verdadeiros carros autônomos são aqueles em que a IA dirige o carro inteiramente por conta própria e não há nenhuma assistência humana durante a tarefa de dirigir.

Esses veículos sem motorista são considerados Nível 4 e Nível 5 (veja minha explicação em este link aqui), enquanto um carro que requer um motorista humano para compartilhar o esforço de direção é geralmente considerado no Nível 2 ou Nível 3. Os carros que compartilham a tarefa de direção são descritos como semi-autônomos e normalmente contêm uma variedade de complementos automatizados que são chamados de ADAS (Advanced Driver-Assistance Systems).

Ainda não existe um verdadeiro carro autônomo no Nível 5, e ainda não sabemos se isso será possível, nem quanto tempo levará para chegar lá.

Enquanto isso, os esforços do Nível 4 estão gradualmente tentando obter alguma tração, passando por testes muito estreitos e seletivos em vias públicas, embora haja controvérsia sobre se esse teste deve ser permitido por si só (somos todos cobaias de vida ou morte em um experimento ocorrendo em nossas rodovias e atalhos, alguns afirmam, veja minha cobertura em este link aqui).

Como os carros semi-autônomos exigem um motorista humano, a adoção desses tipos de carros não será muito diferente da condução de veículos convencionais, portanto, não há muito por si novo sobre eles sobre esse tópico (porém, como você verá em um momento, os pontos a seguir apresentados são geralmente aplicáveis).

Para carros semi-autônomos, é importante que o público seja avisado sobre um aspecto perturbador que vem surgindo ultimamente, a saber, apesar dos motoristas humanos que continuam postando vídeos de si mesmos adormecendo ao volante de um carro de Nível 2 ou Nível 3 , todos precisamos evitar ser enganados, acreditando que o motorista pode desviar sua atenção da tarefa de dirigir enquanto dirige um carro semi-autônomo.

Você é a parte responsável pelas ações de direção do veículo, independentemente de quanta automação possa ser lançada no Nível 2 ou Nível 3.

Carros autônomos e salga ética de IA

Nos verdadeiros veículos autônomos de nível 4 e 5, não haverá um motorista humano envolvido na tarefa de dirigir.

Todos os ocupantes serão passageiros.

A IA está dirigindo.

Um aspecto a discutir imediatamente envolve o fato de que a IA envolvida nos atuais sistemas de direção de IA não é senciente. Em outras palavras, a IA é totalmente um coletivo de programação e algoritmos baseados em computador e, com certeza, incapaz de raciocinar da mesma maneira que os humanos.

Por que essa ênfase adicional sobre a IA não ser senciente?

Porque quero enfatizar que, ao discutir o papel do sistema de direção da IA, não estou atribuindo qualidades humanas à IA. Esteja ciente de que existe uma tendência contínua e perigosa nos dias de hoje de antropomorfizar a IA. Em essência, as pessoas estão atribuindo uma sensibilidade semelhante à humana à IA de hoje, apesar do fato inegável e indiscutível de que tal IA ainda não existe.

Com esse esclarecimento, você pode imaginar que o sistema de direção de IA não “saberá” nativamente sobre as facetas da direção. A direção e tudo o que isso acarreta precisarão ser programados como parte do hardware e do software do carro que dirige sozinho.

Vamos mergulhar na miríade de aspectos que afetam esse tópico.

Primeiro, é importante perceber que nem todos os carros autônomos com IA são iguais. Cada montadora e empresa de tecnologia de direção autônoma está adotando sua abordagem para criar carros autônomos. Como tal, é difícil fazer declarações abrangentes sobre o que os sistemas de condução de IA farão ou não.

Além disso, sempre que afirmar que um sistema de direção de IA não faz alguma coisa em particular, isso pode, mais tarde, ser ultrapassado por desenvolvedores que de fato programam o computador para fazer exatamente isso. Passo a passo, os sistemas de direção de IA estão sendo gradualmente aprimorados e ampliados. Uma limitação existente hoje pode não existir mais em uma iteração ou versão futura do sistema.

Espero que isso forneça uma litania suficiente de advertências para fundamentar o que estou prestes a relatar.

Vamos esboçar um cenário que mostra uma situação de salga relacionada à IA.

Uma montadora que está se esforçando para o desenvolvimento de carros autônomos totalmente autônomos está correndo na frente com testes em vias públicas. A empresa está sob grande pressão para fazê-lo. Eles estão sendo observados pelo mercado e, se não parecem estar na vanguarda do desenvolvimento de carros autônomos, o preço de suas ações sofre de acordo. Além disso, eles já investiram bilhões de dólares e os investidores estão ficando impacientes com o dia em que a empresa pode anunciar que seus carros autônomos estão prontos para uso comercial diário.

Um desenvolvedor de IA está acompanhando de perto os esforços da montadora. Instâncias relatadas do sistema de condução de IA se confundindo ou cometendo erros estão sendo cada vez mais vistas nas notícias. Vários casos incluem colisões com outros carros, colisões com ciclistas e outros incidentes severos.

A empresa geralmente tenta manter esse segredo. O desenvolvedor de IA conversou em particular com alguns dos engenheiros da empresa e descobriu que os preceitos de ética da IA ​​estão sendo apenas divulgados da boca para fora, na melhor das hipóteses. Para minha cobertura sobre tais questões de evitar a IA ética por empresas, consulte o link aqui.

O que esse desenvolvedor de IA vai fazer?

Eles se sentem compelidos a fazer algo.

Vamos fazer um esforço de bifurcação e considerar dois caminhos que cada um pode ser realizado por este desenvolvedor de IA.

Um caminho é que o desenvolvedor de IA leve à mídia para tentar trazer à tona a aparente falta de atenção adequada aos preceitos de Ética em IA pela montadora. Talvez esse especialista em IA preocupado opte por escrever blogs ou criar vlogs para destacar essas preocupações. Outra possibilidade é que eles consigam que um membro existente da equipe de IA se torne uma espécie de denunciante, um tópico que abordei em o link aqui.

Esta é decididamente uma abordagem considerada estranha por este desenvolvedor de IA.

Outro caminho é que o desenvolvedor de IA acredita em seu instinto que pode ser capaz de fazer mais de dentro da empresa. O conjunto de habilidades do desenvolvedor de IA está bem ajustado nas facetas de IA envolvendo carros autônomos e eles podem se candidatar prontamente às vagas de emprego de engenheiro de IA publicadas na empresa. O desenvolvedor de IA decide fazê-lo. Além disso, o ímpeto está concentrado apenas em fazer com que a montadora seja mais séria sobre a IA ética. O trabalho em si não importa particularmente para esse desenvolvedor de IA, exceto que agora eles poderão trabalhar de forma persuasiva de dentro.

Pode ser que o desenvolvedor de IA consiga o trabalho, mas depois descubra que há uma tremenda resistência interna e que a meta de esforço da IA ​​ética é inútil. A pessoa sai da empresa e decide mirar em outra montadora que possa estar mais disposta a entender o que o desenvolvedor de IA pretende alcançar. Mais uma vez, eles estão fazendo isso para atingir intencionalmente as considerações de Ética da IA ​​e não para o esteio de qualquer que seja o trabalho da IA.

Conclusão

A noção de se referir a esses esforços relacionados à IA como uma forma de salga pode causar azia em alguns sobre o uso excessivo de uma terminologia ou vocabulário já estabelecido. A salga está praticamente enraizada nas atividades de sindicalização relacionadas ao trabalho e aos negócios. As tentativas de sobrecarregar a palavra com esses outros tipos de atividades aparentemente semelhantes, embora de natureza totalmente não relacionada à sindicalização, são potencialmente enganosas e confusas.

Suponha que chegamos a uma fraseologia diferente.

Apimentar?

Bem, isso não parece invocar exatamente o mesmo sentimento que salga. Seria uma batalha árdua tentar fazer com que isso fosse estipulado e incluído em nosso léxico cotidiano de linguagem.

O que quer que venhamos com, e qualquer nome ou frase de efeito que pareça adequada, sabemos de uma coisa com certeza. Tentar fazer com que as empresas adotem a ética da IA ​​ainda é uma batalha difícil. Precisamos tentar. A tentativa tem que ser feita da maneira certa.

Parece que não importa de que lado da cerca você caia, precisamos aceitar essa advertência com um grão de sal adequado.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/08/13/ai-ethics-flummoxed-by-those-salting-ai-ethicists-that-instigate-ethical-ai-practices/