A ética da IA ​​e a lei da IA ​​fazem perguntas difíceis sobre essa nova promessa ao dançar fabricantes de robôs dizendo que evitarão o armamento da IA

Você pode ter visto na semana passada nas notícias ou notado nas mídias sociais a promessa anunciada por alguns fabricantes de robôs sobre seus objetivos declarados de evitar o armamento de robôs de uso geral por IA. Eu vou explicar os detalhes em um momento, então não se preocupe se você não ficou sabendo do assunto.

A reação a esta proclamação foi rápida e, talvez como de costume em nossa sociedade polarizada, foi ao mesmo tempo laudatória e às vezes zombeteiramente crítica ou francamente cética.

É uma história de dois mundos.

Em um mundo, alguns dizem que isso é exatamente o que precisamos para responsável Desenvolvedores de robôs AI para declarar.

Graças a Deus por estar do lado certo de uma questão que aos poucos vai ficando mais visível e mais preocupante. Esses lindos robôs dançantes são preocupantes porque é muito fácil reequipá-los para carregar armas e serem usados ​​da pior maneira (você pode verificar isso acessando as mídias sociais e há muitos vídeos mostrando robôs dançando armados com metralhadoras e outros armamentos).

O outro lado desta moeda diz que a chamada promessa nada mais é do que uma jogada de marketing ou relações públicas (como uma nota lateral, alguém está familiarizado com a diferença entre uma promessa e uma doação?). De qualquer forma, os céticos exortam que esta é uma sinalização de virtude desenfreada no contexto de robôs dançantes. Você vê, lamentar o fato de que robôs de uso geral podem ser armados é certamente uma consideração que vale a pena e seriamente procurada, embora apenas alegar que um fabricante não o fará é provavelmente uma promessa vazia, alguns insistem.

Em suma, todo o assunto traz um conjunto bastante robusto de considerações sobre Ética da IA ​​e Lei da IA. Vamos descompactar meticulosamente o tópico e ver como isso é um golpe duplo de um pântano de IA ético e legal. Para minha cobertura contínua e extensa de Ética de IA e Lei de IA, consulte o link aqui e o link aqui, Apenas para nomear alguns.

Também me referirei ao longo desta discussão às minhas análises anteriores dos perigos do armamento da IA, como minha avaliação aprofundada no o link aqui. Você pode querer dar uma olhada nesse discurso para obter detalhes adicionais dos bastidores.

A carta aberta que abre uma lata de vermes

Vamos começar esta análise fazendo uma exploração passo a passo cuidadosa da Carta Aberta que foi recentemente publicada por seis fabricantes de robôs avançados relativamente conhecidos, a saber, Boston Dynamics, Clearpath Robotics, ANYbotics, Agility Robotics, Open Robotics e Unitree. De modo geral, suponho que você tenha visto principalmente os robôs da Boston Dynamics, como os que saltitam de quatro. Eles se parecem com cães e nós gostamos de vê-los correndo por aí.

Como já avisei anteriormente e repetidamente, o uso de tais robôs “dançantes” como meio de convencer o público em geral de que esses robôs são fofos e adoráveis ​​é tristemente enganoso e se desvia para as armadilhas abundantes de antropomorfizá-los. Começamos a pensar nessas peças endurecidas de metal e plástico como se fossem o equivalente a um cão fofinho e leal. Nossa disposição em aceitar esses robôs é baseada em uma falsa sensação de segurança e garantia. Claro, você tem que fazer um dinheirinho e as chances de fazê-lo são aumentadas desfilando em torno de robôs dançantes, mas isso infelizmente omite ou aparentemente esconde o fato real de que esses robôs são robôs e que a IA que controla os robôs pode ser inventada erroneamente ou dar errado.

Considere essas ramificações da IA ​​(extraído do meu artigo sobre armamento de IA, encontrado em o link aqui):

  • A IA pode encontrar um erro que faz com que ela se desvie
  • A IA pode ficar sobrecarregada e travada sem resposta
  • A IA pode conter bugs do desenvolvedor que causam comportamento errático
  • AI pode estar corrompida com vírus malfeitor implantado
  • A IA pode ser dominada por hackers cibernéticos em tempo real
  • A IA pode ser considerada imprevisível devido às complexidades
  • A IA pode tomar a decisão “errada” computacionalmente (relativamente)
  • Etc.

Esses são pontos em relação à IA que é do tipo que é genuinamente concebido no início para fazer a coisa certa.

Além dessas considerações, você deve incluir sistemas de IA criados desde o início para fazer coisas ruins. Você pode ter IA que é feita para fins benéficos, muitas vezes referida como AI For Good. Você também pode ter IA intencionalmente feita para propósitos ruins, conhecida como AI para mau. Além disso, você pode ter AI For Good que está corrompido ou reorganizado para se tornar AI para mau.

A propósito, nada disso tem nada a ver com a IA se tornar senciente, o que menciono porque alguns continuam exclamando que a IA de hoje é senciente ou está prestes a ser senciente. Não tão. Eu desmonto esses mitos em minha análise em o link aqui.

Vamos nos certificar de que estamos na mesma página sobre a natureza da IA ​​de hoje.

Não há nenhuma IA hoje que seja senciente. Nós não temos isso. Não sabemos se a IA senciente será possível. Ninguém pode prever adequadamente se alcançaremos a IA senciente, nem se a IA senciente de alguma forma milagrosamente surgirá espontaneamente em uma forma de supernova cognitiva computacional (geralmente chamada de singularidade, veja minha cobertura em o link aqui).

O tipo de IA em que estou focando consiste na IA não senciente que temos hoje. Se quiséssemos especular descontroladamente sobre a IA senciente, essa discussão poderia seguir uma direção radicalmente diferente. Uma IA senciente supostamente seria de qualidade humana. Você precisaria considerar que a IA senciente é o equivalente cognitivo de um humano. Mais ainda, já que alguns especulam que podemos ter IA superinteligente, é concebível que tal IA possa acabar sendo mais inteligente que os humanos (para minha exploração da IA ​​superinteligente como uma possibilidade, veja a cobertura aqui).

Eu sugiro fortemente que mantenhamos as coisas no chão e consideremos a IA computacional não senciente de hoje.

Perceba que a IA de hoje não é capaz de “pensar” de forma semelhante ao pensamento humano. Quando você interage com Alexa ou Siri, as capacidades de conversação podem parecer semelhantes às capacidades humanas, mas a realidade é que é computacional e carece de cognição humana. A era mais recente da IA ​​fez uso extensivo de Machine Learning (ML) e Deep Learning (DL), que alavancam a correspondência de padrões computacionais. Isso levou a sistemas de IA que têm a aparência de tendências humanas. Enquanto isso, não há nenhuma IA hoje que tenha uma aparência de bom senso e nem a maravilha cognitiva do pensamento humano robusto.

Tenha muito cuidado ao antropomorfizar a IA de hoje.

ML/DL é uma forma de correspondência de padrões computacional. A abordagem usual é reunir dados sobre uma tarefa de tomada de decisão. Você alimenta os dados nos modelos de computador ML/DL. Esses modelos buscam encontrar padrões matemáticos. Depois de encontrar esses padrões, se encontrados, o sistema de IA usará esses padrões ao encontrar novos dados. Na apresentação de novos dados, os padrões baseados nos dados “antigos” ou históricos são aplicados para tornar uma decisão atual.

Eu acho que você pode adivinhar onde isso está indo. Se os humanos que tomaram as decisões padronizadas estão incorporando vieses indesejáveis, as chances são de que os dados reflitam isso de maneiras sutis, mas significativas. A correspondência de padrões computacionais de aprendizado de máquina ou aprendizado profundo simplesmente tentará imitar matematicamente os dados de acordo. Não há aparência de senso comum ou outros aspectos sensíveis da modelagem criada por IA per se.

Além disso, os desenvolvedores de IA também podem não perceber o que está acontecendo. A matemática misteriosa no ML/DL pode dificultar a descoberta dos preconceitos agora ocultos. Você esperaria e esperaria, com razão, que os desenvolvedores de IA testassem os vieses potencialmente enterrados, embora isso seja mais complicado do que possa parecer. Existe uma chance sólida de que, mesmo com testes relativamente extensos, ainda haja vieses embutidos nos modelos de correspondência de padrões do ML/DL.

Você poderia usar um pouco o famoso ou infame ditado de trash-in garbage out. O problema é que isso é mais parecido com preconceitos que insidiosamente são infundidos como preconceitos submersos na IA. O algoritmo de tomada de decisão (ADM) da IA ​​torna-se axiomaticamente carregado de iniquidades.

Não é bom.

Tudo isso tem implicações notavelmente significativas na ética da IA ​​e oferece uma janela útil para as lições aprendidas (mesmo antes de todas as lições acontecerem) quando se trata de tentar legislar a IA.

Além de empregar os preceitos da Ética da IA ​​em geral, há uma questão correspondente sobre se devemos ter leis para governar vários usos da IA. Novas leis estão sendo divulgadas nos níveis federal, estadual e local que dizem respeito ao alcance e à natureza de como a IA deve ser concebida. O esforço para redigir e promulgar tais leis é gradual. A ética da IA ​​serve como um paliativo considerado, no mínimo, e quase certamente, em algum grau, será diretamente incorporado a essas novas leis.

Esteja ciente de que alguns argumentam inflexivelmente que não precisamos de novas leis que cubram a IA e que nossas leis existentes são suficientes. Eles avisam que, se promulgarmos algumas dessas leis de IA, estaremos matando o ganso de ouro ao reprimir os avanços na IA que oferecem imensas vantagens sociais.

Em colunas anteriores, cobri os vários esforços nacionais e internacionais para criar e promulgar leis que regulam a IA, veja o link aqui, por exemplo. Também abordei os vários princípios e diretrizes de Ética em IA que várias nações identificaram e adotaram, incluindo, por exemplo, o esforço das Nações Unidas, como o conjunto de Ética em IA da UNESCO que quase 200 países adotaram. o link aqui.

Aqui está uma lista útil de critérios ou características de IA ética em relação aos sistemas de IA que explorei de perto anteriormente:

  • Transparência
  • Justiça e equidade
  • Não-Maleficência
  • Social Corporativa
  • Privacidade
  • Beneficência
  • Liberdade e autonomia
  • Confiança
  • Sustentabilidade
  • Dignidade
  • Solidariedade

Esses princípios de ética da IA ​​devem ser utilizados por desenvolvedores de IA, juntamente com aqueles que gerenciam os esforços de desenvolvimento de IA e até mesmo aqueles que, em última análise, trabalham e realizam manutenção em sistemas de IA.

Todas as partes interessadas ao longo de todo o ciclo de vida de desenvolvimento e uso da IA ​​são consideradas dentro do escopo de cumprir as normas estabelecidas da IA ​​Ética. Este é um destaque importante, pois a suposição usual é que “somente codificadores” ou aqueles que programam a IA estão sujeitos a aderir às noções de Ética da IA. Conforme enfatizado anteriormente aqui, é preciso uma vila para conceber e colocar em campo a IA, e para a qual toda a vila deve ser versada e obedecer aos preceitos da Ética da IA.

Agora que estabeleci uma base útil para entrar na Carta Aberta, estamos prontos para mergulhar.

O título oficial do assunto da Carta Aberta é este:

  • "Uma carta aberta para a indústria de robótica e nossas comunidades, robôs de uso geral não devem ser armados” (conforme postado online).

Tão longe, tão bom.

O título quase parece sorvete e torta de maçã. Como alguém poderia contestar isso como uma chamada antiga para evitar o armamento de robôs de IA?

Leia para ver.

Primeiro, como material para consideração, aqui está o parágrafo de abertura oficial da Carta Aberta:

  • “Somos algumas das empresas líderes mundiais dedicadas a apresentar novas gerações de robótica móvel avançada à sociedade. Essas novas gerações de robôs são mais acessíveis, mais fáceis de operar, mais autônomas, acessíveis e adaptáveis ​​do que as gerações anteriores e capazes de navegar em locais anteriormente inacessíveis a tecnologias automatizadas ou controladas remotamente. Acreditamos que robôs móveis avançados trarão grandes benefícios à sociedade como colegas de trabalho na indústria e companheiros em nossas casas” (conforme postado online).

O lado bom do advento desses tipos de robôs é que podemos antecipar muitos grandes benefícios. Nenhuma dúvida sobre isso. Você pode ter um robô em sua casa que pode fazer essas atividades do tipo Jetson, como limpar sua casa, lavar a louça e outras tarefas domésticas. Teremos robôs avançados para uso em fábricas e instalações fabris. Os robôs podem rastejar ou manobrar em espaços apertados, como quando um prédio desaba e vidas humanas estão em jogo para serem salvas. E assim por diante.

Como um aparte, você pode achar interessante minha recente cobertura crítica do Tesla AI Day, no qual alguns tipos de robôs ambulantes foram retratados por Elon Musk como o futuro para Tesla e a sociedade, veja o link aqui.

De volta ao assunto em questão. Ao discutir seriamente robôs dançantes ou robôs ambulantes, precisamos levar em consideração as compensações ou o ROI total (retorno sobre o investimento) desse uso de IA. Não devemos nos deixar encantar demais pelos benefícios quando também há custos a serem considerados.

Um brinquedo novo e brilhante pode ter bordas bastante afiadas.

Tudo isso estimula um ponto importante, mas um tanto silencioso, de que parte do motivo pelo qual a questão do armamento da IA ​​surge agora é devido ao avanço da IA ​​em direção à atividade autônoma. Normalmente esperávamos que as armas fossem geralmente operadas por humanos. Um humano toma a decisão de disparar ou engajar a arma. Podemos presumivelmente responsabilizar esse humano por suas ações.

A IA que é projetada para funcionar de forma autônoma ou que pode ser induzida a fazê-lo aparentemente removeria o humano do loop. A IA está então tomando decisões computacionais algorítmicas que podem acabar matando ou prejudicando humanos. Além das preocupações óbvias sobre a falta de controle sobre a IA, você também tem escrúpulos de que podemos ter um tempo árduo para responsabilizar as ações da IA. Não temos um humano que seja nosso instigador óbvio.

Percebo que alguns acreditam que devemos simplesmente e diretamente responsabilizar a IA por suas ações, como se a IA tivesse atingido a senciência ou recebido a personalidade jurídica (veja minha cobertura sobre os debates sobre a obtenção da personalidade jurídica da IA ​​em o link aqui). Isso não vai funcionar por enquanto. Teremos que rastrear a IA até os humanos que a criaram ou que a colocaram em campo. Eles, sem dúvida, tentarão se esquivar legalmente da responsabilidade, tentando argumentar que a IA foi além do que eles imaginaram. Essa é uma disputa crescente com a qual precisamos lidar (veja meus escritos sobre Lei de IA para obter insights sobre as questões contenciosas envolvidas).

A Organização das Nações Unidas (ONU) através da Convenção sobre Certas Armas Convencionais (CCW) em Genebra estabeleceu onze Princípios Orientadores não vinculativos sobre Armas Autônomas Letais, conforme o relatório oficial publicado online (abrangendo referências ao Direito Internacional Humanitário ou disposições do DIH) , Incluindo:

(a) O Direito Internacional Humanitário continua a se aplicar plenamente a todos os sistemas de armas, incluindo o potencial desenvolvimento e uso de sistemas letais de armas autônomas;

(b) A responsabilidade humana pelas decisões sobre o uso de sistemas de armas deve ser mantida, uma vez que a responsabilidade não pode ser transferida para máquinas. Isso deve ser considerado em todo o ciclo de vida do sistema de armas;

(c) A interação homem-máquina, que pode assumir várias formas e ser implementada em vários estágios do ciclo de vida de uma arma, deve garantir que o uso potencial de sistemas de armas baseados em tecnologias emergentes na área de sistemas de armas autônomos letais esteja em conformidade com o direito internacional aplicável, em particular o DIH. Ao determinar a qualidade e extensão da interação homem-máquina, uma série de fatores deve ser considerada, incluindo o contexto operacional e as características e capacidades do sistema de armas como um todo;

(d) A responsabilidade pelo desenvolvimento, implantação e uso de qualquer sistema de armas emergente no âmbito da CCW deve ser assegurada de acordo com a lei internacional aplicável, inclusive por meio da operação de tais sistemas dentro de uma cadeia responsável de comando e controle humano;

(e) De acordo com as obrigações dos Estados sob o direito internacional, no estudo, desenvolvimento, aquisição ou adoção de uma nova arma, meio ou método de guerra, deve ser determinado se seu emprego seria, em algumas ou em todas as circunstâncias, proibido pelo direito internacional;

(f) Ao desenvolver ou adquirir novos sistemas de armas com base em tecnologias emergentes na área de sistemas de armas autônomas letais, segurança física, salvaguardas não físicas apropriadas (incluindo segurança cibernética contra hackers ou falsificação de dados), o risco de aquisição por grupos terroristas e o risco de proliferação deve ser considerado;

(g) As avaliações de risco e as medidas de mitigação devem fazer parte do ciclo de projeto, desenvolvimento, teste e implantação de tecnologias emergentes em quaisquer sistemas de armas;

(h) Deve-se considerar o uso de tecnologias emergentes na área de sistemas de armas autônomas letais para garantir o cumprimento do DIH e outras obrigações legais internacionais aplicáveis;

(i) Ao elaborar potenciais medidas de política, as tecnologias emergentes na área de sistemas letais de armas autônomas não devem ser antropomorfizadas;

(j) As discussões e quaisquer medidas políticas potenciais tomadas no contexto da CCW não devem impedir o progresso ou o acesso a usos pacíficos de tecnologias autônomas inteligentes;

(k) A CCW oferece uma estrutura apropriada para lidar com a questão das tecnologias emergentes na área de sistemas de armas autônomas letais dentro do contexto dos objetivos e propósitos da Convenção, que busca encontrar um equilíbrio entre a necessidade militar e as considerações humanitárias.

Essas e outras várias leis de guerra e leis de conflito armado, ou DIH (Direitos Humanitários Internacionais) servem como um guia vital e sempre promissor para considerar o que podemos tentar fazer com o advento de sistemas autônomos que são armados, seja por design ou por métodos pós-fato.

Alguns dizem que devemos banir totalmente os sistemas autônomos de IA que podem ser armados. Isso mesmo, o mundo deveria colocar o pé no chão e exigir estridentemente que os sistemas autônomos de IA nunca sejam armados. Uma proibição total deve ser imposta. Fim da história. Ponto final, ponto.

Bem, podemos sinceramente desejar que a proibição de sistemas autônomos armados letais seja rigorosa e obedientemente observada. O problema é que muito espaço de manobra é facilmente encontrado em qualquer das proibições mais sinceras. Como dizem, as regras são feitas para serem quebradas. Você pode apostar que, onde as coisas estão frouxas, a gentalha descobrirá as lacunas e tentará contornar as regras.

Aqui estão algumas brechas potenciais dignas de consideração:

  • Reivindicações de Não Letal. Faça sistemas de armas autônomas não letais (aparentemente bem, pois está fora do limite de proibição), que você pode, em um centavo, se tornar letal (você só estará além da proibição no último minuto).
  • Reivindicações do Sistema Autônomo Apenas. Defenda a proibição ao não fazer sistemas autônomos com foco letal, enquanto isso, fazer tanto progresso na criação de sistemas autônomos diários que (ainda) não são armados, mas que você pode em um centavo se transformar em arma.
  • Reivindicações de não integrado como um. Crie sistemas autônomos que não sejam de forma alguma armados e, quando chegar a hora, use armas nas costas de modo que você possa tentar argumentar veementemente que eles são dois elementos separados e, portanto, afirmar que eles não se enquadram na rubrica de um tudo-em-um sistema de armas autônomo ou seu primo.
  • Alega que não é autônomo. Faça um sistema de armas que não pareça ter capacidades autônomas. Deixe espaço neste sistema presumivelmente não autônomo para a queda da autonomia baseada em IA. Quando necessário, conecte a autonomia e você está pronto para rolar (até então, aparentemente você não estava violando o banimento).
  • Outros

Existem muitas outras dificuldades expressas em tentar banir completamente os sistemas letais de armas autônomas. Vou cobrir mais alguns deles.

Alguns especialistas argumentam que uma proibição não é especialmente útil e, em vez disso, deveria haver disposições regulatórias. A ideia é que essas engenhocas sejam permitidas, mas rigorosamente policiadas. Uma litania de usos legais é apresentada, juntamente com formas legais de direcionamento, tipos legais de recursos, proporcionalidade legal e similares.

Na opinião deles, uma proibição direta é como colocar a cabeça na areia e fingir que o elefante na sala não existe. Essa alegação, porém, faz o sangue ferver daqueles que contestam com o argumento de que, ao instituir uma proibição, você pode reduzir drasticamente a tentação de buscar esses tipos de sistemas. Claro, alguns vão ostentar a proibição, mas pelo menos espero que a maioria não o faça. Você pode então focar sua atenção nos flaunters e não ter que dividir sua atenção com todos.

Rodadas e voltas esses debates vão.

Outra preocupação frequentemente observada é que, mesmo que os bons cumpram a proibição, os maus não. Isso coloca o bom em uma postura ruim. Os maus terão esses tipos de sistemas autônomos armados e os bons não. Uma vez que as coisas sejam reveladas que os maus as têm, será tarde demais para que os bons as alcancem. Em suma, a única coisa astuta a fazer é preparar-se para combater fogo com fogo.

Há também a clássica contenção da dissuasão. Se os bons optarem por fazer sistemas autônomos armados, isso pode ser usado para impedir que os maus tentem entrar em uma briga. Ou os bons estarão mais bem armados e, assim, dissuadirão os maus, ou os bons estarão prontos quando os maus talvez revelarem que eles estiveram secretamente planejando esses sistemas o tempo todo.

Um contra-ataque a esses contadores é que, ao criar sistemas autônomos armados, você está travando uma corrida armamentista. O outro lado procurará ter o mesmo. Mesmo que eles sejam tecnologicamente incapazes de criar tais sistemas novamente, eles agora serão capazes de roubar os planos dos “bons”, fazer engenharia reversa das entranhas da alta tecnologia ou imitar o que eles parecem ver como uma solução testada e comprovada. maneira de fazer o trabalho.

Ah, alguns retrucam, tudo isso pode levar a uma redução nos conflitos por uma aparência de mútuo. Se o lado A sabe que o lado B tem essas armas letais de sistemas autônomos, e o lado B sabe que o lado A as tem, eles podem ficar quietos e não entrar em conflito. Isso tem aquela aura distinta de vibrações de destruição mutuamente assegurada (MAD).

E assim por diante.

Olhando atentamente para o segundo parágrafo

Já cobrimos muito terreno aqui e só até agora consideramos o primeiro ou o parágrafo de abertura da Carta Aberta (são quatro parágrafos no total).

Hora de dar uma olhada no segundo parágrafo, aqui vai:

  • “Como acontece com qualquer nova tecnologia que oferece novos recursos, o surgimento de robôs móveis avançados oferece a possibilidade de uso indevido. Pessoas não confiáveis ​​podem usá-los para invadir direitos civis ou ameaçar, prejudicar ou intimidar outras pessoas. Uma área de particular preocupação é o armamento. Acreditamos que adicionar armas a robôs operados remotamente ou de forma autônoma, amplamente disponíveis ao público e capazes de navegar para locais anteriormente inacessíveis onde as pessoas vivem e trabalham, gera novos riscos de danos e sérios problemas éticos. As aplicações armadas desses robôs recém-capacitados também prejudicarão a confiança do público na tecnologia de maneiras que prejudicarão os enormes benefícios que trarão à sociedade. Por essas razões, não apoiamos a armação de nossos robôs de uso geral de mobilidade avançada. Para aqueles de nós que já falaram sobre este assunto no passado, e aqueles que se engajaram pela primeira vez, agora sentimos uma urgência renovada à luz da crescente preocupação pública nos últimos meses causada por um pequeno número de pessoas que divulgaram visivelmente sua improvisação esforços para armar robôs disponíveis comercialmente” (conforme postado online).

Ao ler esse segundo parágrafo, espero que você possa ver como meu discurso anterior sobre o armamento da IA ​​vem à tona.

Vamos examinar alguns pontos adicionais.

Um certo escrúpulo em relação a um aspecto de redação específico que causou problemas em alguns é que a narrativa parece enfatizar que “pessoas não confiáveis” podem usar mal esses robôs de IA. Sim, de fato, podem ser pessoas más ou malfeitores que provocam atos covardes que “usam mal” robôs de IA.

Ao mesmo tempo, como apontado no início desta discussão, também precisamos deixar claro que a própria IA pode dar errado, possivelmente devido a bugs ou erros incorporados e outras complicações. A preocupação expressa é que apenas enfatizando as chances de pessoas não confiáveis é que parece ignorar outras possibilidades adversas. Embora a maioria das empresas e fornecedores de IA relute em admitir, há uma infinidade de problemas de sistemas de IA que podem prejudicar a segurança e a confiabilidade dos sistemas autônomos. Para minha cobertura de segurança de IA e a necessidade de salvaguardas rigorosas e comprováveis, consulte o link aqui, por exemplo.

Outro ponto notável que surgiu entre aqueles que examinaram a Carta Aberta envolve a afirmação incluída de que poderia acabar minando a confiança do público associada aos robôs de IA.

Por um lado, esta é uma afirmação válida. Se os robôs de IA são usados ​​para fazer lances malignos, você pode apostar que o público ficará bastante irritado. Quando o público se irritar, você pode apostar que os legisladores entrarão na incursão e procurarão promulgar leis que reprimam os robôs de IA e os fabricantes de robótica de IA. Isso, por sua vez, pode prejudicar a indústria de robótica de IA se as leis forem abrangentes e encerrar os esforços envolvendo benefícios robóticos de IA. De certa forma, o bebê poderia ser jogado fora com a água do banho (uma expressão antiga, provavelmente merecendo ser aposentada).

A questão óbvia levantada também é se essa afirmação sobre evitar uma redução na confiança do público para robôs de IA é um credo um tanto egoísta ou se é para o bem de todos nós (pode ser os dois?).

Você decide.

Chegamos agora à parte especialmente importante da Carta Aberta:

  • “Prometemos que não armaremos nossos robôs de uso geral de mobilidade avançada ou o software que desenvolvemos que permite a robótica avançada e não apoiaremos outros a fazê-lo. Quando possível, revisaremos cuidadosamente as aplicações pretendidas de nossos clientes para evitar potencial armamento. Também nos comprometemos a explorar o desenvolvimento de recursos tecnológicos que possam mitigar ou reduzir esses riscos. Para ser claro, não estamos questionando as tecnologias existentes que as nações e suas agências governamentais usam para se defender e defender suas leis ”(conforme postado online).

Podemos descompactar isso.

Sente-se e prepare-se adequadamente.

Você está pronto para alguma polarização ardente?

Do lado favorável, alguns estão anunciando vocalmente que esses fabricantes de robôs de IA fariam tal promessa. Parece que esses fabricantes de robôs felizmente procurarão não armar seus robôs de “mobilidade avançada de uso geral”. Além disso, a Carta Aberta diz que eles não apoiarão outros que o façam.

Os críticos se perguntam se há alguma forma de criação de palavras inteligente acontecendo.

Por exemplo, onde começa e termina a “mobilidade avançada”? Se um fabricante de robôs está planejando um simples-Mobility AI robot em vez de um avançado (que é um jargão técnico indefinido), isso é excluído do escopo do que será não ser armado? Assim, aparentemente, não há problema em armar robôs de IA de mobilidade simples, desde que não sejam os chamados avançado.

O mesmo vale para o fraseado de robôs de uso geral. Se um robô de IA é projetado especificamente para armamento e, portanto, não é, digamos um propósito geral robô, isso se torna uma exclusão viável do escopo?

Você pode discutir com essas palavras e argumentar fervorosamente que esta é apenas uma Carta Aberta e não um documento legal de cinquenta páginas que explica todos os cantos e recantos.

Isso nos leva ao escrúpulo aparentemente mais em nível macro expresso por alguns. Em essência, o que uma “promessa” denota?

Alguns perguntam, onde está a carne?

Uma empresa que faz uma promessa como essa aparentemente está fazendo isso sem qualquer interesse real no jogo. Se o alto escalão de qualquer empresa que assinar esse compromisso decidir não mais honrar o compromisso, o que acontecerá com essa empresa? Os executivos serão sumariamente enlatados? A empresa fechará e se desculpará profusamente por ter violado a promessa? E assim por diante.

Tanto quanto se pode inferir, não há penalidade ou penalidade específica para qualquer violação do compromisso.

Você pode argumentar que existe a possibilidade de danos à reputação. Uma empresa doadora pode ser prejudicada no mercado por ter feito uma promessa que deixou de cumprir. Claro, isso também pressupõe que as pessoas se lembrarão de que a promessa foi feita. Também assume que a violação do compromisso será detectada de alguma forma (parece claramente improvável que uma empresa conte tudo se o fizer). O violador da promessa teria que ser chamado e, no entanto, esse problema pode se tornar mero ruído no tsunami contínuo de notícias sobre os fabricantes de robótica de IA.

Considere outro ângulo que surgiu.

Uma firma de doadores é comprada por uma firma maior. A empresa maior opta por começar a transformar os robôs de uso geral de mobilidade avançada em versões com armas de IA.

Isso é uma violação do compromisso?

A empresa maior pode insistir que não é uma violação, uma vez que ela (a empresa maior) nunca fez a promessa. Enquanto isso, os inócuos robôs de IA que a empresa menor montou e concebeu, fazendo isso com as intenções aparentemente mais altruístas, são transformados quase da noite para o dia em armas.

Meio que mina a promessa, embora você possa dizer que a empresa menor não sabia que isso um dia aconteceria. Eles foram sinceros em seu desejo. Estava fora de seu controle o que a maior empresa compradora optou por fazer.

Alguns também perguntam se há alguma responsabilidade legal nisso.

Uma empresa doadora decide daqui a alguns meses que não vai honrar a promessa. Eles tiveram uma mudança de coração. A empresa pode ser processada por ter abandonado a promessa que fez? Quem iria processar? Qual seria o fundamento do processo? Uma série de questões legais surgem. Como se costuma dizer, você pode processar praticamente qualquer pessoa, mas se você vai prevalecer é uma questão completamente diferente.

Pense nisso de outra maneira. Uma empresa doadora tem a oportunidade de fazer um grande negócio para vender um monte de seus robôs de uso geral de mobilidade avançada para uma grande empresa que está disposta a pagar caro para obter os robôs. É um daqueles acordos de compra de zilhões de dólares únicos na vida.

O que a empresa de robótica de IA deve fazer?

Se a empresa doadora de robótica de IA for negociada publicamente, eles quase certamente tentariam fazer a venda (o mesmo poderia ser dito de uma empresa privada, embora não exatamente). Imagine que a empresa doadora esteja preocupada que o comprador possa tentar armar os robôs, embora digamos que não haja tal discussão na mesa. Há apenas rumores de que o comprador pode fazê-lo.

Assim, a empresa doadora coloca em seu licenciamento que os robôs não devem ser armados. O comprador recusa essa linguagem e se afasta da compra.

De quanto lucro a empresa de robótica de IA prometida acabou de se afastar?

Existe um ponto em que o lucro em mãos supera a inclusão do requisito de restrição de licenciamento (ou, talvez, a restrição legal para permitir espaço de manobra e ainda fazer o negócio acontecer)? Eu acho que você pode ver o dilema envolvido. Toneladas de tais cenários são facilmente evocadas. A questão é se essa promessa vai ter dentes. Se sim, que tipo de dentes?

Em suma, como mencionado no início desta discussão, alguns estão empolgados com o fato de esse tipo de promessa estar sendo feito, enquanto outros estão tendo uma visão mais obscura sobre se a promessa será válida.

Nós seguimos em frente.

Fazendo uma promessa

O quarto e último parágrafo da Carta Aberta diz o seguinte:

  • “Entendemos que nosso compromisso por si só não é suficiente para abordar totalmente esses riscos e, portanto, pedimos aos formuladores de políticas que trabalhem conosco para promover o uso seguro desses robôs e proibir seu uso indevido. Também pedimos a todas as organizações, desenvolvedores, pesquisadores e usuários da comunidade robótica que façam promessas semelhantes de não construir, autorizar, apoiar ou permitir a anexação de armas a esses robôs. Estamos convencidos de que os benefícios para a humanidade dessas tecnologias superam fortemente o risco de uso indevido e estamos entusiasmados com um futuro brilhante em que humanos e robôs trabalham lado a lado para enfrentar alguns dos desafios do mundo” (conforme publicado online).

Esta última parte da Carta Aberta tem vários elementos adicionais que levantaram ira.

Convocar os formuladores de políticas pode ser bem ou mal aconselhado, afirmam alguns. Você pode fazer com que os formuladores de políticas não sejam versados ​​nesses assuntos que façam o clássico julgamento apressado e criem leis e regulamentos que usurpam o progresso dos robôs de IA. De acordo com o ponto anterior, talvez a inovação que está impulsionando os avanços robóticos da IA ​​seja interrompida ou pisoteada.

Melhor ter certeza de que você sabe o que está pedindo, dizem os críticos.

Claro, o contra-argumento é que a narrativa afirma claramente que os formuladores de políticas deveriam estar trabalhando com empresas de robótica de IA para descobrir como presumivelmente fazer tais leis e regulamentos. O contra-argumento é que os formuladores de políticas podem ser vistos como contemplando os fabricantes de robótica de IA se atenderem aos seus caprichos. O contra-argumento do contra-argumento é que é naturalmente uma necessidade trabalhar com aqueles que conhecem a tecnologia, ou então o resultado será potencialmente um erro. etc.

Em uma base talvez arbitrária, alguns tiveram azia sobre a linha que pede a todos que façam promessas semelhantes de não anexando armamento para robôs de uso geral de mobilidade avançada. A palavra-chave lá é a palavra anexando. Se alguém está fazendo um robô de IA que incorpore ou incorpore perfeitamente armamento, isso parece contornar o texto de anexando algo. Você pode ver agora, alguém argumentando veementemente que a arma não está anexada, é completamente parte integrante do robô de IA. Supere isso, eles exclamam, não estamos dentro do escopo dessa promessa, e eles poderiam até ter dito de outra forma que estavam.

Isso traz outra reclamação sobre a falta de aderência da promessa.

Uma empresa ou qualquer pessoa que opte por fazer esse compromisso pode declarar-se não comprometida a qualquer momento que desejar e por qualquer motivo que desejar?

Aparentemente sim.

Há muita especulação sobre fazer promessas e que tração elas imbuem.

Conclusão

Caramba, você pode dizer, essas empresas que estão tentando fazer a coisa certa estão sendo criticadas por tentar fazer a coisa certa.

O que veio do nosso mundo?

Qualquer um que faça tal promessa deve receber o benefício da dúvida, você pode sustentar apaixonadamente. Eles estão saindo para a esfera pública para fazer uma contribuição ousada e vital. Se começarmos a difamá-los por isso, certamente piorará as coisas. Ninguém vai querer fazer tal promessa. Empresas e outros nem tentarão. Eles vão se esconder e não avisar a sociedade sobre o que esses queridos robôs dançarinos podem se transformar perigosamente.

Os céticos proclamam que a maneira de fazer a sociedade se conscientizar envolve outras ações, como abandonar o ato fantasioso de exibir os robôs de IA dançantes e brincalhões. Ou pelo menos torná-lo um ato mais equilibrado. Por exemplo, em vez de apenas imitar amados cães leais a animais de estimação, ilustre como os robôs dançantes podem ser mais parecidos com lobos raivosos soltos que podem rasgar humanos em pedaços sem hesitar.

Isso vai receber mais atenção do que promessas, eles imploram.

As promessas podem, sem dúvida, ser um grande enigma.

Como Mahatma Gandhi declarou eloquentemente: “Não importa quão explícito seja o compromisso, as pessoas vão virar e torcer o texto para se adequar ao seu próprio propósito”.

Talvez para concluir aqui com uma nota edificante, Thomas Jefferson disse isso sobre promessas: “Prometemos mutuamente nossas vidas, nossas fortunas e nossa honra sagrada”.

Quando se trata de robôs de IA, sua autonomia, seu armamento e afins, todos nós estaremos juntos nisso. Nosso compromisso mútuo precisa ser pelo menos que manteremos esses assuntos em primeiro plano, nos esforçaremos para encontrar maneiras de lidar com esses avanços e, de alguma forma, encontrar nosso caminho para garantir nossa honra, nossa fortuna e nossas vidas.

Podemos nos comprometer com isso?

Eu espero que sim.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing- fabricantes de robôs-dizendo-eles-varão-evitar-ai-arma/