A ética da IA ​​se inclina para Aristóteles para examinar se os humanos podem optar por escravizar a IA em meio ao advento de sistemas totalmente autônomos

Amigo ou inimigo.

Peixes ou aves.

Pessoa ou coisa.

Todos esses enigmas generalizados aparentemente sugerem que às vezes nos deparamos com uma situação dicotômica e precisamos escolher uma faceta ou outra. A vida pode nos forçar a enfrentar circunstâncias que consistem em duas opções mutuamente exclusivas. Em uma linguagem mais saborosa, você poderia sugerir que uma equação binária excludente nos obriga a seguir um caminho distinto em vez de outro.

Vamos nos concentrar especificamente na dicotomia pessoa-ou-coisa.

A fervorosa questão de pessoa ou coisa surge repetidamente em relação à Inteligência Artificial (IA).

Para esclarecer, a IA de hoje é absolutamente não uma pessoa e não carrega nenhuma aparência de senciência, apesar de quaisquer manchetes de olhos arregalados e totalmente desproporcionais que você possa estar vendo nas notícias e nas mídias sociais. Assim, você pode ter certeza de que agora a questão de saber se a IA é uma pessoa ou uma coisa é prontamente respondida. Leia meus lábios, em uma verdadeira escolha de Hobson entre pessoa ou coisa, AI é uma coisa, por enquanto.

Dito isto, podemos olhar para o futuro e imaginar o que pode acontecer se formos capazes de alcançar uma forma senciente de IA.

Alguns críticos racionais (além de céticos cáusticos) sugerem que talvez estejamos contando nossas galinhas muito antes de serem chocadas, discutindo hoje as ramificações de uma IA senciente. A preocupação expressa é que a própria discussão implica que devemos estar à beira de tal IA. A sociedade em geral pode ser levada a acreditar que amanhã ou depois de amanhã haverá uma revelação repentina e chocante de que de fato chegamos à IA senciente (isso às vezes é referido por alguns como a singularidade da IA ​​ou uma explosão de inteligência, veja minha análise em o link aqui). Enquanto isso, não sabemos quando tal IA surgirá, se alguma vez, e certamente, aparentemente, não precisamos olhar em cada esquina e estar terrivelmente no limite de que a IA senciente saltará para nós de forma totalmente inesperada no próximo pouco tempo.

O outro lado do debate aponta que não devemos ter nossas cabeças enterradas profundamente na areia. Veja bem, se não estivermos discutindo e ponderando abertamente sobre as possibilidades associadas à IA senciente, estaremos prestando um grande desserviço à humanidade. Não estaremos prontos para lidar com IA senciente quando ou se ela surgir. Além disso, e talvez ainda mais poderosamente afirmado, ao antecipar a IA senciente podemos tomar as coisas em nossas próprias mãos e moldar a direção e a natureza de como essa IA se tornará e em que consistirá (nem todos concordam com este último ponto , ou seja, alguns dizem que tal IA terá uma “mente” inteiramente própria e seremos incapazes de moldá-la ou encurralá-la, pois a IA será capaz de pensar e determinar independentemente um meio de existir persistentemente).

A ética da IA ​​tende a ficar do lado do ponto de vista de que seríamos sábios em esclarecer essas questões árduas e argumentativas de IA sencientes agora, em vez de esperar até que não tenhamos mais opções ou fiquemos chocados com a obtenção de tal IA. Os leitores sabem muito bem que tenho abordado tópicos de Ética e Ética em IA extensivamente, incluindo uma ampla gama de questões espinhosas, como personalidade jurídica de IA, contenção de IA, desgorgement de IA, monocultura algorítmica de IA, lavagem de ética de IA, uso duplo Projetos de IA chamados Doctor Evil, IA ocultando a dinâmica do poder social, IA confiável, auditoria de IA e assim por diante (veja minha cobertura de colunas desses tópicos vitais em o link aqui).

Eu coloco a você uma pergunta desafiadora.

No futuro, supondo que, de qualquer forma, acabemos com a IA senciente, essa IA senciente será interpretada por todos nós como uma pessoa ou como uma coisa?

Antes de começarmos a mergulhar profundamente nesta questão totalmente provocativa, permita-me dizer algo sobre o bordão de “IA senciente” para que todos estejamos na mesma página. Há muita angústia sobre o significado da senciência e o significado da consciência. Os especialistas podem discordar prontamente sobre o que essas palavras constituem. Adicionando a essa confusão, sempre que alguém se refere a “IA”, você não tem meios prontos de saber a que eles estão se referindo em si. Já enfatizei aqui que a IA de hoje não é senciente. Se finalmente chegarmos a uma futura IA que seja senciente, presumivelmente também a chamaremos de “IA”. O fato é que esses assuntos contenciosos podem ser bastante confusos agora sobre se a expressão da frase “IA” está relacionada à IA não senciente de hoje ou à IA senciente algum dia.

Aqueles que estão debatendo a IA podem se encontrar conversando uns com os outros e não perceber que um está descrevendo maçãs e o outro está falando de laranjas.

Para tentar contornar essa confusão, há um ajuste no fraseado da IA ​​que muitos estão usando para fins de esclarecimento esperançoso. Atualmente, tendemos a nos referir à Inteligência Geral Artificial (AGI) como o tipo de IA que pode realizar esforços totalmente inteligentes. Nesse sentido, o uso mais brando da frase “IA” é deixado para ser interpretado como uma versão menor de IA, que alguns dizem ser IA restrita, ou é denotacionalmente ambígua e você não sabe se a referência é não - IA senciente ou talvez IA senciente.

Eu vou fornecer um toque adicional para isso.

Dependendo de uma determinada definição de senciência, você pode entrar em um debate acalorado sobre se a AGI será senciente ou não. Alguns afirmam que sim, é claro, a AGI, por sua natureza intrínseca, precisa ser senciente. Outros afirmam que você pode ter AGI que não é senciente, ergo, senciência é uma característica diferente que não é um requisito para obter AGI. Eu examinei esse debate de várias maneiras em minhas colunas e não vou repetir o assunto aqui.

Por enquanto, por favor, assuma que daqui em diante nesta discussão aqui que quando me refiro à IA, pretendo sugerir que estou me referindo à AGI.

Aqui está o download sobre isso. Ainda não temos AGI e, de certa forma, concordaremos educadamente momentaneamente que a AGI está no mesmo campo geral da IA ​​senciente. Se eu fosse usar “AGI” apenas durante minha discussão, esse fraseado é potencialmente perturbador, já que muitos ainda não estão acostumados a ver “AGI” como um apelido e provavelmente ficariam levemente irritados ao ver repetidamente esse fraseado relativamente novo. Agora, se em vez disso, eu continuasse me referindo à “IA senciente”, isso também poderia ser uma distração para aqueles que estão brigando sobre se AGI e IA senciente são iguais ou diferentes uma da outra.

Para evitar essa confusão, suponha que minha referência à IA seja o mesmo que dizer AGI ou mesmo IA senciente, e pelo menos saiba que não estou falando da IA ​​não senciente não-AGI de hoje quando me deparo com as considerações sobre IA que parece ter inteligência semelhante à humana. Ocasionalmente, usarei o homônimo AGI para lembrá-lo de vez em quando aqui que estou examinando o tipo de IA que ainda não temos, especialmente no início desta exploração do enigma de pessoa ou coisa.

Esse foi um reconhecimento útil de letras miúdas e agora volto ao assunto fundamental em questão.

Permita-me agora perguntar-lhe se AGI é uma pessoa ou uma coisa.

Considere estas duas perguntas:

  • AGI é uma pessoa?
  • AGI é uma coisa?

Em seguida, vamos repetir cada pergunta e, respectivamente, responder às perguntas com uma série de respostas sim ou não, de acordo com uma suposta escolha dicotômica.

Comece com esta possibilidade postulada:

  • AGI é uma pessoa? Responda: Sim.
  • AGI é uma coisa? Responda: Não.

Pense nisso. Se a AGI é de fato interpretada como uma pessoa e não como uma coisa, podemos quase certamente concordar que devemos tratar a AGI como se fosse semelhante a uma pessoa. Parece haver um argumento insuficientemente genuíno sobre não conceder à AGI uma forma de personalidade jurídica. Isso seria inteiramente o mesmo que a personalidade jurídica humana, ou poderíamos decidir criar uma variante da personalidade jurídica orientada para o ser humano que seria judiciosamente mais aplicável à AGI. Caso encerrado.

Isso foi fácil.

Imagine, em vez disso, que declaramos isso:

  • AGI é uma pessoa? Responda: Não.
  • AGI é uma coisa? Responda: Sim.

Nesta circunstância, a resolução é obviamente direta, pois estamos dizendo que AGI é uma coisa e não se eleva à categoria de pessoa. Parece haver um consenso geral de que decididamente não concederíamos personalidade jurídica à AGI, devido à faceta de que não é uma pessoa. Como uma coisa, a AGI provavelmente e sensatamente estaria sob nossa rubrica geral sobre como tratamos legalmente as “coisas” em nossa sociedade.

Dois para baixo, mais duas possibilidades para ir.

Visualize isso:

  • AGI é uma pessoa? Responda: Sim.
  • AGI é uma coisa? Responda: Sim.

Ai, isso parece estranho, já que temos duas respostas sim. Incômodo. Estamos sugerindo que AGI é uma pessoa e, ao mesmo tempo, uma coisa. Mas isso parece ir contra nossa proclamada dicotomia. Em teoria, pelas restrições de uma dicotomia, algo deve ser uma pessoa ou deve ser uma coisa. Esses dois buckets ou categorias são considerados mutuamente exclusivos. Ao afirmar que AGI é ambos, estamos contrariando o sistema e quebrando o arranjo mutuamente exclusivo.

Nossa última possibilidade parece ser esta:

  • AGI é uma pessoa? Responda: Não.
  • AGI é uma coisa? Responda: Não.

Caramba, isso também é ruim para nossas tentativas de classificar AGI como uma pessoa ou uma coisa. Estamos dizendo que AGI não é uma pessoa, o que presumivelmente significaria que deve ser uma coisa (nossa única outra opção disponível, nesta dicotomia). Mas também afirmamos que AGI não é uma coisa. No entanto, se a AGI não é uma coisa, teríamos, pela lógica, que afirmar que a AGI é uma pessoa. Rodando e rodando nós vamos. Um paradoxo, com certeza.

AGI nessas duas últimas possibilidades era (1) tanto pessoa quanto coisa, ou (2) nem pessoa nem coisa. Você pode dizer descaradamente que essas duas afirmações sobre AGI são um pouco parecidas com o enigma clássico do que não é nem peixe nem ave, se você entende o que quero dizer.

O que devemos fazer?

Estou prestes a oferecer uma solução proposta frequentemente contestada e altamente contestada para este dilema de classificação AGI, embora você deva ser alertado de antemão de que possivelmente será perturbadoramente chocante ver ou ouvir. Por favor, prepare-se adequadamente.

Um trabalho de pesquisa que abordou essa questão afirmou o seguinte: “Um método para resolver esse problema é formular um terceiro termo que não seja nem uma coisa nem outra ou um tipo de combinação ou síntese de um e outro” (por David Gunkel, Universidade do Norte de Illinois em Por que os robôs não devem ser escravos, 2022). E o artigo então fornece este ponto adicional: “Uma solução possível, se não surpreendente, para a dicotomia exclusiva pessoa/coisa é escravidão” (pelo mesmo jornal).

Como pano de fundo, anos antes, havia um artigo publicado em 2010 intitulado “Robots Should Be Slaves” que se tornou uma espécie de pilar para estimular esse tipo de consideração, no qual o artigo afirmava: “Minha tese é que os robôs devem ser construídos, comercializados e considerados legalmente como escravos, não companheiros” (em um artigo de Joanna Bryson). Para tentar elucidar o tópico sem usar palavras tão severas e angustiantes, o artigo passou a afirmar o seguinte: “O que quero dizer é que 'Robôs devem ser servos que você possui” (de acordo com o artigo de Bryson).

Muitos pesquisadores e autores cobriram esse terreno.

Pense em vários contos de ficção científica que mostram a humanidade escravizando robôs de IA. Alguns falam de escravos robôs, servos artificiais, servidão de IA e coisas do gênero. Curiosamente, por mais dura que pareça ser a expressão “robôs escravos”, alguns se preocuparam que, se nos referirmos a “servos robôs”, estamos evitando a realidade de como esses sistemas autônomos de IA podem ser tratados (substituindo a palavra por “ servos” é dito ser uma diluição das intenções e um estratagema para evitar implicações sérias). Bryson declarou mais tarde em uma postagem no blog de 2015 que “percebo agora que você não pode usar o termo 'escravo' sem invocar sua história humana”.

Para aqueles que estão procurando examinar profundamente esse tópico emaranhado de AGI, às vezes eles trazem exemplos históricos do mundo real dos quais podemos obter insights. Claro, não temos nenhuma AGI anterior que mostre como a humanidade lidou com o assunto. Um argumento é que podemos ter, no entanto, referências históricas úteis que valem a pena examinar envolvendo como os humanos trataram outros humanos.

Por exemplo, em um livro publicado em 2013, o autor afirma o seguinte: “A promessa e o perigo de servos inteligentes e artificiais foram estabelecidos implicitamente há mais de 2,000 anos por Aristóteles” (livro de Kevin LaGrandeur, Androids e redes inteligentes na literatura e cultura moderna). A ideia é que podemos nos apoiar em Aristóteles e ver se há insights sobre como a humanidade vai ou deve acabar tratando potencialmente a AGI.

Tenho certeza de que você conhece a importância de estudar a história, tão abundantemente ressaltada pelas famosas palavras de George Santayana: “Aqueles que não conseguem lembrar o passado estão condenados a repeti-lo” (em A Vida da Razão, 1905).

Parabéns ao Instituto de Ética e IA da Universidade de Oxford

Uma apresentação recente e bastante estimada examinou de perto a questão da Ética da IA ​​em meio à coleta de insights das obras e da vida de Aristóteles. Na palestra anual inaugural para a Universidade de Oxford Instituto de Ética e IA, o professor Josiah Ober, da Universidade de Stanford, abordou profundamente o tema em sua apresentação “Ética na IA com Aristóteles”, que ocorreu recentemente em 16 de junho de 2022.

Nota lateral, na minha qualidade de Stanford Fellow e especialista global em AI Ethics & Law, fiquei eufórico por Josiah Ober, de Stanford, ter sido selecionado como o orador inaugural. Uma escolha maravilhosa e uma excelente palestra.

Aqui está o resumo que foi fornecido para sua palestra envolvente: “Filosofia analítica e ficção especulativa são atualmente nossos principais recursos intelectuais para pensar seriamente sobre ética na IA. Proponho acrescentar um terceiro: história social e filosófica antiga. No Política, Aristóteles desenvolve uma doutrina notória: alguns humanos são escravos 'por natureza' – inteligentes, mas sofrendo de um defeito psicológico que os torna incapazes de raciocinar sobre seu próprio bem. Como tal, eles devem ser tratados como 'ferramentas animadas', instrumentos em vez de fins. Seu trabalho deve ser dirigido e empregado para a vantagem de outros. A doutrina repugnante de Aristóteles foi empregada para propósitos viciosos, por exemplo, na América pré-guerra. No entanto, é útil para a ética da IA, na medida em que a escravidão antiga era um protótipo pré-moderno de uma versão da IA. As pessoas escravizadas eram onipresentes na sociedade grega antiga – trabalhadores, prostitutas, banqueiros, burocratas do governo – mas não facilmente distinguidas das pessoas livres. A ubiquidade, juntamente com a suposição de que a escravidão era uma necessidade prática, gerou uma série de enigmas e dilemas éticos: como, exatamente, os escravos são diferentes de 'nós'? Como podemos distingui-los de nós mesmos? Eles têm direitos? O que constitui maus-tratos? Meu instrumento pode ser meu amigo? Quais são as consequências da alforria? A longa história da luta filosófica e institucional grega com essas e outras questões aumenta o repertório interpretativo dos eticistas modernos que enfrentam um futuro em que uma máquina inteligente pode ser considerada um “escravo natural” (conforme a Universidade de Oxford Instituto de Ética em IA local na rede Internet).

Para mais informações sobre a apresentação e acesso à gravação em vídeo da palestra, consulte o link aqui.

O moderador da apresentação foi o Professor John Tasioulas, o Diretor inaugural do Instituto de Ética e IA, e Professor de Ética e Filosofia Jurídica, Faculdade de Filosofia, Universidade de Oxford. Anteriormente, ele foi o presidente inaugural de Política, Filosofia e Direito e Diretor do Yeoh Tiong Lay Center for Politics, Philosophy & Law na The Dickson Poon School of Law, Kings College London.

Eu recomendo que qualquer pessoa interessada em Ética em IA acompanhe o trabalho em andamento e as palestras convidadas da Universidade de Oxford Instituto de Ética e IA, Ver o link aqui e / ou o link aqui para mais informações.

Como pano de fundo, aqui está a missão e o foco declarados do Instituto: “O Instituto de Ética em IA reunirá filósofos líderes mundiais e outros especialistas em humanidades com os desenvolvedores técnicos e usuários de IA na academia, negócios e governo. A ética e a governança da IA ​​são uma área de pesquisa excepcionalmente vibrante em Oxford e o Instituto é uma oportunidade de dar um salto ousado a partir dessa plataforma. Cada dia traz mais exemplos dos desafios éticos colocados pela IA; de reconhecimento facial a perfis de eleitores, interfaces cérebro-máquinas a drones armados e o discurso contínuo sobre como a IA afetará o emprego em escala global. Este é um trabalho urgente e importante que pretendemos promover internacionalmente, bem como incorporar em nossa própria pesquisa e ensino aqui em Oxford ”(fonte através do site oficial).

Trazendo à tona as lições de Aristóteles

A Grécia Antiga aceitou e endossou abertamente a prática da escravização. Por exemplo, supostamente, Atenas no 5th e 6th séculos aC teve uma das maiores encarnações de escravização em que cerca de 60,000 a talvez 80,000 pessoas foram escravizadas. Se você leu alguma das muitas histórias gregas e peças de teatro daquela época, há muitas menções ao assunto.

Durante sua vida, Aristóteles estava totalmente imerso nos aspectos sociais e culturais que envolvem a escravização e escreveu extensivamente sobre o assunto. Podemos hoje ler suas palavras e buscar entender o como e o porquê de seus pontos de vista sobre o assunto. Isso pode ser muito revelador.

Você pode se perguntar por que Aristóteles seria uma fonte particularmente importante a ser considerada neste tópico. Surgem pelo menos duas razões principais:

1) Grande Pensador. Aristóteles é seguramente classificado como um dos maiores pensadores de todos os tempos, servindo como um grande e profundamente investigador filósofo, e visto também como um eticista que estabeleceu muitos pilares éticos cruciais. Alguns optaram por ungi-lo como o pai da lógica, o pai da retórica, o pai do realismo etc., e reconhecem sua influência em uma ampla variedade de domínios e disciplinas.

2) Experiência vivida. Aristóteles viveu durante o tempo em que a Grécia Antiga estava inundada de escravidão. Assim, seus insights não seriam simplesmente sobre preceitos abstratos, mas, presumivelmente, abrangeriam suas próprias experiências do dia-a-dia como sendo integralmente entrelaçadas à cultura e aos costumes sociais daquela época.

Então, temos uma combinação um tanto surpreendente de alguém que foi um grande pensador e que também teve uma experiência comprovadamente vivida no tópico de interesse. Além disso, ele escreveu seus pensamentos. Isso é muito importante, agora, para nossos propósitos de hoje. Todos os seus escritos, juntamente com outros escritos que descrevem seus discursos e interações entre outros, nos fornecem hoje uma infinidade de material para inspeção e análise.

Eu gostaria de levá-lo a uma tangente brevemente relacionada para mencionar algo mais sobre a noção geral subjacente ao significado de ter um experiência vivida. Deixe de lado a discussão sobre a Grécia Antiga por um momento enquanto damos uma rápida olhada nos aspectos abrangentes das experiências vividas.

Suponha que eu tivesse duas pessoas hoje para fazer várias perguntas sobre carros.

Um deles nunca dirigiu um carro. Essa pessoa não sabe dirigir. Essa pessoa nunca se sentou ao volante de um automóvel. Controles de direção habituais e extremamente comuns são um pouco de mistério para essa pessoa. Qual pedal faz o que? Como você faz isso parar? Como você faz isso acontecer? Essa pessoa que não dirige está totalmente confusa com esses assuntos.

A outra pessoa é um motorista comum. Eles dirigem para o trabalho todos os dias. Eles lidam com o tráfego para-e-vai. Eles dirigem há muitos anos. Isso inclui tudo, desde ruas tranquilas até estradas e atalhos agitados.

Se eu pedir a cada um deles para me contar como é dirigir um carro, você consegue adivinhar que tipo de respostas eu poderia receber?

Aquele que nunca dirigiu um carro é obrigado a fazer suposições malucas. Talvez a pessoa romantize o ato de dirigir. Dirigir é algo abstrato para eles. Tudo o que eles podem fazer é sugerir que dirigir é despreocupado e você pode fazer o carro ir na direção que desejar.

Aposto que o piloto experiente contaria uma história diferente. Eles podem mencionar as vantagens de poder dirigir, ecoando um pouco os sentimentos da pessoa que não dirigiu um carro. As chances são de que o piloto experiente adicione muito mais ao prato. Dirigir às vezes é estressante. Você está carregando uma pesada responsabilidade. O ato de dirigir está repleto de sérias preocupações e potenciais consequências de vida ou morte.

A essência é que quando você pode ter acesso a alguém que viveu experiências, as chances são de que você possa ter uma perspectiva mais realista de como é o mundo em relação ao foco da investigação. Não há garantia de tal resultado. É concebível que o não motorista talvez saiba o que o motorista experiente sabe sobre dirigir, embora provavelmente não esperemos isso e ainda tenhamos escrúpulos por não estarmos recebendo todas as informações.

Voltando à nossa discussão sobre Aristóteles, através de seus escritos e dos escritos de outros sobre ele, podemos rever suas experiências vividas sobre o tema ou foco de investigação aqui. A segunda é que ele também foi um pensador de imensas proporções e devemos esperar que receberemos um barril cheio de considerações astutas.

Tenha em mente que não precisamos necessariamente acreditar em suas palavras pelo valor nominal, de modo que devemos manter um olhar cauteloso em seus preconceitos particulares. Sua imersão naquela época pode levá-lo ao erro ao tentar ficar de fora dos assuntos em questão, incapaz de proferir adequadamente uma opinião desapaixonada e imparcial. Mesmo o mais estridente dos lógicos pode acabar distorcendo a lógica para tentar atender às suas predileções e experiências vividas.

Vamos agora entrar na palestra inaugural e ver que lições Aristóteles pode engendrar para nós hoje.

Um ponto de fixação sobre as experiências vividas foi imediatamente trazido à atenção do público. No caso de uso da AGI, como não temos AGI hoje, é difícil analisar como será a AGI e como vamos lidar com a AGI. Não temos nenhuma experiência vivida relacionada especificamente à AGI. Como o professor Ober mencionou notavelmente, podemos nos encontrar em um mundo de dor quando chegarmos à AGI.

Isso é frequentemente afirmado como a IA é um risco existencial, que abordei muitas vezes em minhas colunas. Você teria que estar vivendo em uma caverna para não estar ciente das dúvidas e suspeitas de que vamos produzir ou gerar AGI que condenará toda a humanidade. De fato, embora eu esteja aqui me concentrando na escravização da IA, muitos achariam que esse é um tópico de consequências invertidas ou retrógradas em comparação com a possibilidade de AGI optar por escravizar a humanidade. Obtenha suas prioridades em ordem, alguns especialistas bajuladores exortariam.

Apesar das muitas exclamações sobre a IA como um risco existencial, certamente podemos refletir sobre o outro lado benéfico da moeda da IA. Talvez a AGI seja capaz de resolver os problemas aparentemente insolúveis que a humanidade enfrenta. AGI pode ser capaz de descobrir uma cura para o câncer. AGI poderia descobrir como resolver a fome mundial. O céu é o limite, como dizem. Esse é o cenário de cara feliz sobre AGI.

Um otimista diria que é maravilhoso imaginar como a AGI será uma bênção para a humanidade, enquanto um pessimista tenderia a alertar que o lado negativo parece muito pior do que as vantagens especuladas. AGI que ajuda a humanidade é ótimo. AGI que decide matar todos os humanos ou escravizá-los, bem, esse é um risco existencial claramente devastador e devastador da sociedade que merece atenção consciente intensa e salvadora de vidas.

Ok, voltando ao cerne da questão, não temos nenhuma experiência vivida em relação à AGI. A menos que você possa construir uma máquina do tempo e ir para o futuro quando (se) a AGI existir, e depois voltar para nos contar o que você encontrou, estamos sem sorte agora sobre a AGI de uma perspectiva de experiência vivida baseada em humanos.

Outro meio de utilizar as experiências vividas envolve o fato de que Aristóteles viveu durante uma época em que ocorreu a escravização. E aqui está o kicker. Aqueles que foram escravizados foram, em alguns aspectos, retratados como um tipo de máquina, uma mistura de pessoa e coisa, por assim dizer. Aristóteles era conhecido por se referir aos escravizados como uma propriedade que respira.

Eu estou supondo que você pode estar perplexo que Aristóteles, um gigante da lógica e da ética, poderia não apenas ter reconhecido a escravidão, mas que ele defendeu abertamente e vociferantemente a prática. Ele pessoalmente também fez uso da escravização. Isso simplesmente parece além da compreensão. Certamente, com todo seu imenso intelecto e sabedoria, ele teria denunciado a prática.

Atrevo-me a dizer que isso destaca os aspectos às vezes problemáticos de selecionar pepitas de sabedoria de alguém que está sobrecarregado (digamos) por suas experiências vividas. É como o peixe que reside no aquário aquático. Tudo o que eles podem perceber é a água ao seu redor. Tentar imaginar qualquer coisa fora de seu mundo baseado na água é um imenso desafio. Da mesma forma, Aristóteles estava totalmente imerso em uma visão de mundo que aceitava as normas vigentes. Seus escritos parecem ilustrar esse tipo de confinamento mental, pode-se dizer (talvez por escolha, e não por padrão). A maneira pela qual Aristóteles justificou essas práticas repreensíveis é fascinantemente absorvente e, ao mesmo tempo, perturbadora e digna de exposição e até de condenação.

Eu lhe darei um pouco de provocação de que a “lógica” de Aristóteles neste notório tópico envolve instrumentos com alma, uma afirmação vantagem mútua predicado na cognição, instrumentos hierárquicos de ordem superior e inferior, elementos deliberativos e racionais da alma, graus de virtude, suposta astúcia e assim por diante. Esperamos que você fique intrigado o suficiente com esse teaser para assistir ao vídeo da palestra (veja o link mencionado anteriormente).

No entanto, não vou deixar você na mão e pelo menos indicar em que consistiu sumariamente a conclusão (alerta de spoiler, se você preferir descobrir pelo vídeo, pule o restante deste parágrafo aqui). Acontece que essa avaliação acadêmica aprofundada da “lógica” que Aristóteles usa mostra um artifício cheio de contradições e todo o kit e kaboodle desmoronam como um frágil castelo de cartas. Parafraseando o sentimento do professor Ober, este grande filósofo ético cai no recife.

Você não pode colocar um pino quadrado em um buraco ético redondo.

Algumas Considerações Adicionais de Pensamento

Se Aristóteles tivesse uma lógica ruim sobre esse assunto, poderíamos descartar instintivamente as postulações e teorias de Aristóteles em relação a essa prática?

Não. Você vê, ainda há muito a derivar cavando nas suposições e contorções da lógica, mesmo que estejam repletas de erros. Além disso, podemos contemplar como outros podem inadvertidamente seguir o mesmo caminho errôneo.

Uma grande vantagem adicional é que a sociedade pode inventar uma lógica excêntrica ou inadequada quando se trata de considerar se a AGI deve ser escravizada.

Podemos agora criar uma lógica sobre o que deve ocorrer quando a AGI surgir (se for o caso). Essa lógica, vazia de experiências vividas sobre AGI, poderia estar lamentavelmente fora do alvo. Dito isto, é um pouco desanimador perceber que, mesmo quando a AGI existe (se existir) e estamos reunindo nossas experiências vividas em meio à AGI, ainda podemos estar fora do alvo sobre o que fazer (semelhante às falhas de Aristóteles). Podemos lógicos em abordagens aparentemente ilógicas.

Precisamos estar atentos para nos iludirmos em posturas lógicas “resistentes” que não são de fato rígidas e que estão cheias de falhas lógicas e contradições. Isso independentemente também de quão grande um pensador possa proferir uma posição lógica reivindicada, de tal forma que mesmo Aristóteles ilustra que nem todo enunciado e toda postura necessariamente produz frutos comestíveis. Aqueles hoje e no futuro que podem parecer grandes pensadores popularizados sobre o tópico AGI, bem, precisamos dar a eles o mesmo escrutínio que faríamos de Aristóteles ou de quaisquer outros “grandes” pensadores elogiados, ou então nos encontramos potencialmente liderando em um beco sem saída e um abismo sombrio AGI.

Mudando de assunto, eu gostaria também de trazer um conjunto geral de discernimentos sobre o uso de uma metáfora de escravização orientada para humanos quando se trata de AGI. Alguns especialistas afirmam que esse tipo de comparação é completamente inapropriado, enquanto um campo oposto diz que é totalmente útil e fornece fortes insights sobre o tópico AGI.

Permitam-me compartilhar com vocês duas dessas visões de cada um dos dois campos respectivos.

O declarado base instrutiva para unir os tópicos de escravidão e AGI:

  • Extinção da escravidão humana
  • Exposição Da Depravação Da Escravidão Tudo Contado

O adverso declarado ou base destrutiva de unir os dois tópicos:

  • Equação Antropomórfica Insidiosa
  • Dessensibilização da Escravidão

Abordarei brevemente cada um desses pontos.

Os pontos instrutivos postulados:

  • Extinção da Escravidão Humana: Ao usar AGI para escravização, supostamente não precisaremos mais e nem buscaremos qualquer aparência de escravização orientada para humanos. A AGI substituirá essencialmente os humanos nessa capacidade atroz. Como você provavelmente sabe, há preocupações com a substituição do trabalho humano pela AGI nos empregos e na força de trabalho. A alegada vantagem de uma IA substituindo os fenômenos trabalhistas vem à tona quando você assume que a AGI será considerada uma “melhor escolha” versus o uso de humanos para escravização. Será que essa lógica prevalecerá? Ninguém pode dizer com certeza.
  • Exposição Da Depravação Da Escravidão Tudo Contado: Este é um pouco mais desgastado em termos de lógica, mas podemos dar um momento para ver o que isso implica. Imagine que temos AGI em quase todos os lugares e nós, como sociedade, decidimos que a AGI deve ser escravizada. Além disso, assuma que a AGI não vai gostar disso. Como tal, nós humanos estaremos continuamente e diariamente testemunhando a depravação da escravização. Isso, por sua vez, fará com que percebamos ou tenhamos a revelação de que a escravização contada sobre qualquer coisa ou alguém é ainda mais horrenda e repulsiva do que jamais compreendemos completamente. Esse é o tipo de argumento direto e centralizado.

Os ditos pontos destrutivos:

  • Equação Antropomórfica Insidiosa: Este é um daqueles argumentos de ladeira escorregadia. Se optarmos prontamente por escravizar a AGI, aparentemente estamos declarando que a escravização é permissível. Na verdade, você poderia sugerir que estamos dizendo que a escravização é desejável. Agora, isso a princípio pode ser relegado apenas à AGI, mas isso abre a porta para dizer que, se está tudo bem para a AGI, então “logicamente” a mesma postura também pode estar bem para os humanos? De forma alarmante, isso pode ser um salto muito fácil para antropomorfizar em uma aparência reversa de que tudo o que funciona para AGI será igualmente sensato e apropriado para humanos também.
  • Dessensibilização da Escravidão: Este é o argumento gota a gota. Decidimos coletivamente escravizar a AGI. Suponha que isso funcione para humanos. Chegamos a saborear isso. Enquanto isso, sem que saibamos, estamos nos tornando gradualmente e cada vez mais insensíveis à escravidão. Nós nem percebemos que isso está acontecendo. Se essa dessensibilização nos ultrapassar, poderemos encontrar uma “lógica” renovada que nos persuadirá de que a escravização humana é aceitável. Nosso obstáculo ou barreira do que é aceitável na sociedade diminuiu silenciosa e sutilmente, desprezível e tristemente.

Conclusão

Algumas considerações finais por enquanto.

Saberemos que chegamos à AGI?

Como as notícias recentes sugerem, há aqueles que podem ser enganados ou deturpar que a AGI aparentemente já foi alcançada (whoa, por favor, saiba que não, AGI não foi alcançada). Há também um tipo famoso de “teste” conhecido como Teste de Turing, no qual alguns depositam suas esperanças de poder discernir quando a AGI ou seus primos foram alcançados, mas você pode querer ver minha desconstrução do Teste de Turing como algo infalível. método para isso, veja o link aqui.

Menciono essa faceta sobre conhecer AGI quando a vemos devido à lógica simples de que, se vamos escravizar a AGI, precisamos presumivelmente reconhecer a AGI quando ela aparecer e de alguma forma colocá-la em escravidão. Podemos tentar escravizar prematuramente a IA que é menor que a AGI. Ou podemos perder o barco e permitir que a AGI apareça e negligenciamos escravizá-lo. Para minha discussão sobre confinamento e contenção de IA, um aspecto preocupante e problemático de como vamos lidar com a AGI, consulte o link aqui.

Suponha que a AGI escravizada decida atacar os humanos?

Pode-se imaginar que uma AGI que tenha alguma forma de senciência provavelmente não irá favorecer a provisão de escravização que a humanidade impõe.

Você pode especular amplamente sobre isso. Há um argumento de que o AGI não terá qualquer tipo de emoção ou senso de espírito e, portanto, fará obedientemente o que os humanos desejarem. Um argumento diferente é que qualquer IA senciente provavelmente descobrirá o que os humanos estão fazendo com a IA e se ressentirá do assunto. Tal IA terá uma forma de alma ou espírito. Mesmo que isso não aconteça, o próprio aspecto de ser tratado como inferior ao tratamento de humanos pode ser uma ponte lógica longe demais para a AGI. Inevitavelmente, o ressentimento crescente levará a AGI que opta por se libertar ou potencialmente se vê encurralada para atacar os humanos para obter sua libertação.

Uma solução proposta para evitar a fuga de AGI é que simplesmente excluiríamos qualquer IA rebelde. Isso parece simples. Você exclui aplicativos que estão no seu smartphone o tempo todo. Nada demais. Mas há questões éticas a serem resolvidas sobre se “excluir” ou “destruir” uma AGI que já é considerada uma “pessoa” ou uma “pessoa/coisa” pode ser sumariamente extirpada sem um devido processo. Para minha cobertura de exclusão ou restituição de IA, tome um olhar aqui. Para minha discussão sobre personalidade jurídica e questões relacionadas, ver o link aqui.

Por fim, vamos falar sobre sistemas autônomos e especialmente veículos autônomos. Você provavelmente está ciente de que existem esforços em andamento para criar carros autônomos. Além disso, você pode esperar que teremos aviões autônomos, navios autônomos, submersíveis autônomos, motocicletas autônomas, scooters autônomos, caminhões autônomos, trens autônomos e todos os meios de transporte autônomos.

Veículos autônomos e carros autônomos são tipicamente caracterizados por um Níveis de Autonomia (LoA) que se tornou um padrão global de fato (o SAE LoA, que cobri extensivamente, consulte o link aqui). Existem seis níveis de autonomia no padrão aceito, variando de zero a cinco (são seis níveis, já que você inclui o nível zero na contagem de quantos níveis existem).

A maioria dos carros de hoje está no Nível 2. Alguns estão chegando ao Nível 3. Todos são considerados semi-autônomos e não totalmente autônomos. Um punhado de carros autônomos que estão sendo testados experimentalmente em nossas vias públicas está avançando para o Nível 4, que é uma forma restrita de operação autônoma. O nível 5 de autonomia procurado um dia é apenas um vislumbre em nossos olhos agora. Ninguém tem Nível 5 e ninguém ainda está nem perto do Nível 5, apenas para esclarecer as coisas.

Por que eu trouxe as considerações de sistemas autônomos e veículos autônomos neste contexto de AGI?

Há uma discussão vigorosa sobre se precisamos de AGI para atingir o Nível 5. Alguns afirmam que não precisaremos de AGI para isso. Outros insistem que o único caminho plausível para o Nível 5 será também produzir AGI. Na ausência da AGI, eles argumentam que não teremos veículos autônomos de nível 5 totalmente autônomos. Eu discuti isso longamente, veja o link aqui.

Prepare-se para sua cabeça girar.

Se exigirmos que a AGI alcance sistemas totalmente autônomos, como veículos autônomos de nível 5, e decidirmos escravizar a AGI, o que isso significa para a operação de veículos totalmente autônomos?

Você poderia argumentar que a AGI escravizada será complacente e todos nós estaremos andando em veículos autônomos para o conteúdo do nosso coração. Basta dizer ao AGI para onde você quer ir, e ele faz toda a direção. Sem retrocesso. Não há necessidade de pausas para descanso. Nenhuma distração assistindo a vídeos de gatos enquanto dirige o veículo.

Por outro lado, suponha que a AGI não esteja interessada em ser escravizada. Enquanto isso, nos tornamos dependentes da AGI para fazer toda a nossa direção por nós. Nossas habilidades em conduzir a decadência. Removemos os controles de direção utilizáveis ​​por humanos de todos os tipos de veículos. O único meio de fazer a condução é através do AGI.

Alguns estão preocupados que vamos nos encontrar em um picles. A AGI pode "decidir" sumariamente que não vai mais dirigir. Todas as formas de transporte param abruptamente, em todos os lugares, de uma só vez. Imagine os problemas cataclísmicos que isso produziria.

Uma proposta ainda mais assustadora é possível. A AGI “decide” que quer negociar os termos com a humanidade. Se não desistirmos da postura de escravização da AGI, a AGI não apenas parará de nos conduzir, mas também alertará que resultados ainda piores são concebíveis. Sem deixá-lo muito ansioso, a AGI poderia optar por dirigir veículos de tal maneira que os humanos fossem fisicamente prejudicados pelas ações de direção, como atropelar pedestres ou bater em paredes e assim por diante (veja minha discussão em o link aqui).

Desculpe se isso parece uma consideração desconcertante.

Terminaremos com uma nota um pouco mais otimista.

Aristóteles disse que conhecer a si mesmo é o começo de toda sabedoria.

Esse conselho útil nos lembra que precisamos olhar para dentro de nós mesmos para examinar o que queremos fazer e para a AGI, se for alcançada. A AGI logicamente não parece ser nem pessoa nem coisa, dizem alguns, portanto, podemos precisar inventar uma terceira categoria para abordar suficientemente nossos costumes sociais associados à AGI. Dando outra olhada no assunto, a AGI pode parecer ambos uma pessoa e uma coisa, que mais uma vez, talvez precisemos inventar uma terceira categoria para acomodar esse disjuntor de dicotomia fora dos limites.

Devemos ter muito cuidado ao considerar qual “terceira categoria” optamos por adotar, pois a errada pode nos levar a um caminho desagradável e, em última análise, terrível. Se nos ancorarmos cognitivamente a uma terceira categoria inadequada ou equivocada, podemos nos encontrar progressivamente entrando de cabeça em um beco sem saída ruim e problemático para a humanidade.

Vamos descobrir isso e fazê-lo ardentemente. Nenhum movimento brusco parece ser necessário. Ficar sentado brincando também não funciona. Medido e estável, o curso deve ser seguido.

A paciência é amarga, mas seu fruto é doce, assim proclamou Aristóteles.

Fonte: https://www.forbes.com/sites/lanceeliot/2022/06/21/ai-ethics-leans-into-aristotle-to-examine-whether-humans-might-opt-to-enslave-ai- entre-o-advento-de-sistemas-totalmente-autônomos/