O YouTube e o Twitter devem ser mais responsáveis ​​por conteúdo perigoso? Suprema Corte considera críticos de tecnologia

Linha superior

A Suprema Corte considera como as principais plataformas de mídia social - Twitter, Facebook, YouTube, especialmente - são responsáveis ​​por suas postagens mais perigosas, desafiando amplas proteções que as empresas de tecnologia afirmam serem necessárias para evitar que a Internet se transforme em um terreno baldio sombrio, mas que os críticos afirmam ir longe demais.

principais fatos

O Tribunal Supremo vai ouvir alegações orais na segunda-feira no caso (Gonzalez v. Google) em que familiares de uma vítima nos ataques terroristas de Paris em 2015 processaram o Google, alegando que o YouTube (uma empresa do Google) deveria ser responsabilizado depois que seu algoritmo recomendou vídeos de recrutamento do ISIS para possíveis apoiadores, e ouvir argumentos na quarta-feira em Twitter v. Taamneh, que tem objetivo semelhante contra empresas de mídia social sobre seu papel em um ataque terrorista de 2017 na Turquia.

O primeiro caso questiona se o YouTube pode ser responsabilizado pelas recomendações que faz sob Seção 230 da Lei de Decência nas Comunicações de 1996, que protege as plataformas de mídia social e outras empresas de Internet de responsabilidade legal, dizendo que não são legalmente responsáveis ​​pelo conteúdo de terceiros publicado em sua plataforma.

Plataformas de tecnologia, incluindo Google, Meta, Twitter, Microsoft, Yelp, Reddit, Craigslist, Wikipedia e outras, argumentaram em documentos que uma decisão judicial dizendo que o YouTube pode ser responsabilizado teria consequências desastrosas, resultando em plataformas online restringindo amplamente qualquer conteúdo que poderia possivelmente ser considerado legalmente censurável - ou adotando a abordagem oposta e deixando tudo sem filtragem de conteúdo obviamente problemático.

Grupos de defesa da Primeira Emenda, incluindo a ACLU e a Knight Foundation, alertaram que tais restrições podem prejudicar a liberdade de expressão e, se as plataformas de tecnologia forem forçadas a se livrar dos algoritmos de recomendação, o Google argumentou que a Internet pode se transformar em uma “bagunça desorganizada e um campo minado de litígios”.

O caso do Twitter, que também envolve o Facebook e o Google, não diz respeito à Seção 230, mas pergunta se as empresas de mídia social podem ser responsabilizadas sob a Lei Antiterrorismo, que permite ações judiciais contra qualquer pessoa que “ajuda e incita” um ato de terrorismo internacional.

Depois que um tribunal inferior concluiu que apenas saber que terroristas estavam entre os usuários da empresa seria motivo suficiente para uma ação judicial, o Twitter argumentou que uma decisão contra ela também resultaria em “responsabilidade particularmente ampla” para empresas de mídia social, e o Facebook e o Google sugeriram que isso poderia estender a outras organizações que podem ter que trabalhar, mesmo indiretamente, com terroristas, incluindo grupos humanitários que trabalham em países como a Síria.

Crítico Chefe

Os demandantes que processaram o Google rejeitaram as terríveis previsões feitas por empresas de tecnologia em um breve ao tribunal, argumentando que são muito amplos e “em grande parte sem relação com as questões específicas” do caso. “As previsões de que uma decisão específica deste Tribunal terá consequências terríveis são fáceis de fazer, mas muitas vezes difíceis de avaliar”, argumentaram os peticionários, observando que, embora as empresas de mídia social ainda tenham outras salvaguardas legais para protegê-las, como a Primeira Emenda, não há como negar que os materiais promovidos em sites de mídia social de fato causaram sérios danos.

Contras

A Administração Biden tem argumentou a Suprema Corte deve restringir o escopo da Seção 230 para tornar mais possível processar plataformas de mídia social, alertando contra uma “leitura excessivamente ampla” do estatuto que poderia “minar a importância de outros estatutos federais”. A Casa Branca argumentou que a Seção 230 não protege o YouTube de ações judiciais contra recomendações prejudiciais feitas por seu algoritmo, uma vez que suas recomendações são criadas pela empresa e não por conteúdo de terceiros. Os defensores dos queixosos também sugerido uma decisão contra o Google pode ajudar as plataformas de mídia social a limpar algoritmos que resultaram em recomendações prejudiciais para menores, com o Electronic Privacy Information Center argumentando as empresas de mídia social aproveitam a natureza ampla da Seção 230 e “usam a Seção 230 como um escudo em vez de tornar seus produtos mais seguros”.

Citações cruciais

“Negar a proteção da Seção 230(c)(1) à exibição de recomendações do YouTube pode ter efeitos devastadores”, argumentou o Google ao tribunal em um resumo, argumentando que estripar a Seção 230 “destruiria a Internet e encorajaria perversamente tanto a supressão ampla de discurso e a proliferação de discurso mais ofensivo”.

O que prestar atenção

As decisões nos dois casos sairão quando o mandato da Suprema Corte terminar, no final de junho ou início de julho. Também é possível que o tribunal não emita uma decisão abrangente sobre quando as empresas de mídia social podem ser responsabilizadas de acordo com a Seção 230: o Google argumentou que se o tribunal rejeitar o caso do Twitter dizendo que a família da vítima não tinha motivos para processar, poderia também rejeitou o caso do Google pelos mesmos motivos sem entrar na Seção 230.

Contexto Chave

O caso do Google chega à Suprema Corte depois que os tribunais distritais e de apelação ficaram do lado da plataforma de mídia social, determinando que ela é protegida pela Seção 230 e não pode ser processada. O caso foi ouvido junto com o caso do Twitter perante o Tribunal de Apelações do Nono Circuito, mas o tribunal de apelações decidiu contra as plataformas de mídia social no caso do Twitter, sustentando que Twitter, Facebook e Google poderiam ser responsabilizados sob as leis antiterrorismo mesmo uma vez que manteve separadamente as proteções da Seção 230. Os casos de mídia social chegam à Suprema Corte, pois o crescente poder da Big Tech e o fracasso das plataformas em moderar com sucesso o conteúdo prejudicial foram criticados por ambos os lados do corredor político, e a Suprema Corte aceitou os casos após o juiz de tendência conservadora Clarence Thomas sugeriu que o tribunal deveria considerar a questão do artigo 230.

Tangente

Os legisladores republicanos têm particularmente mirado na Seção 230 e procurou responsabilizar legalmente as empresas de mídia social, já que acusaram as empresas de mídia social de esfriar o discurso dos conservadores. O senador Ted Cruz (R-Texas) liderou 11 legisladores do Partido Republicano na apresentação de um breve defendendo que a Suprema Corte restrinja o escopo da Seção 230, argumentando que as empresas de mídia social usaram a interpretação ampla do estatuto para “[não ter] vergonha de restringir o acesso e remover conteúdo com base na política do orador”.

Leitura

Suprema Corte vai considerar se empresas de tecnologia – como Google, Twitter – podem ser responsabilizadas por recomendações de conteúdo (Forbes)

Tudo o que você precisa saber sobre a Seção 230 (The Verge)

Estas 26 palavras 'criaram a internet'. Agora a Suprema Corte pode estar vindo para eles (CNN)

Fonte: https://www.forbes.com/sites/alisondurkee/2023/02/20/should-youtube-twitter-be-more-responsible-for-dangerous-content-supreme-court-considers-tech-critics/