Retenção de Conteúdos - UE

Retenção de Conteúdos - UE

“Retenção de Conteúdos”

Comissão Europeia

 

A Comissão Europeia publicou em 28 September 2017, um “Comunicado...” sobre o combate ao conteúdo ilegal on-line. Subtitulo, “Rumo a uma maior responsabilidade das plataformas on-line”, resume o tema: persuadir intermediários on-line, especificamente nas plataformas de mídia social, assumindo o trabalho de policiar o conteúdo ilegal postado pelos utilizadores.

A Comissão pretende que as plataformas executem oito funções principais (a minha selecção e ênfase):

 

  1. As plataformas on-line devem poder tomar rápidamente decisões sobre acções relativas a conteúdos ilegais sem a necessidade de uma ordem judicial ou decisão administrativa, especialmente quando notificadas por uma autoridade responsável pela aplicação da lei. (Comunicado, parágrafo 3.1)

 

  1. As plataformas devem priorizar a remoção em resposta a notificacções recebidas de órgãos de aplicação da lei e outros “sinalizadores confiáveis” do sector público ou privado. (Comunicado, parágrafo 4.1)

 

  1. A remoção totalmente automatizada deve ser aplicada quando as circunstâncias deixam pouca dúvida sobre a ilegalidade do material (por exemplo, quando a remoção é notificada pelas autoridades policiais). (Comunicado, parágrafo 4.1)

 

  1. Num número limitado de casos, as plataformas podem remover o conteúdo notificado por “sinalizadores confiáveis” ​​sem verificar a própria legalidade. (Comunicado, parágrafo 3.2.1)

 

  1. As plataformas não se devem limitar a reagir a avisos, mas adoptar medidas proativas efectivas para detectar e remover conteúdo ilegal. (Comunicado, parágrafo 3.3.1)

 

  1. As plataformas devem tomar medidas (como a suspensão ou rescisão da conta) por forma a dissuadirem os utilizadores de fazer upload repetidamente de conteúdo ilegal da mesma natureza. (Comunicado, parágrafo 5.1)

 

  1. As plataformas são fortemente encorajadas a usar ferramentas de impressão digital para filtrar conteúdo que já foi identificado e avaliado como ilegal. (Comunicado, parágrafo 5.2)

 

  1. As plataformas devem se reportar às autoridades policiais sempre que forem informadas ou se depararem com provas de infracções criminais ou outras. (Comunicado, parágrafo 4.1)

 

Podemos verificar  que o Comunicado não se restringe apenas com o policiamento de conteúdo. A Comissão quer que as plataformas actuem como detectives, informantes, policias, acusação, defesa, juizes, júri e guardas prisionais: tudo em pról da pesquisa de conteúdos e decidir se é ilegal, trancar o material impugnado longe da vista do público e certificar-se de que a porta da cela fica fechada. Quando as plataformas não estão a realizar o trabalho de detectives, espera-se que elas removam as postagens dos utilizadores em resposta a um grupo de "sinalizadores confiáveis", por vezes sem rever a suposta ilegalidade.

 

Nada disto será efectuado com um juiz ou júri à vista.

 

Em maio de 2014, o Conselho da UE adotou as suas Diretrizes de Direitos Humanos sobre Liberdade de Expressão Online e Offline. As Diretrizes dizem algo sobre o papel dos intermediários online. O parágrafo 34 afirma:

A UE irá aumentar a conscientização entre juízes, autoridades policiais, funcionários de comissões de direitos humanos e formuladores de políticas em todo o mundo da necessidade de promover padrões internacionais, incluindo padrões que protejam os intermediários da obrigação de bloquear conteúdo da Internet sem o devido processo legal. "

Uma publicação anterior do Comunicado referenciava as Diretrizes. A referência foi removida da versão final do Comunicado (2018). Certamente teria sido embaraçoso para o Comunicado fazer referência a esse documento. Longe de “proteger os intermediários da obrigação de bloquear o conteúdo da Internet sem o devido processo prévio”, a premissa do Comunicado é que os intermediários devem remover e filtrar o conteúdo sem o devido processo prévio. A Comissão adotou a teoria de que as plataformas devem actuar como gatekeepers em vez de gateways, filtrando o conteúdo que os utilizadores carregam e lêem.

 

 

Artigo 15, onde você se encontra?

A abordagem do Comunicado não só é incompatível com as orientacções da UE em matéria de liberdade de expressão, como também desafia uma norma de longa data e profundamente enraizada do direito da UE. O Artigo 15 da Diretriz de Comércio Eletrônico está no livro de leis há quase 20 anos. Proíbe os Estados-Membros de impor obrigações gerais de monitorização aos intermediários em linha. No entanto, o Comunicado diz que as plataformas on-line devem “adotar medidas proativas efetivas para detectar e remover conteúdo ilegal on-line e não apenas limitar-se a reagir aos avisos recebidos”. Ele encoraja fortemente as plataformas on-line por forma a intensificar a cooperação, o investimento e o uso de tecnologias de detecção automática.

 

Uma controvérsia semelhante em torno do conflito com o artigo 15.º foi suscitada pelo artigo 13.º da proposta de directiva relativa ao direito de autor do mercado único digital da Comissão (Amendments adopted by the European Parliament on 12 September 2018), também no contexto da filtragem.

 

Embora as medidas que o Comunicado exorta às plataformas sejam voluntárias (evitando assim um confronto directo com o artigo 15º), trata-se mais de uma questão de forma do que de conteúdo.

 

A luva de veludo ostenta abertamente um nó:

Ameaça explícita da legislação se as plataformas não cooperarem.

“A Comissão continuará os intercâmbios e diálogos com plataformas online e outras partes interessadas relevantes. Irá monitorizar os progressos e avaliar se são necessárias medidas adicionais para assegurar a detecção e remoção rápida e proactiva de conteúdos ilícitos em linha, incluindo possíveis medidas legislativas para complementar o quadro regulamentar existente.”

As plataformas foram configuradas e o grande bastão será empunhado se não se alinharem. É uma reminiscência da versão de co-regulação do governo do Reino Unido:

“O governo define os objetivos de política pública que precisam de ser protegidos, mas a indústria de tarefas para projectar e operar soluções de autorregulamentação e que está por detrás da indústria já pronta para tomar medidas estatutárias, se necessário.”

 

Enquanto aqueles ligados à tarefa de implementar políticas não eliminarem os rastros, o negócio incerto de persuadir uma legislatura democraticamente eleita a promulgar uma lei poderá ser evitada.

 

O Comunicado não revela qualquer entusiasmo pelo artigo 15º. Dedica-se uma análise jurídica rigorosa à explicação (quase duas páginas) do motivo pelo qual, na sua opinião, a adopção de medidas proactivas não privaria uma plataforma de acolhimento de protecção nos termos do artigo 14º da directiva. O artigo 15, em contraste, é mencionado muito tenuamente, mas não discutido.

Tal tepidez é mais notável quando o equilíbrio entre os direitos fundamentais refletidos no Artigo 15 encontra apoio, por exemplo, no recente julgamento do Tribunal Europeu dos Direitos Humanos sobre o caso “Tamiz v Google (84 e 85).”  O Artigo 15 não é algo que pode ou deve ser ignorado ou manobrado levemente.

Por toda a sua considerável superestrutura os sinalizadores confiáveis, padrões certificados, salvaguardas de reversibilidade, transparência e todo o resto revela que o Comunicado carece de alicerces sólidos. Tem ar de um castelo construído sobre uma cadeia de areias movediças:

Presumível ilegalidade, falta de processo prévio na fonte, inversão da presunção contra restrição prévia, suposições de que a ilegalidade é capaz de cálculo preciso, incapacidade de lidar com as diferenças nos Estados-Membros, Leis e outros.

 

Qualquer que seja a resposta adequada ao conteúdo ilegal na Internet - e ninguém deve fingir que esta é uma questão fácil - é difícil evitar a conclusão de que o Comunicado não seja essa.

 

O Comunicado já sofreu duras criticas (aqui, aqui, aqui, aqui e aqui). Correndo o risco de repetir pontos já bem elaborados.

 

Para auxiliar esta análise, listei 30 elementos prescritivos identificáveis ​​do “Comunicado”. Eles são anexados como Pontos de Acção do Comunicado. As citacções no post são para essa lista e para os números de parágrafo correspondente ao Comunicado.

 

  1. Presumido ilegal
  2. O devido processo legal na fonte
  3. Competência jurídica vs competência prática
  4. Processo devido vs padrões de qualidade
  5. Ilegalidade manifesta vs informacções contextuais
  6. Ilegalidade na face do estatuto vs critério do Ministério Público
  7. Offline vs online
  8. Mais é melhor, mais rápido é o que se pretende
  9. Ferramenta de remoção vs escudo de responsabilidade
  10. Legislação nacional vs estratégia coerente da UE
  11. Ilegalidade vs termos de serviço
  12. Anexo: os 30 pontos de acção do Comunicado

 

 

_______________________________________

 

 

1) Presumido ilegal

 

Subjacente a grande parte da abordagem do Comunicado para lidar com conteúdo ilegal é a presunção de que, uma vez acusado, o conteúdo é ilegal até que se prove ser inocente. Isso pode ser encontrado em:

 

  • sua sugestão de que o conteúdo deve ser removido automaticamente no dizer de certos marcadores confiáveis (Pontos de Ação 8 e 15, parágrafos 3.2.1 e 4.1);
  • sua ênfase em tecnologias automatizadas de detecção (Ponto de Ação 14, parágrafo 3.3.2);
  • sua maior confiança em salvaguardas corretivas após a remoção do que as salvaguardas preventivas anteriores (parágrafos 4.1, 4.3);
  • a sugestão de que o desempenho das plataformas deve ser julgado pelas taxas de remoção (quanto maior, melhor), (ponto 8 deste post);
  • a sugestão de que, em casos difíceis, a plataforma deve procurar aconselhamento de terceiros em vez de dar o benefício da dúvida ao conteúdo (Ponto de Ação 17, parágrafo 4.1);
  • encorajamento de bases de dados “quase oficiais de conteúdo ilegal "conhecido", mas sem uma determinação juridicamente competente de ilegalidade (Ponto de Ação 29, parágrafo 5.2).

 

Tomados em conjunto, estes somam-se a uma presunção de ilegalidade, implementada por restrições prévias.

 

Num caso bem conhecido, um tweet provocou um processo criminal, resultando na condenação por um tribunal de magistrados. Dois anos depois, o autor foi absolvido em recurso. Sob o sistema de “sinalizador confiável”, a polícia poderia notificar a plataforma sobre tal tweet logo no início com a expectativa de que o tweet fosse removido, talvez automaticamente. (Pontos de Ação 8 e 15, parágrafos 3.2.1, 4.1)

Um tweet em última instância considerado legal provavelmente teria sido removido da vista do público, sem nenhuma ordem judicial.

Multiplicar isto milhares de vezes, factor em que a remoção rápida será muitas vezes o fim do assunto, se não existir um processo judicial, e nós temos restrição permanente anterior em grande escala sem que tal seja revisto ou analizado por entidades jurídicas.

Contra esta crítica, poder-se-ia dizer que os acordos de contra-notificação propostos proporcionam a oportunidade de inverter erros e decisões duvidosas. No entanto, a essa altura, o dano é feito. O padrão mudou para a suposta ilegalidade, a inércia assume o controle e muitos autores simplesmente encolhem os ombros e seguem em frente para uma vida “tranquila”.

Se o autor objectar, o material não será automaticamente reintegrado. O Comunicado sugere que a reintegração deve ocorrer se a contra notificação fornecer motivos razoáveis ​​para considerar que o conteúdo removido não é ilegal.

 

O fardo foi transferido para o autor para estabelecer a inocência. Se um autor toma uma decisão autônoma para remover algo que tenha publicado anteriormente, essa é a sua prerrogativa.

 

Nenhuma questão de interferência com a liberdade de expressão surge. Mas se a supressão resulta de um sistema promovido pelo Estado que institucionaliza a remoção por padrão e exige que o autor justifique a sua reintegração, há interferência na liberdade de expressão tanto do autor quanto daqueles que, de outra forma, teriam sido capazes de ler o post. É um efeito clássico de “refrigeração”.

A ilegalidade presumida não consta em nenhum conjunto de princípios de liberdade de expressão, offline ou online. Muito pelo contrário. A presunção tradicional contra a restrição prévia, forjada no mundo offline, incorpora o princípio de que a fala acusada deve ter o benefício da dúvida. Deve ser permitido ficar até que se prove ilegal. Mesmo assim, o remédio apropriado só pode ser uma indeminização ou sanção penal, não necessariamente a remoção do material da opinião pública. Apenas excepcionalmente, a fala deve ser retida do acesso público, dependendo de uma determinação independente, totalmente considerada, da legalidade, com todo o devido processo.

Mesmo nestes dias de intimidacções de privacidade provisórias rotineiramente superando a liberdade de expressão, a presunção contra restrições anteriores continua a ser o princípio subjacente. O Tribunal Europeu dos Direitos Humanos observou no “Spycatcher” que “os perigos inerentes às restrições anteriores são de tal ordem que exigem o mais minucioso escrutínio por parte do Tribunal”.

Em Mosley v UK, o Tribunal Europeu dos Direitos do Homem acrescentou que as restrições prévias podem ser "mais prontamente justificadas em casos que não demonstram necessidade urgente de publicação imediata e em que não há uma contribuição óbvia para um debate de interesse público geral". No entanto, o ponto de partida é que a contenção prévia requer justificativa caso a caso. Tanto mais para a restrição prévia automatizada em escala industrial sem consideração independente dos méritos.

 

2) O devido processo legal na fonte

 

A pedra angular do Comunicado é o sistema proposto de “sinalizadores de confiança” que oferecem especialização em notificar a presença de conteúdo potencialmente ilegal: “entidades especializadas com conhecimentos específicos na identificação de conteúdo ilegal e estruturas dedicadas para detectar e identificar tal conteúdo online”.

Os sinalizadores confiáveis ​​“podem trazer os seus conhecimentos e trabalhar com altos padrões de qualidade, o que deve resultar em avisos de maior qualidade e descrições mais rápidas” (Comunicado, parágrafo 3.2.1). Espera-se que as plataformas acelerem os avisos de sinalizadores confiáveis. A Comissão propõe explorar com a indústria o potencial dos procedimentos de notificação normalizados.

Os sinalizadores confiáveis ​​variam de órgãos de aplicação da lei a proprietários de direitos de autor. O Comunicado designa a Unidade de Encaminhamento na Internet da Europol para o conteúdo de terroristas e a rede INHOPE de denúncia de linhas directas para o material de abuso sexual de crianças como sinalizadores fidedignos. Sugere também que as organizacções da sociedade civil ou os organismos semi-públicos sejam especializados na divulgação de material on-line e off-line racista e xenófobo ilegal.

A ênfase é notavelmente na experiência prática e não na competência legal para determinar a ilegalidade. Isso é especialmente significativo para o papel proposto das autoridades policiais como sinalizadores confiáveis. A polícia detecta o crime, solicita ao tribunal a detenção ou mandados de busca, executa-os, principalmente, entrega os casos aos promotores e dá depoimentos em juízo. Eles podem ter competência prática no combate a atividades ilegais, mas não têm competência legal para se pronunciar sobre legalidade ou ilegalidade (veja abaixo a competência Jurídica e competência prática).

O sistema sob o qual a URI da Europol envia avisos de retirada para as plataformas é ilustrativo. Milhares - no caso da Unidade de Referência na Internet do Counter-Terrorismo (CTIRU) similar do Reino Unido, centenas de milhares - de itens de conteúdo são retirados do discurso da polícia, com salvaguardas contra o excesso, dependendo da disposição e dos recursos das plataformas.

 

É impossível saber se tais sistemas estão a "funcionar" ou não sem visibilidade pública e avaliação do que foi removido., uma vez que não existe (e é para se manter assim) tais sistemas.

 

Em julho de 2017, o CTIRU removeu cerca de 270.000 itens desde 2010. Um pedido recente de liberdade de informação pelo Open Rights Group para uma lista do tipo de “registros estatísticos, avaliacções de impacto e avaliacções criadas e mantidas pela Unidade de Referência de Contraterrorismo na Internet. em relação às suas operacções” foi rejeitada, alegando que iria comprometer a aplicação da lei, por prejudicar a eficácia operacional do CTIRU e ter um efeito negativo sobre a segurança nacional.

 

No Reino Unido, o PIPCU (Unidade de Crimes contra a Propriedade Intelectual da Polícia) é a unidade especializada em fiscalização da propriedade intelectual da polícia da cidade de Londres. Uma das atividades do PIPCU é escrever cartas para os reguladores de registo de domínios pedindo que eles suspendam domínios usados ​​para atividades infractoras. A campanha dos reguladores de registo levou a esta “reacção” de um juíz americano referente à distinção entre a polícia e os tribunais:

“Permitir que um regulador de registros retenha a transferência de um domínio com base na suspeita de um órgão de aplicação da lei, sem a intervenção de um órgão judicial, abre a possibilidade de abuso por agências bem menos respeitáveis ​​do que um tribunal ou a polícia da cidade de Londres. Presumivelmente, a disposição da Política de Transferências que exige uma ordem judicial baseia-se na suposição razoável de que a intervenção de um tribunal e um decreto judicial asseguram que a restrição à transferência de um nome de domínio tenha alguma base de um “devido processo” a ele associado. "

Um órgão de aplicação da lei não sujeito a um processo legal independente (como a solicitação de uma ordem judicial) corre o risco de ser exagerado, seja por excesso de entusiasmo pela causa da prevenção do crime, por sucumbir ao pensamento de grupo ou por algum outro motivo. Desta forma o “Devido processo” na fonte é projetado para evitar tais situacções. Mantendo-as salvaguardas na extremidade receptora não desempenham o mesmo papel que manter as agências oficiais sob controle.

O Comunicado sugere (ponto de acção 8, 3.2.1) que, numa plataforma de "número limitado de casos", é possível remover o conteúdo notificado por determinados sinalizadores fidedignos sem verificar a própria legalidade.

Quais poderiam ser esses 'casos limitados'? Poderia-se aplicar a sinalizadores de confiança do estado e privados? Isso aplica-se a qualquer tipo de conteúdo e qualquer tipo de ilegalidade, ou apenas para alguns? Aplicaria-se apenas onde os sistemas automatizados estão activos? Será aplicável apenas quando um tribunal determinou com autoridade que o conteúdo é ilegal? Aplicaria-se apenas para repetir violacções? O Comunicado não nos diz rigorosamente nada a respeito.

Poderia talvez abranger o mesmo motivo que o ponto de acção 15, ao abrigo do qual deveria ser aplicada a supressão totalmente automatizada quando "as circunstâncias deixam pouca dúvida sobre a ilegalidade do material", por exemplo (de acordo com o Comunicado).

 

3) Competência jurídica vs competência prática

 

O Comunicado abre a secção com avisos de autoridades estatais, referindo-se aos tribunais e autoridades competentes capazes de emitir ordens vinculativas ou decisões administrativas que exigem plataformas on-line para remover ou bloquear conteúdo ilegal. Tais órgãos, pode-se razoavelmente presumir, incorporariam algum elemento do devido processo na sua tomada de decisão antes da emissão de uma ordem legalmente vinculativa.

No entanto, vimos que o Comunicado abandona essa limitação, referindo-se às "autoridades policiais e outras autoridades competentes". Uma "autoridade competente" evidentemente não se limita aos corpos que incorporam o devido processo e são legalmente competentes para determinar a ilegalidade.

Inclui órgãos como a polícia, que são levados a ter competência prática por meio da familiaridade com o assunto. Assim, na unidade de referência na Internet da Europol da UE, “especialistas em segurança avaliam e encaminham conteúdo de terroristas para plataformas online”.

 

É notável que esta secção no rascunho anterior não sobreviveu à edição final:

“Na UE, os tribunais e as autoridades nacionais competentes, incluindo as autoridades de aplicação da lei, têm a competência para estabelecer a ilegalidade de uma determinada atividade ou informação online.” (Ênfase adicionada)

 

Os tribunais são legalmente competentes para estabelecer legalidade ou ilegalidade, mas os órgãos responsáveis ​​pela aplicação da lei não o são.

 

Na versão final, a Comissão retira-se da afirmação declarada de que as autoridades policiais são competentes para determinar a ilegalidade:

“Na UE, os tribunais e as autoridades nacionais competentes, incluindo as autoridades responsáveis ​​pela aplicação da lei, são competentes para julgar crimes e impor sanções penais no devido processo relativo à ilegalidade de uma determinada atividade ou informação online.”

No entanto, ao juntá-las, essa passagem obscurece a distinção entre a polícia, os promotores e os tribunais.

 

Se a polícia deve ser considerada como “sinalizador confiável”, pode-se ver porque o Comunicado pode querer tratá-los como competentes para estabelecer a ilegalidade. Mas nenhum remendo com a redação do Comunicado, ou a adição de referências vagas ao devido processo, pode disfarçar o facto de que a polícia não é a justiça.

 

Mesmo se considerarmos a competência prática dos sinalizadores confiáveis ​​como determinada, o Comunicado não discute o padrão ao qual os sinalizadores confiáveis ​​devem avaliar o conteúdo. O limiar seria claramente ilegal, potencialmente ilegal, indiscutivelmente ilegal, com maior probabilidade de ser ilegal ou algo mais? A omissão é impressionante quando comparada com o padrão proposto cuidadosamente para reintegração: "motivos razoáveis ​​para considerar que a actividade ou informação notificada não é ilegal".

A ilusão da competência legal e da competência prática está ligada à falta de insistência no devido processo. Num caso pouco claro, um órgão legalmente competente, como um tribunal, pode fazer uma determinação vinculativa de um modo ou de outro que possa ser invocado. Um agente de confiança não pode fazê-lo, por mais que seja especialista e compatível com os padrões. Quanto menor o limiar de avaliação, mais a carga é transferida para a plataforma para fazer uma avaliação que não é legalmente competente, e é pouco provável que seja competente na prática. Nem o sinalizador confiável nem a plataforma são um tribunal ou um substituto para um tribunal.

 

4) Processo devido vs padrões de qualidade

 

A Comissão tem uma resposta à ausência do devido processo na fonte. Sugere que os sinalizadores confiáveis ​​poderiam alcançar um tipo de qualificação quase oficial:

“A fim de garantir a alta qualidade dos avisos e a remoção mais rápida dos conteúdos ilegais, os critérios baseados, nomeadamente, no respeito pelos direitos fundamentais e pelos valores democráticos poderão ser acordados pelo sector ao nível da UE.

Isto pode ser feito por meio de mecanismos de autorregulação ou dentro da estrutura de padronização da UE, sob a qual uma entidade em particular pode ser considerada confiável, permitindo uma flexibilidade suficiente para levar em conta as características específicas do conteúdo e o papel do confiável. ”( parágrafo 3.2.1)

O Comunicado sugere critérios como padrões internos de treino, padrões de processo, garantia de qualidade e salvaguardas legais em torno da independência, conflitos de interesse, proteção da privacidade e dados pessoais. Estes teriam flexibilidade suficiente para levar em consideração as características específicas do conteúdo e o papel do sinalizador confiável. A Comissão tenciona explorar, em especial nos diálogos com as partes relevantes interessadas, o potencial de estabelecer critérios a nível da UE para os “informadores confiáveis”.

As referências do Comunicado a padrões internos de treino, padrões de processo e garantia de qualidade poderiam ter sido retiradas do manual de uma planta de processamento de alimentos. Mas o que escrevemos online não é suscetível de medição precisa de tamanho, temperatura, cor e peso. Com a possível exceção de imagens ilegais de crianças (mas exatamente o que é ilegal ainda varia de um país para outro) até mesmo as regras mais claras são confusas. Para muitas leis de fala, qualificadas com exceções e defesas, a falta de precisão estende-se ainda mais. Alguns dos mais controversos, como discurso de ódio e material terrorista, são inerentemente vagos. Esses são os objetivos mais enfatizados do esquema da Comissão.

Um “esquema de remoção” não pode ser facilmente baseado na suposição de que a legalidade do conteúdo pode ser determinada (ou mesmo principalmente) como a classificação de ervilhas congeladas, simplesmente inspecionando o item - se o inspector é um ser humano ou um computador.

Nenhuma quantidade de treino - em computadores ou pessoas - pode transformar uma avaliação qualitativa numa medida científica precisa. Mesmo para uma prática de remoção bem estabelecida, como os direitos de autor, não está claro como um computador poderia identificar exceções como paródia ou citação quando os próprios seres humanos discutem sobre o seu escopo e aplicação.

A adequação da remoção com base numa avaliação mecânica da ilegalidade também é questionada pela recente decisão do Tribunal Europeu dos Direitos Humanos no caso “Tamiz v Google”, um caso de difamação. O tribunal sublinhou que os direitos do requerente ao Artigo 8 estão envolvidos apenas quando o material atinge um limiar mínimo de gravidade. Pode ser desproporcional remover comentários triviais, mesmo que sejam tecnicamente ilegais. Um sistema de remoção que pede apenas "legal ou ilegal" pode não estar a colocar todas as questões certas.

 

5) Ilegalidade manifesta vs informacções contextuais

 

A questão mais ampla levantada na seção anterior é que o conhecimento do conteúdo (seja pelo notificador ou pela plataforma receptora) não é o mesmo que o conhecimento da ilegalidade, mesmo que a questão seja a simples "legal ou ilegal".

Como Eady J. disse em Bunt vs Tilley em relação à difamação: “Para poder caracterizar algo como '' ilegal '', uma pessoa precisaria de saber algo da força ou fraqueza das defesas disponíveis”. Case law sob o comércio eletrônico A directiva contém exemplos de plataformas que não podem ser fixadas com conhecimento de ilegalidade até um período considerável após a primeira notificação, o que se aplica mais amplamente do que a difamação.

 

A Comissão está ciente de que esta é uma questão:

 

“Na prática, diferentes tipos de conteúdo exigem uma quantidade diferente de informacções contextuais para determinar a legalidade de um determinado item de conteúdo. Por exemplo, embora seja mais fácil determinar a natureza ilegal do material de abuso sexual infantil, a determinação da ilegalidade das declaracções difamatórias geralmente requer uma análise cuidadosa do contexto em que foi feito. ”(Comunicado Parágrafo 4.1)

No entanto, identificar o problema não é resolvê-lo. Não é novidade que o Comunicado esforça-se para encontrar uma abordagem consistente. Num ponto, o Comunicado defende a inclusão de humanos no loop da detecção e remoção automatizada de ilegalidade pelas plataformas:

“Este princípio humano-em-laço é, em geral, um elemento importante de procedimentos automáticos que procuram determinar a ilegalidade de um determinado conteúdo, especialmente em áreas onde as taxas de erro são altas ou onde a contextualização é necessária.” (Comunicado Parágrafo 3.3 .2)

Sugere melhorar os filtros automáticos de reenvio, fornecendo os exemplos das “Bases de Dados de Hashes" existentes em relação a material terrorista, material de abuso sexual infantil e direitos autorais. O Comunicado tambem mensiona que poderia aplicar-se a outro material sinalizado por autoridades policiais. Mas também reconhece as suas limitacções:

“No entanto, a sua eficácia depende de outras melhorias para limitar a identificação errônea do conteúdo e facilitar as decisões conscientes do contexto, bem como as necessárias salvaguardas de reversibilidade.” (Comunicado Parágrafo 5.2)

Apesar desse reconhecimento, por reincidência, o Comunicado propõe que: “Procedimentos de desativação automática devem permitir exceções relacionadas ao contexto”. (Comunicado parágrafo 5.2)

A colocação de obrigacções de 'stay-down' nas plataformas é, em qualquer caso, uma área controversa, até porque o monitoramento requerido pode entrar em conflito com o Artigo 15 da Directriz de Comércio Eletrônico.

A Incapacidade de lidar adequadamente com a contextualidade não é surpresa. Levanta sérias questões de coerência com o direito à liberdade de expressão. Os casos SABAM / Scarlet e SABAM / Netlog no CJEU “Court of Justice of the European Union”, deixaram claro que a filtragem com risco de bloqueio ilegal constitui uma interferência na liberdade de expressão.

Não é de modo algum óbvio, tomado com as preocupacções específicas dos direitos fundamentais levantadas pela restrição prévia, que isto possa ser remediado colocando as “salvaguardas de reversibilidade” no seu lugar.

 

6) Ilegalidade na face do estatuto vs critério do Ministério Público

 

Algumas ofensas criminais são tão amplamente traçadas que, pelo menos no Reino Unido, a discrição do Ministério Público torna um factor significativo na mitigação do potencial alcance excessivo da infração. Em alguns casos, as directrizes do Ministério Público foram publicadas (Social Media - Guidelines on prosecuting cases involving communications sent via social media).

 

Tomemos o caso do terrorismo. O governo do Reino Unido argumentou perante o Supreme Court, num caso sobre uma condenação por disseminação de publicacções terroristas enviando vídeos para o YouTube (caso; R v Gul [2013] UKSC 64, [30]), em que o terrorismo foi deliberadamente muito amplamente definido no estatuto , mas a discrição do Ministério Público estava investida no DPP “Director of Public Prosecutions” para mitigar o risco de criminalizar atividades que não deveriam ser processadas. O DPP é no entanto independente da polícia.

A Supreme Court observou que isso equivalia a dizer que a legislatura “delegou de facto a uma nomeação executiva, embora seja um advogado respeitado e independente, a decisão sobre se uma actividade deveria ser tratada como criminosa para fins de processo”.

Observou que o facto de correr o risco de pôr em causa o Estado de direito. O DPP, embora responsável perante o Parlamento, não tomou decisões abertas e democraticamente responsáveis ​​da mesma forma que o Parlamento. Além disso, “tal dispositivo deixa os cidadãos incertos sobre se as suas acções ou acções projectadas são passíveis de serem tratadas pelas autoridades da acusação como efectivamente inocentes ou criminosas - neste caso, seriamente criminosas”. Descreveu a definição de terrorismo como "abrangentemente abrangente" ([38]).

Por mais indesejável que esse tipo de lei seja, ela existe. Um sistema de remoção institucional baseado na suposição de que o conteúdo pode ser identificado de maneira binária como "legal / não legal" não leva em conta as definições amplas de criminalidade que devem ser mitigadas pela discrição da promotoria.

O procedimento de remoção formal existente sob o Terrorismo Act 2006 do Reino Unido, capacitando um policia a dar um aviso a um provedor de serviços de Internet, poderia causar a mesma preocupação. A lei exige que o aviso contenha uma declaração de que, na opinião do policia responsável, o material está ilegalmente relacionado ao terrorismo. Não existe um mecanismo de mitigação independente do tipo que se aplica aos processos.

De facto, o procedimento formal de notificação nos termos do Act 2006 parece nunca ter sido utilizado, tendo sido suplantado pelo procedimento voluntário que envolve a Unidade de Encaminhamento na Internet para o combate ao terrorismo (CTIRU) já descrita.
 

7) Offline vs online

 

O Comunicado inicia o seu segundo parágrafo com a já conhecida declamação de que "o que é ilegal off-line também é ilegal on-line". Mas se esse é o antidoto, então as proteções on-line para um discurso acusado, também são comparáveis aos discursos offline?

A presunção contra restrições prévias aplica-se aos editores off-line tradicionais que são indubitavelmente responsáveis ​​pelo seu próprio conteúdo. Mesmo que se mantenha a opinião de que as plataformas devem ser responsáveis ​​pelo conteúdo dos utilizadores como se fossem suas, a equivalência com o off-line não leva a uma presunção de ilegalidade e a uma expectativa de que o material notificado seja removido imediatamente.

As obrigacções de filtragem e remoção introduzem um nível de restrição prévia on-line que não existe off-line. Eles são exercitados contra auto-editores on-line individuais e leitores (você e eu) através de uma porta lateral: a plataforma. Às vezes, isso ocorrerá antes da publicação, sempre antes de uma determinação judicial independente de ilegalidade (cf Yildirim v Turkey [52]).

O sistema confiável de sinalizadores institucionalizaria listas proibidas mantidas pelas autoridades policiais e agências governamentais. Listas oficiais de conteúdo proibido podem soar como um território não-organizado. Mas, como já foi dito, as plataformas serão encorajadas a operar os processos de remoção automática, assumindo efetivamente a ilegalidade do conteúdo notificada por tais fontes (Comunicado, Pontos de Acção 8 e 15).

A Comissão cita a Europol URI como modelo. A URI da Europol nem sequer parece limitar-se a notificar conteúdos ilegais. Em resposta à pergunta de um eurodeputado no início deste ano (2018), o Comissário responsável pelos Assuntos Internos da UE afirmou:

“A Comissão não dispõe de estatísticas sobre a proporção de conteúdos ilegais referidos pela URI da UE. Note-se que a referência para as consultas é o seu mandato, o quadro jurídico da UE em matéria de infracções terroristas, bem como os termos e condições estabelecidos pelas empresas. Quando a URI da União Europeia procura por material terrorista, ele a encaminha para a empresa, onde ela avalia se foi violado os seus termos e condições ”.

Essa indefinição da distinção entre notificação por motivos de ilegalidade e notificação por violação de termos e condições da plataforma é explorada mais adiante (Illegalidade vs termos de serviço).

Um recente artigo da Policy Exchange, The New Netwar, faz outra sugestão. “Um feed de dados de conteúdo jihadista elaborado por especialistas que está a ser compartilhado online deve ser fornecido às empresas de mídia social”. O documento sugere que isso seria supervisionado pela Comissão do governo para combater o extremismo, talvez em ligação com o GCHQ  (Government Communications Headquarters – UK)

No entanto não está devidamente clarificado se o conteúdo iria além do “conteúdo ilegal”. Podemos argumentar que, até que a internet tivesse surgido, os indivíduos não tinham a capacidade de escrever para o mundo, certamente não na quantidade que ocorre hoje; e precisamos de novas ferramentas para combater ameaças on-line.

Se o ponto é que a internet é de facto diferente de offline, então devemos examinar cuidadosamente essas diferenças, considerar onde elas podem liderar e avaliar as consequências. Recitar simplesmente de que;  o que é ilegal off-line é ilegal on-line,  não é suficiente quando se propõem mecanismos de remoção que teriam sido rejeitados de imediato no mundo off-line.

Alguns podem até relembrar-se com carinho uma época de ouro em que ninguém poderia escrever para o público a não ser pela influência moderadora do lápis de um editor. A internet quebrou esse molde. Cada um de nós pode falar ao mundo. Isto é profundamente libertador, profundamente radical e, sem dúvida, profundamente perturbador.

Se o argumento é que mais discurso exige mais formas de controlar ou suprimir a fala, isso seria mais justo e mais verdadeiro se fosse feito abertamente em vez de por trás do slogan da equivalência offline.

 

8) Mais é melhor, mais rápido é o que se pretende

 

Outro tema subjacente ao Comunicado é o foco nas taxas de remoção e a sugestão de que uma remoção mais rápida é melhor.

Mas qual é a "melhor" taxa de remoção? Uma alta taxa de remoção pode indicar que os sinalizadores confiáveis ​​estavam a notificar apenas o conteúdo que é definitivamente ilegal. Ou poderia significar que as plataformas estavam a receber avisos em grande parte de “confiança”.

Embora taxas de remoção "melhores" possam refletir decisões melhores, a pressão para alcançar taxas de remoção mais altas e mais rápidas pode levar igualmente a decisões piores.

Existe um problema relacionado com a medição da velocidade de remoção. De que ponto você mede o tempo necessário para remover? A resposta óbvia é, a partir de quando um aviso é recebido. Mas embora convenientemente determinável, isso é arbitrário. Como discutido acima, o conhecimento do conteúdo não é o mesmo que o conhecimento da ilegalidade.

Não só a plataforma não corre o risco de ser responsabilizada até que tenha conhecimento da ilegalidade, mas se o objectivo geral do sistema da Comissão é a remoção de conteúdos ilegais (e apenas de conteúdos ilegais), a plataforma não deveria retirar material até que saiba com certeza que o material é ilegal. Enquanto o assunto permanece em dúvida, o material deve ficar activo (online ou offline).

Qualquer medida significativa de velocidade de remoção deve considerar o período decorrido após a aquisição do conhecimento, além ou em vez do período da primeira notificação. Um compilador de estatísticas deve olhar para o histórico de cada remoção (ou não remoção) e fazer uma avaliação independente de quando (se for o caso) o conhecimento da ilegalidade foi adquirido - efetivamente repetindo e questionando a própria avaliação da plataforma. Esse exercício torna-se mais desafiador se as plataformas estiverem a receber avisos sobre “confiança” sem realizar a sua própria avaliação.

 

Este é um problema criado pelo desejo da Comissão de converter um “escudo de responsabilidade” (a Diretiva Comércio Eletrónico) numa ferramenta de remoção.

 

9) Ferramenta de remoção vs escudo de responsabilidade

 

No cerne do Comunicado (e de toda a narrativa sobre "Notificação e Ação" que a Comissão promove desde 2010) está a tentativa de reformular o escudo da responsabilidade de alojamento da Diretiva de Comércio Eletrónico como uma obrigação positiva para o anfitrião de tomar medidas quando torna-se ciente de conteúdo ou comportamento ilegal, geralmente quando recebe um aviso.

A Diretiva de Comércio Eletrônico incentiva, mas não obriga, um anfitrião (host) a agir. Esta é uma distinção subtil mas importante. Se o host não remover o conteúdo rapidamente depois de tomar conhecimento da ilegalidade, a consequência é que ele perde a proteção do escudo. Mas a decisão de não remover o conteúdo depois de receber o aviso não origina, por si só, qualquer obrigação de derrubar o conteúdo. O anfitrião pode (ou não) tornar-se responsável pela atividade ilegal do usuário (se, de fato, for ilegal). Esta é uma questão do alcance da legislação subjacente de cada Estado-Membro, que pode variar de um tipo de responsabilidade para outro e de um Estado-Membro para outro.

Essa estrutura de certa forma respeita o “devido processo” e a presunção contra restrição prévia. Mesmo se o cenário mais realista for o de que um anfitrião será cauteloso nas suas decisões, o anfitrião permanece livre para decidir deixar o material e assumir o risco de responsabilidade após um julgamento ou o risco de um mandado interino que o obrigue a que esse conteúdo seja removido.

Oportunidade de "publicar e ser condenado".

 

O Comunicado alega que "a nível da UE, o quadro jurídico geral para a remoção ilegal de conteúdos é a directiva relativa ao comércio electrónico". O Comunicado encontra apoio para o seu ponto de vista de "enquadramento de mudança" referido no ponto 40 da directiva:

“A presente directiva deve constituir a base adequada para o desenvolvimento de procedimentos rápidos e fiáveis ​​para remover e impedir o acesso a informacções ilegais” O referido prossegue, prevendo acordos voluntários incentivados pelos Estados-Membros.

No entanto, a directiva não é, em substância, um quadro de afastamento. Cabe ao notificador fornecer detalhes suficientes para consertar a plataforma com conhecimento da ilegalidade. Uma plataforma não tem obrigação de perguntar algo mais afim de tomar uma decisão sim/não. Pode legitimamente recusar-se a agir com base em informacções insuficientes.

O Comunicado representa uma mudança subtil, mas significativa, das regras de responsabilidade do intermediário como proteção contra responsabilidade a um regime no qual se espera que as plataformas atuem como árbitros, tomando decisões sobre legalidade e remoção (pelo menos quando não se espera que elas removam o conteúdo na “confiança”).

Assim, o Ponto de Acção 17 sugere que as plataformas poderiam beneficiar da apresentação de casos de dúvida a terceiros para obter aconselhamento. O Comunicado sugere que tal poderia aplicar-se especialmente quando as plataformas encontram dificuldade em avaliar a legalidade de um determinado item de conteúdo e trata-se de uma decisão potencialmente controversa. Dessa forma , pode-se pensar que, é uma situação elegante na qual a plataforma pode (e, de acordo com os objetivos do Comunicado, deve) manter o conteúdo, protegido pelo facto de que a ilegalidade não é aparente.

A Comissão afirma ainda que "os organismos de auto-regulação ou as autoridades competentes desempenham este papel em diferentes Estados-Membros" e que "como parte da cooperação reforçada entre plataformas em linha e autoridades competentes, esta cooperação é fortemente encorajada".

“Isto é difícil de compreender, uma vez que as únicas autoridades competentes referidas no Comunicado são os sinalizadores fidedignos que notificam em primeiro lugar.”

O melhor que pode ser dito sobre a coerência com a Directiva Comércio Electrónico é que a Comissão está a assumir o papel de incentivar acordos voluntários previstos para os Estados-Membros no considerado ponto 40. No entanto, uma interpretação que incentive a remoção sem o devido processo legal poderá ser problemática do ponto de vista dos direitos fundamentais e da presunção contra a restrição prévia.

A caracterização da directiva pelo Comunicado como quadro geral de remoção cria outro problema. Os Estados-Membros são livres de dar uma maior protecção aos hospedeiros ao abrigo da sua legislação nacional do que da directiva. Assim, por exemplo, a Lei britânica sobre difamação de 2013 (Defamation Act 2013 - UK) oferece aos operadores de sites a imunidade total contra responsabilidade por difamação por conteúdo postado por utilizadores identificáveis. Embora um operador de site que receba uma notificação e não remova o conteúdo possa perder a proteção da diretiva, o operador estará ainda protegido contra a responsabilidade segundo a lei de difamação inglesa. Não há expectativa de que um operador de site nessa posição deva agir após receber um aviso.

 

Este “escudo”, específico para difamação, foi introduzido na Lei de 2013-UK devido a preocupações em que os anfitriões estivessem a ser colocados na posição de serem forçados a escolher entre defender material como se o tivessem escrito ou bloqueando o material imediatamente.

Ao procurar construir um quadro de remoção quase voluntária em que a expectativa é que o conteúdo seja removido mediante aviso prévio suficiente, o Comunicado ignora a possibilidade de que, de acordo com a legislação nacional de um Estado-Membro, o hospedeiro não corre o risco do tipo específico de responsabilidade e não há expectativa de que deve remover o conteúdo notificado.

Um site de mídia social seria inteiramente justificado pela Lei de Difamação ao ignorar uma notificação sobre um post alegadamente difamatório de um autor identificável. No entanto, o Comunicado espera que os seus procedimentos de notificação e acção cubram a difamação.

Exemplos como este colocam o Comunicado numa possível rota de colisão com as legislacções nacionais dos Estados-Membros.

 

Este é um sub-conjunto de um problema maior com o Comunicado, nomeadamente a sua incapacidade de abordar as questões levantadas pelas diferenças nas leis de conteúdo substantivo entre os Estados-Membros.

 

10) Legislação nacional vs estratégia coerente da UE

 

Existe uma profunda tensão, que o Comunicado não tenta resolver, entre o plano de criar um processo de remoção voluntária coerente à escala da UE e as diferenças significativas entre as leis de conteúdo substantivo dos Estados-Membros da UE.

Em muitos domínios (mesmo em domínios harmonizados, como os direitos de autor), os Estados-Membros da UE têm leis substancialmente diferentes sobre o que é e o que não é ilegal. O Comunicado procura implementar procedimentos de remoção em toda a UE, mas não tenta abordar a legislação de cada Estado-Membro, em que circunstâncias ou em que medida. Esta é uma falha fundamental.

Se uma plataforma receber (por exemplo) uma notificação de incitamento ao ódio de uma autoridade do Estado-Membro X, em que medida a legislação do Estado-Membro deve resolver a ilegalidade?

Se o Estado-Membro X possuir leis especialmente restritivas, a remoção poderá privar os cidadãos da UE noutros Estados-Membros de conteúdos perfeitamente legais nos seus países.

Se a resposta é colocar em funcionamento o bloqueio geográfico, isso não é mencionado em parte alguma no Comunicado e dificilmente seria coerente com a orientação de outras iniciativas da Comissão.

Se o conteúdo for proveniente de um prestador de serviços num Estado-Membro diferente do Estado-Membro X, um pedido de remoção pelas autoridades do Estado-Membro X poderá violar as disposições do mercado interno da Directiva Comércio Electrónico.

 

Nada disso é abordado no Comunicado, para além do reconhecimento inequívoco de que a legalidade do conteúdo é regida pelas leis de cada Estado-Membro.

 

Esta questão é ainda mais pertinente, uma vez que o TJUE referiu-se especificamente a esta no contexto das obrigacções de filtragem. No SABAM / Netlog (um caso de direitos de autor), a Corte disse:

"Além disso, esse liminar poderia prejudicar potencialmente a liberdade de informação, uma vez que esse sistema pode não distinguir adequadamente entre o que é conteúdo ilegal e conteúdo lícito, com o resultado de que a sua introdução poderia levar ao bloqueio de comunicacções legais.

Com efeito, não é contestado que a resposta à questão de saber se uma transmissão é legal também depende da aplicação de exceções legais aos direitos de autor que variam de um Estado-Membro para outro.

Além disso, em alguns Estados-Membros, certas obras são do domínio público ou podem ser publicadas on-line gratuitamente pelos autores em causa. "

Um regime destinado a funcionar de forma coerente em toda a União Europeia não pode ignorar de forma razoável o impacto das diferenças nas legislacções dos Estados-Membros. Também não é transparente como os procedimentos pós-remoção podem ajudar a resolver esse problema.

A questão das diferenças entre as legislacções dos Estados-Membros também surge no contexto do Comunicado de infracções penais.

O Comunicado afirma que as plataformas devem informar as autoridades responsáveis ​​pela aplicação da lei sempre que forem informadas ou se depararem com provas de crimes ou outras infracções (Ponto de Acção 18).

De acordo com o Comunicado, tal poderia abranger desde o abuso de serviços por grupos criminosos organizados ou grupos terroristas (citando o portal SIRIUS contra o terrorismo da Europol), passando pelas ofertas e vendas de produtos e práticas comerciais que não cumprem a legislação da UE.

Este requisito cria mais problemas com as diferenças entre as leis dos Estados-Membros da UE. Algumas atividades (difamação é um exemplo) são civis em alguns países e criminosas noutros. Deixando de lado a questão de saber se o material da lei sobre difamação é o mesmo em toda a UE, espera-se que uma plataforma comunique um conteúdo difamatório à polícia num Estado-Membro em que a difamação seja criminosa e onde possa ser lida, quando noutro Estado-Membro, (talvez o Estado-Membro de origem do autor) atrairia, no máximo, responsabilidade civil? O Comunicado é omisso sobre a questão.

 

11) Ilegalidade vs termos de serviço

 

A Comissão afirma (Ponto de acção 21) que a transparência da plataforma deve refletir tanto o tratamento de conteúdo ilegal quanto o conteúdo que não respeita os termos de serviço da plataforma. [4.2.1]

Excluindo os méritos da transparência, não está claro por que o Comunicado se aventurou no território separado das políticas de conteúdo da plataforma que não estão relacionadas a conteúdo ilegal.

O Comunicado afirma anteriormente que, embora haja preocupacções de interesse público em torno de conteúdo que não é necessariamente ilegal, mas potencialmente prejudicial, como notícias falsas ou conteúdo prejudicial para menores, o foco do Comunicado está na detecção e remoção de conteúdo ilegal.

Tem de haver uma suspeita de que os termos de serviço das plataformas acabariam por substituir a ilegalidade como um critério de remoção, evitando assim as questões de diferentes legislacções em diferentes Estados-Membros e, dada a potencial amplitude dos termos de serviço, certamente resultando na remoção excessiva em comparação com remoção por referência à ilegalidade. A prática aparente da URI da UE em confiar em termos de serviço, bem como a ilegalidade já foi notada.

Esse efeito seria ampliado se a pressão fosse exercida nas plataformas para tornar os seus termos de serviço mais restritivos. Podemos ver algum potencial para isto na publicação da Policy Exchange, The New Netwar:

 

Peça às empresas para rever e implementar Códigos de Conduta / Termos de Serviço mais rigorosos que rejeitem explicitamente o extremismo.

Atualmente, as diferentes empresas de tecnologia exigem que os utilizadores cumpram "códigos de conduta" com níveis variados de rigor.  Este é um ponto de partida útil, mas é claro que eles precisam ir mais longe agora ao estender a definição do que constitui conteúdo inaceitável.

É claro que é necessário rever os termos de serviço mais robustos, que estabelecem um conjunto robusto de benchmarks em toda a indústria. As empresas devem ser pressionadas a agir como um órgão corporativo para reconhecer a sua "responsabilidade" em impedir o extremismo como uma característica integral de um novo código de conduta.

As grandes empresas devem, então, ser proativas na implementação dos novos “contra-termos”. Ao fazê-lo, eles poderiam ajudar a efetuar uma mudança radical no comportamento e ajudar a definir as melhores práticas do sector ”.

Nesse esquema, os códigos de conduta e os termos de serviço das plataformas tornam-se ferramentas da política do governo, e não um reflexo da cultura ou da proteção de cada plataforma para a plataforma no caso de uma decisão de remover o conteúdo de um utilizador.

 

12) Anexo: os 30 pontos de acção do Comunicado

 

As autoridades dos Estados

 

1. As plataformas em linha devem poder tomar decisões rápidas no que diz respeito a possíveis acções ilegais em linha, sem ser obrigado a fazê-lo com base em decisões judiciais ou administrativas, especialmente quando uma autoridade de aplicação da lei as identificar e as alegar. conteúdo ilegal. [3.1]

2. Ao mesmo tempo, as plataformas on-line devem implementar salvaguardas adequadas ao cumprir as suas responsabilidades a esse respeito, a fim de garantir aos utilizadores o direito de um recurso efetivo. [3.1]

3. As plataformas online devem, portanto, dispor dos recursos necessários para entender os pilares legais em que operam. [3.1]

4. Eles devem garantir que possam ser contatados de forma rápida e eficaz para solicitacções de remoção rápida de conteúdo ilegal e também para, quando apropriado, alertar os agentes da lei sobre sinais de atividades criminosas on-line. [3.1]

5. As autoridades policiais e outras autoridades competentes devem cooperar com as demais para definir interfaces digitais efetivas para a apresentação rápida e confiável da notificação para assegurar a identificação e a comunicação eficientes de conteúdos ilegais. [3.1]

 

Avisos de sinalizadores confiáveis

 

6. As plataformas on-line são incentivadas a utilizar as redes existentes de sinalizadores confiáveis. [3.2.1]

7. Os critérios para que uma entidade seja considerada um “sinalizador” confiável, com base em direitos fundamentais e valores democráticos, podem ser acordados pela indústria a nível da UE, através de mecanismos de auto-regulação ou dentro do quadro de normalização da UE. [3.2.1]

8. Num número limitado de casos, as plataformas podem remover o conteúdo notificado sem verificar a legalidade do conteúdo. Para esses casos, os sinalizadores confiáveis ​​podem estar sujeitos a auditorias e a um esquema de certificação. [3.2.1]

9. A existir abusos de mecanismos de sinalizadores confiáveis ​​contra padrões estabelecidos, o privilégio de um status de sinalizador confiável deve ser removido. [3.2.1]

 

Avisos por utilizadores comuns

 

10. As plataformas online devem estabelecer um mecanismo facilmente acessível e de fácil utilização, que permita aos utilizadores notificar conteúdo hospedado considerado ilegal. [3.2.2]

 

Qualidade de avisos

 

11. As plataformas em linha devem criar mecanismos eficazes para facilitar a apresentação de anúncios suficientemente precisos e devidamente fundamentados. [3.2.3]

12. Normalmente, os utilizadores não devem ser obrigados a se identificarem ao fornecerem um aviso, a menos que seja necessário determinar a legalidade do conteúdo. Eles devem ser encorajados a usar sinalizadores confiáveis, onde estes existirem, se quiserem manter o anonimato. Os provedores de notificação devem ter a oportunidade de enviar voluntariamente detalhes de contato. [3.2.3]

 

Medidas proativas por plataformas

 

13. As plataformas online devem adotar medidas proativas efetivas para detectar e remover conteúdo ilegal on-line e não apenas limitar-se a reagir a avisos. [3.3.1]

14. A Comissão encoraja vivamente as plataformas em linha a utilizarem medidas voluntárias e proativas destinadas à detecção e remoção de conteúdos ilegais e a intensificarem a cooperação, o investimento e a utilização de tecnologias de deteção automática. [3.3.2]

 

Removendo conteúdo ilegal

 

15. A eliminação ou suspensão totalmente automática do conteúdo deve ser aplicada quando as circunstâncias deixam pouca (preferêncialmente nenhuma) dúvida sobre a ilegalidade do material. [4.1]

16. Como regra geral, a remoção em resposta a notificacções confiáveis ​​do sinalizador deve ser tratada tão rápidamente quanto o possivél. [4.1]

17. As plataformas podem beneficiar da apresentação de casos de dúvida a terceiros para obter aconselhamento. [4.1]

18. As plataformas devem reportar às autoridades policiais sempre que forem informadas ou se depararem com provas de infracções criminais ou outras. [4.1]

 

Transparência

 

19. As plataformas on-line devem divulgar as suas políticas detalhadas de conteúdo nos seus termos de serviço e comunicar claramente essas politicas aos seus utilizadores. [4.2.1]

20. Os termos devem não apenas definir a política de remoção ou desativação de conteúdo, mas também especificar as salvaguardas que garantem que as medidas relacionadas ao conteúdo não levem à remoção excessiva, como contestar decisões de remoção, incluindo aquelas acionadas por sinalizadores confiáveis. [4.2.1]

21. Isso deve refletir tanto o tratamento de conteúdo ilegal quanto o conteúdo que não respeita os termos de serviço da plataforma. [4.2.1]

22. As plataformas devem publicar pelo menos relatórios anuais de transparência com informacções sobre o número e o tipo de notificacções recebidas e as medidas tomadas; tempo gasto para processamento e fonte de notificação; contra-avisos e respostas a estes. [4.2.2]

 

Salvaguardas contra a remoção excessiva

 

23. Em geral, aqueles que forneceram o conteúdo devem ter a oportunidade de contestar a decisão por meio de uma contra-notificação, inclusivé quando a remoção de conteúdo tiver sido automatizada. [4.3.1]

24. Se a contra-notificação fornecer motivos razoáveis ​​para considerar que a atividade ou informação notificada não é ilegal, a plataforma deve restaurar o conteúdo que foi removido sem demora indevida ou permitir o novo upload pelo utilizador. [4.3.1]

25. No entanto, em algumas circunstâncias, a possibilidade de uma contra-notificação não seria adequada, em especial quando tal interferiria com os poderes de investigação das autoridades necessários à prevenção, detecção e repressão de infracções penais. [4.3.1]

 

Avisos de má fé e contra-avisos

 

26. O abuso dos procedimentos de notificação e acção deve ser fortemente desencorajado.

 

  1. Por exemplo, ao priorizar avisos de um provedor que envia uma alta taxa de avisos inválidos ou recebe uma alta taxa de contra-notificacções. [4.3.2]
  2. Ou revogando o status do sinalizador confiável de acordo com critérios bem estabelecidos e transparentes. [4.3.2]

 

por último as;

 

Medidas contra infratores reincidentes

 

27. As plataformas online devem tomar medidas que dissuadam os utilizadores de fazer upload repetidamente de conteúdo ilegal da mesma natureza. [5.1]

28. Eles devem visar efectivamente e interromper a disseminação de tal conteúdo ilegal. Tais medidas incluiriam a suspensão ou encerramento da conta. [5.1]

29. As plataformas são fortemente encorajadas a usar ferramentas de impressão digital para filtrar conteúdo que já tenha sido identificado e avaliado como ilegal. [5.2]

30. As plataformas online devem atualizar continuamente as suas ferramentas para garantir que todo conteúdo ilegal seja capturado. O desenvolvimento tecnológico deve ser realizado em cooperação com plataformas online, autoridades competentes e outras partes interessadas, incluindo a sociedade civil. [5.2]

 

____________________________________

 

(Este post foi actualizado em 6 de Setembro de 2018 para acrescentar referência à subsequente Recomendação da Comissão.)

 

 

Referência:

European Commission – Commission Recommendation of 1.3.2018 on measures to effectively tackle illegal content online (C(2018) 1177 final)…..

 

RJCS