Pplware

Parlamento Europeu aprova regras duras para o YouTube e Facebook

O Parlamento Europeu aprovou esta quinta-feira (17), a proposta que visa punir as redes sociais e empresas online que não removam conteúdo promotor do ódio no espaço de uma hora após terem sido devidamente alertadas. Será uma forte imposição ao Google, Facebook, bem como ao Twitter, YouTube, entre outras.

Em causa está o conteúdo terrorista, extremista, perseguição étnica e/ou racial, entre outras previsões.


Como um todo, a União Europeia tem-se desdobrado na reafirmação do seu papel regulador enquanto entidade supranacional. Com efeito, seja por iniciativa da Comissão Europeia, ou pela mão do Parlamento Europeu, temos visto estes órgãos a dedicar cada vez mais atenção às empresas online e redes sociais.

O Parlamento Europeu e o “espaço online”

Agora que a reforma dos Direitos de Autor foi aprovada, o próximo passo na regulação online é o estabelecimento de uma previsão legal de certos comportamentos. Por outras palavras, a União quer banir do espaço online qualquer conteúdo terrorista. Sobretudo com cariz de recrutamento ou propagação do ódio.

Nesse sentido, o Parlamento Europeu aprovou hoje uma nova diretiva que vai multar de forma incisiva as empresas online (YouTube, Facebook, Twitter, Google) que falhem em remover conteúdo sinalizado dentro de uma hora. O âmbito da medida aplica-se ao espaço europeu e pode acarretar sérias multas para as empresas.

Entidades como o Facebook, Twitter, YouTube ou mesmo a Google terão 60 minutos para remover o conteúdo sinalizado. Contudo, se não o fizerem, poderão ser multadas em até 4% do volume anual de receitas. Ainda assim, o Parlamento Europeu prevê também exceções e amenizações para jovens e pequenas empresas online.

O Facebook, Twitter, Google e YouTube na Europa

O Parlamento Europeu interpela diretamente o Facebook e o YouTube como plataformas especialmente sujeitas ao flagelo da propagação do discurso do ódio ou incitamento ao terrorismo. Assim sendo, fez das duas entidades (Facebook e YouTube), o exemplo para a estatuição – as consequências no caso de incumprimento.

Assim se, por exemplo, o Facebook ou o YouTube forem notificados por órgão estatal que um determinado conteúdo pode ser classificado como um dos comportamentos / conteúdos proibidos e, se no espaço de uma hora não proceder à sua remoção eficaz, ou barramento no espaço europeu, pode enfrentar consequências.

A proposta, já aprovada, de diretiva, prevê entregar os poderes de deteção deste conteúdo às autoridades nacionais. Portanto, serão elas que terão de alertar as redes sociais (empresas online) da presença de conteúdo nefasto ou ilícito. Ainda assim, há mais a ser dito sobre esta legislação europeia, ainda não terminada.

As empresas online não serão obrigadas a vigiar o conteúdo

Seja o Facebook, Twitter, YouTube ou Google, nenhuma das empresas online será obrigada a ter uma ação preventiva, ou sequer ativa. Isto é, não terão que filtrar, vigiar ou supervisionar o conteúdo é que submetido nas suas plataformas. Aliás, nem mesmo aquilo que partilham ou armazenam nas suas redes e sistemas.

Este é um ponto importante a reter. Nenhuma empresa online terá que procurar qualquer indício de atividade ilegal, fruto das novas disposições europeias. O controlo será feito pelas entidades nacionais com competência para tal. Portanto, só após a sua ação (sinalização) é que as empresas online terão de agir.

Em seguida, com o intuito de salvaguardar a estabilidade das pequenas e médias empresas, o Parlamento Europeu também prevê uma série de atenuantes. Assim, quando uma empresa, que nunca tinha recebido uma sinalização (ordem de remoção / bloqueio), caberá ao orgão nacional competente providenciar à empresa todas as etapas do processo e o procedimento exato a seguir.

Porque nem todas as empresas têm a dimensão da Google

Além disso, terá também que a informar da tempestividade – prazo a cumprir, pelo menos 12 horas antes de emitir a ordem de remoção do conteúdo que a dita empresa está a albergar. Assim sendo, as empresas receberão a informação necessária para que saibam como agir e não sejam apanhadas desprevenidas.

Porém, se uma empresa já recebeu várias ordens de remoção, aí as autoridades podem pedir medidas de cariz adicional e preventivo. Por exemplo, um relatório periódico à autoridade nacional competente, ou mesmo um reforço da equipa de colaboradores. Contudo, mais uma vez, não são obrigadas a vigiar o conteúdo submetido.

O Parlamento Europeu reitera que nenhuma empresa será obrigada a implementar filtro, ou algoritmos. Com efeito, vemos no legislador europeu uma preocupação em não condicionar a liberdade de expressão. Como tal, nunca será imposto um mecanismo automático de controlo, ou verificação.

O que se qualifica como conteúdo terrorista?

O Parlamento Europeu deu a saber que a legislação visa qualquer suporte (texto, imagem, som ou vídeo) que incite ou solicite uma empreitada, ou contributo para ações terroristas. O mesmo se aplica ao fornecimento de instruções ou pedidos de participação em grupos terroristas. Além disso, qualquer guia ou indicação de como usar, construir, armar ou desenvolver explosivos, armas de fogo, ou outras armas.

É uma aceção muito abrangente da palavra terrorismo. Porém, o Parlamento Europeu especifica que qualquer expressão, declaração ou ponto de vista político, por muito polémico que possa ser, não deve ser considerado conteúdo terrorista. O mesmo se aplica a qualquer pesquisa, reportagem ou artigo científico.

O que pode acontecer ao Twitter, Facebook, YouTube?

A qualquer empresa, seja a Google, YouTube, Facebook, Twitter, entre outras entidades online, pode ser aplicada uma multa. Por sua vez, esta pode ascender até aos 4% das receitas globais auferidas pela empresa no decurso do ano anterior. Este cenário, mais punitivo, só será aplicado a quem falhar repetidamente nesta ação.

A proposta foi aprovada em plenário por 308 votos a favor, 204 votos contra e 70 abstenções. Agora, a sua versão final será negociada com o Conselho da União Europeia, após as eleições Europeias.

 

 

Exit mobile version