Plataformas digitais e a questão da responsabilidade por conteúdos ofensivos de terceiros

por: ANA FRAZÃO – Sócia de Ana Frazão Advogados.

Plataformas digitais e a questão da responsabilidade por conteúdos ofensivos de terceiros. Discussão se torna mais delicada diante das regulamentações como GDPR e LGPD e da necessidade de proteção de vulneráveis, como crianças e adolescentes 

 Recentemente foi noticiado o acordo que o Google (YouTube) fez com a Federal Trade Comission norte-americana, diante de diversas acusações de violações aos direitos de crianças e adolescentes perpetradas na plataforma. Além do pagamento de multa de 170 milhões de dólares, foram assumidas obrigações relacionadas à proteção de crianças e adolescentes, como a de não usar mais dados para segmentar anúncios em vídeos direcionados a crianças, a de examinar os influenciadores do YouTube, bem como a de tratar quaisquer dados de pessoas que assistam conteúdos infantis como dados produzidos por uma criança, independentemente da idade do espectador.

A questão nos remete à delicada discussão sobre em que medida as plataformas digitais devem ou não ser responsáveis por conteúdos de terceiros, especialmente diante da necessidade de proteção de vulneráveis, como, no caso, crianças e adolescentes.

É importante lembrar que, quando se inicia a discussão sobre tal tipo de responsabilidade, no final da década de 90 e início dos anos 2000, havia duas premissas que permeavam as análises a respeito do assunto: (i) o potencial emancipatório e democrático da internet e (ii) os inúmeros benefícios e utilidades que as plataformas digitais disponibilizariam gratuitamente para os seus usuários.

Por essa razão, é compreensível que houvesse uma segmentação muito precisa entre os chamados provedores de conteúdo próprio e os chamados provedores de conteúdo de terceiros – categoria na qual se situam muitas plataformas digitais –, sendo que, em relação aos últimos, havia grande preocupação em evitar que lhes fosse exigido qualquer comportamento que pudesse se assemelhar a controle ou censura prévia dos conteúdos que neles transitassem.

Daí a ideia que se consolidou no Brasil, a exemplo de outros países, de que tais provedores ou plataformas deveriam ser responsabilizados por conteúdos abusivos apenas nas hipóteses em que fossem comunicados, pelas vítimas ou interessados, sobre a ilicitude e a violação de direitos.

Somente a partir daí se poderia cogitar da responsabilidade dos provedores, caso não identificassem os verdadeiros ofensores e/ou não suspendessem ou bloqueassem os respectivos conteúdos, dentro das possibilidades técnicas para que isso fosse feito.

Com o Marco Civil da Internet, a responsabilidade dos provedores por conteúdos de terceiros tornou-se ainda mais estrita, tendo em vista que o art. 19 passou a prever que “o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica , não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.”

É interessante notar que o próprio art. 19 contém justificativa da solução por ele adotada, ao mencionar que o regime de responsabilidade foi pensado “com o intuito de assegurar a liberdade de expressão e impedir a censura”.

Por essa razão, apenas haveria a responsabilidade do provedor por conteúdos de terceiro independentemente de ordem judicial – e mesmo assim, de forma subsidiária – diante de imagens, vídeos ou outros materiais contendo cenas de nudez ou atos sexuais de caráter privado, quando bastaria a notificação do participante, nos termos do art. 21 do Marco Civil da Internet.

Esse é o regime de responsabilidade atualmente vigente no Brasil, sem que haja maior diferenciação entre conteúdos abusivos que possam causar danos a grupos vulneráveis, como é o caso das crianças e adolescentes.

Aliás, no caso específico destes, as plataformas digitais têm se tornado palco de inúmeras violações às regras protetivas da infância e adolescência, tais como (i) exposição das crianças e adolescentes a conteúdos impróprios, (ii) divulgação de dados, imagens ou outros conteúdos ilícitos referentes a crianças e adolescentes, (iii) possibilidade de interação com adultos interessados em praticar violências sexuais, (iv) propagandas abusivas e (v) cyberbulling.

Além dessas questões, que se referem a conteúdos gerados por terceiros, ainda existe a discussão sobre a responsabilidade das plataformas pelo tratamento dos dados dos seus usuários, especialmente em se tratando de grupos vulneráveis. A questão vem se tornando mais relevante conforme o mundo evolui para a efetiva proteção dos dados pessoais, tal como já ocorreu na Europa com o GDPR e está prestes a acontecer no Brasil com a entrada em vigor da LGPD. Não é sem razão que esta última prevê uma seção própria para o tratamento dos dados de crianças e adolescentes.

O acordo entre o Google e a FTC acontece, portanto, em um momento em que se discute a proteção de dados e o papel e as responsabilidades das plataformas digitais nesse intento, assim como se questionam várias das premissas em que se baseou o regime de responsabilidade atualmente existente.

Com efeito, há muito que se verifica a transformação progressiva da internet em um espaço de segregação, bolhas e discriminações, indagando-se qual é a participação das plataformas digitais em tais resultados e em que medida deveriam ser responsáveis por isso. Por outro lado, hoje já se entende perfeitamente que tais plataformas, longe de disponibilizarem serviços gratuitos, constituem sofisticados e altamente lucrativos modelos de negócios.

Como já se teve oportunidade de examinar anteriormente, as plataformas digitais operacionalizam mercados de dois ou mais lados, de forma que o chamado lado gratuito do mercado, quando existe, é, na verdade, um chamativo para o(s) outro(s) lado(s). Ademais, na economia movida a dados, o que se tem observado é que não há propriamente lado gratuito porque, mesmo naqueles em relação aos quais não se cobra nenhum valor pecuniário, obtém-se remuneração por meio da coleta e utilização dos dados pessoais dos usuários.

Não é sem razão que já se fala em mercados de tempo e de atenção, assim como em negócios de influenciar consciências. Com efeito, a coleta de dados coloca a privacidade ou a personalidade, conforme o caso, sob um triplo risco: (i) a coleta em si de dados, o que já seria preocupante; (ii) a utilização dos dados para a construção de informações a respeito dos usuários, que podem ser utilizadas para diferentes fins; e (iii) a utilização dessas informações para manipular os próprios usuários.

De fato, todo esse conhecimento pode ser utilizado para, associado ao poder da comunicação, hoje também embasado nos estudos da biologia, neurociência e psicologia, manipular as pessoas, bem como tentar modificar suas crenças e opiniões. Se tal fenômeno já é preocupante de forma geral, imagine-se então em relação a vulneráveis, como crianças e adolescentes, que obviamente são muito mais suscetíveis a tais formas de manipulação.

É sob essa perspectiva que se deve indagar se o atual regime de responsabilidade por conteúdos de terceiros é realmente suficiente para proteger os direitos da personalidade dos usuários, surgindo importantes questões, tais como:

  1. Não se deveria cogitar de um dever de cuidado, por parte das plataformas, sobre quem a acessa e utiliza, a fim de se evitar distorções, como as geradas por perfis falsos, robôs e propagadores profissionais de fake news?

  2. Não se deveria cogitar de um dever de cuidado das plataformas sobre os conteúdos que nela transitam, a fim de excluir de imediato, independentemente de ordem judicial, alguns conteúdos específicos, diante da sua manifesta abusividade ou do seu grande potencial de danos, tais como discursos de ódio, cyberbulling e ações concertadas de haters e grupos terroristas, ou claras tentativas de distorções e manipulações, como o envio maciço e intencional de fake news?

  3. Não se deveria cogitar de um dever de cuidado das plataformas sobre seus anunciantes, a fim de se lhes exigir o compliance e o devido cumprimento de regras éticas e jurídicas no que diz respeito aos seus anúncios, inclusive para o fim de banir determinadas formas de publicidade que são manifestamente abusivas?

  4. Não se deveria cogitar de um especial dever de cuidado por parte das plataformas diante de grupos vulneráveis, como crianças e adolescentes?

Todas essas questões ganham força diante da constatação de que as plataformas digitais dificilmente são espaços neutros pelos quais os conteúdos de terceiros transitam.

Pelo contrário, as plataformas, longe de assumirem uma posição passiva no fluxo informacional, apresentam grande protagonismo no papel de filtrar, selecionar, ordenar, classificar e priorizar as informações, assim como de direcionar determinadas informações ou publicidade para determinadas pessoas ou públicos-alvo.

Sob essa perspectiva, até mesmo a tradicional distinção entre conteúdos próprios e de terceiros passa a ser questionável, já que, na atual sociedade da informação, o maior poder comunicacional cabe ao agente que, como é o caso das plataformas digitais, decide que conteúdos de terceiros serão dirigidos aos usuários e de que forma, podendo não apenas valorizar e priorizar determinados conteúdos, como também dificultar ou bloquear a circulação de outros.

Daí por que, independentemente das regras específicas sobre a responsabilidade divulgação de conteúdos de terceiros, poder-se-ia pensar igualmente na responsabilidade das plataformas pelo ato próprio de gerir e interferir no fluxo informacional, a ser exigida pelas regras gerais do Direito Civil e do Direito do Consumidor.

Todas essas reflexões são ora lançadas não propriamente para se ter respostas prontas, mas para se salientar a necessidade de uma maior reflexão sobre qual deve ser o papel das plataformas digitais em uma sociedade democrática e como isso deve se refletir sobre o seu regime de responsabilidade.

Nesse sentido, há boas razões para se entender que o regime atualmente existente apresenta diversas deficiências, especialmente em relação à proteção de vulneráveis. Por mais que a LGPD possa endereçar algumas das preocupações, há que se questionar também se não haveria necessidade de modificações no Marco Civil da internet, especialmente no art. 19, a fim de possibilitar um melhor equilíbrio entre o poder e a responsabilidade das plataformas digitais.

Afinal, a regra do art. 19, do Marco Civil, pode fazer sentido diante da premissa de que os provedores de conteúdo de terceiros são meros intermediários do fluxo informacional. Entretanto, pode não fazer tanto sentido quando se constata que muitos desses provedores são os verdadeiros gestores do fluxo informacional e da forma como os usuários têm acesso às representações do mundo.

***

Esse foi o tema do painel onde Ana Frazão participou no 9º Forum da Internet do Brasil que ocorreu em Manaus no dia 03.10.2019. 

Fonte: Site JOTA por ANA FRAZÃO – Sócia de Ana Frazão Advogados. Professora de Direito Civil e Comercial da UnB. Ex-Conselheira do CADE.

Veja também:

About mindsecblog 2776 Articles
Blog patrocinado por MindSec Segurança e Tecnologia da Informação Ltda.

1 Trackback / Pingback

  1. Ministério da Justiça multa Facebook em R$ 6,6 milhões

Deixe sua opinião!