Plataformas em linha; conteúdos ilegais; responsabilidade civil; Regulamento dos Serviços Digitais; isenções de responsabilidade; obrigações de devida diligência.
O presente estudo visa abordar, à luz do direito europeu e nacional, a temática da responsabilidade civil das plataformas em linha pelos conteúdos ilegais publicados pelos seus utilizadores. Num primeiro momento, apresenta-se a noção de plataformas em linha e a evolução da sua responsabilização na qualidade de prestadoras de serviços intermediários. A seguir, procede-se ao enquadramento europeu do tema, em conformidade com o Digital Services Act, recentemente entrado em vigor. Constata-se que as premissas de que parte o novel diploma se mantêm inalteradas e inquestionadas, preservando-se o regime de isenção condicional de responsabilidade e a ausência de uma obrigação geral de vigilância sobre os conteúdos. Não obstante, passa-se em revista as novidades trazidas pelo regulamento e dá-se igualmente nota do modo como procurou suprimir as insuficiências da legislação anterior. Questiona-se ainda se esta alteração responde aos desafios e problemas que atualmente se colocam no contexto da responsabilidade civil das plataformas e avança-se o enquadramento da temática no direito nacional, uma vez que se conclui que a responsabilidade civil das plataformas em linha permanece subjugada às regras gerais de responsabilidade de cada Estado-Membro.
1. Introdução
2. As plataformas em linha e o Direito
2.1. A noção de plataformas em linha
3. A responsabilidade das plataformas em linha à luz do Digital Services Act
3.1. A ausência de uma obrigação geral de vigilância
3.2. O regime de isenção condicional de responsabilidade
a) A isenção de responsabilidade pelo alojamento virtual: Artigo 6.º
b) Contributos do Regulamento para a determinação dos casos de (ir)responsabilidade das plataformas em linha
c) A inobservância do dever de retirada diligente de conteúdos ilícitos vs. A remoção (indevida) de conteúdos lícitos
3.3. Os novos desafios à neutralidade da atividade das plataformas em linha
a) Os sistemas de recomendação e de publicidade
b) A moderação de conteúdos
3.4. As obrigações de devida diligência que impendem sobre as plataformas em linha e a natureza jurídica da responsabilidade pelo seu incumprimento
4. Conclusão
Referências bibliográficas
Referências jurisprudenciais
1. Introdução
No moderno mundo digital em que vivemos, são patentes a omnipresença e a dependência da sociedade dos serviços fornecidos pelas plataformas em linha, em virtude das possibilidades imensas que oferecem aos utilizadores no aproveitamento das suas vantagens. Hoje, a realidade digital é marcada pela utilização proativa das plataformas em linha, em que os conteúdos são criados e carregados pelos próprios utilizadores, e pela interactividade e partilha instantânea desses conteúdos. A esta evolução sucedeu-se o crescimento exponencial da quantidade de informação a bordo das plataformas e o advento das novas tecnologias, em particular, dos sistemas algorítmicos. Este cenário evidenciou a hipótese de a difusão negligente ou dolosa de conteúdos ilícitos (atentatórios de uma panóplia de direitos) ser suscetível de desencadear uma pretensão indemnizatória procedente contra uma plataforma em linha. Por conseguinte, a questão que motiva este estudo é a de saber em que termos uma plataforma em linha – ou melhor, a entidade que procede à sua exploração – poderá, de acordo com a legislação vigente, ser responsável perante os seus utilizadores ou terceiros pelos danos que estes tenham sofrido na sua esfera jurídica, em consequência da transmissão de conteúdos ilícitos, publicados pelos utilizadores no servidor da plataforma.
Na procura pela resposta à questão colocada, daremos especial enfoque à visão do legislador europeu sobre a matéria. Considerar-se-á ainda que as plataformas em linha não só prestam serviços digitais que vão muito além de albergar informações, como assumem uma posição crucial no combate ao fenómeno da proliferação da ilegalidade em linha. Pois, o aumento de conteúdos ilícitos
online reclama das plataformas o desempenho de um papel cada vez mais ativo, numa tentativa de moderar os conteúdos fornecidos pelos utilizadores. Esta não é uma exigência desmedida, atendendo que, a par do desenvolvimento dos serviços oferecidos, cresceram consideravelmente os recursos, as ferramentas e o poder que estas plataformas detêm. Porém, a sua atuação contra a disseminação de conteúdos ilícitos, quando excessiva,
i.e., demasiado restritiva dos direitos dos utilizadores à liberdade de expressão e de informação (constitucionalmente consagrados no artigo 37.º da CRP), pode também representar um problema para o sistema de responsabilidade civil.
2. As plataformas em linha e o Direito
Os prestadores de serviços intermediários viabilizam a aproximação dos sujeitos e permitem uma transmissão de informação célere e com um alcance ao público expressivo. No entanto, constituem, em simultâneo e inevitavelmente, um ambiente propício para a difusão de conteúdos ilegais e, com isso, facilitam a produção de danos. Sendo a responsabilidade chamada a depor, levantou-se,
ab initio, a questão de saber se esses prejuízos podem ser imputados aos prestadores. O interesse na sua responsabilização nasceu da constatação da dificuldade em identificar o infrator (ou, pelo menos, da sua maior onerosidade), visto que está, muitas das vezes, protegido pelo anonimato consentido pelas tecnologias, e da maior solvabilidade financeira dos intermediários, em comparação com os autores dos conteúdos ilícitos. Esta via possibilitaria uma mais fácil identificação dos responsáveis e a atribuição de maiores garantias de um ressarcimento integral dos danos, já que confere ao lesado a possibilidade de optar pela responsabilização de quem, por regra, é uma sociedade comercial registada com recursos económicos significativos. Também o facto de os prejuízos gerados pelos conteúdos ilícitos assumirem maiores dimensões, em razão das potencialidades difusivas (próprias) dos intermediários, é avançado como justificação legítima para a sua responsabilização. Pois, os prestadores não só tornam acessíveis ao público os conteúdos publicados nas suas plataformas, como ensejam a sua reprodução, gravação, transformação,
etc.
[1]. Além disso, esta solução pode ser perspetivada como forma de incitar os prestadores a adotar medidas que visem mitigar as consequências dos comportamentos ilegais dos destinatários do serviço ou mesmo prevenir a sua ocorrência.
No seio da União Europeia, até recentemente, esteve em vigor a Diretiva sobre o Comércio Eletrónico (DCE)
[2], transposta para o ordenamento jurídico português através do Decreto-Lei n.º 7/2004, de 7 de janeiro – denominado Regime Jurídico do Comércio Eletrónico (RJCE)
[3]. Apoiada no regime de isenção condicional de responsabilidade e no princípio da exclusão de obrigações gerais de vigilância sobre os conteúdos transmitidos, a Diretiva favoreceu o desenvolvimento e a dinamização domercado digital, ao mesmo tempo que permitiu a responsabilização dos prestadores de serviços, sem prejudicar a funcionalidade e a rapidez exigida nas comunidades em linha
[4].
Contudo, volvidos mais de 20 anos desde a entrada em vigor da Diretiva sobre o Comércio Eletrónico, conferimos que a realidade digital mudou drasticamente. São diversos os tipos de serviços digitais prestados e distintos os prestadores de serviços intermediários. Quando a Diretiva foi adotada, plataformas como o
Facebook, o
Instagram, a
Airbnb e o
Aliexpress ainda nem existiam, enquanto outras, designadamente a
Google, a
Amazon e o
Booking.com, estavam apenas nos seus primórdios. Este novo cenário, combinado com o aumento significativo da presença de atividades e conteúdos ilícitos nas plataformas, agigantou a necessidade de a Comissão Europeia atualizar o regime da Diretiva sobre o Comércio Eletrónico aplicável à responsabilidade dos prestadores de serviços intermediários.
Neste sentido, surgiu o Regulamento dos Serviços Digitais
[5], conhecido como
Digital Services Act (DSA, no acrónimo anglo-saxónico). Este regulamento visa promover um comportamento mais responsável e diligente dos prestadores (essencial para criar um ambiente em linha seguro, previsível e fiável) e proteger os direitos fundamentais dos utilizadores de serviços digitais, enfrentando os desafios colocados pelas novas tecnologias e pela fragmentação jurídica existente entre os Estados-Membros (cfr. os seus considerandos 3 e 4).
Assim, a Diretiva sobre o Comércio Eletrónico foi parcialmente revogada pelo Regulamento (UE) 2022/2065, tendo os seus artigos 12.º a 15.º – e as suas correspondentes disposições no RJCE
[6] – sido substituídos pelos artigos 4.º, 5.º, 6.º e 8.º do Regulamento (cfr. artigo 89.º
[7]). Não obstante, veremos que o desígnio deste diploma não foi reinventar os princípios da DCE que regem a matéria da responsabilidade dos prestadores de serviços digitais. Ao invés, o DSA procurou, fundamentalmente, incorporar a interpretação que o Tribunal de Justiça da União Europeia (TJUE) efetuou da Diretiva 2000/31/CE ao longo dos anos.
2.1. A noção de plataformas em linha
O âmbito de aplicação do
Digital Services Act está restringido aos “serviços intermediários oferecidos aos destinatários do serviço cujo local de estabelecimento seja na União ou que nela estejam localizados, independentemente de onde os prestadores desses serviços têm o seu local de estabelecimento” (artigo 2.º, n.º 1). Estes encontram-se tipicamente divididos em três tipos de serviço-base: serviço de “simples transporte”, serviço de “armazenagem temporária”, e serviço de “armazenagem em servidor”, denominado de serviço de “alojamento virtual” pelo Regulamento [cfr. alínea g) do artigo 3.º].
As plataformas em linha – designação introduzida pelo legislador europeu no DSA – classificam-se como prestadoras de serviços de alojamento virtual. Na alínea i) do artigo 3.º, o Regulamento define “plataforma em linha” como “
um serviço de alojamento virtual que, a pedido de um destinatário do serviço, armazene e difunda informações ao público, a menos que essa atividade seja um elemento menor e meramente acessório de outro serviço ou uma funcionalidade menor do serviço principal e que, por razões objetivas e técnicas, não possa ser utilizado sem esse outro serviço, e que a integração desse elemento ou dessa funcionalidade no outro serviço não constitua uma forma de contornar a aplicabilidade do presente regulamento”. Subsumem-se na categoria de plataformas em linha as redes socias (como o
Facebook, o
Instagram, o
TikTok e o
LinkedIn) e as plataformas que permitem aos consumidores celebrar contratos à distância com comerciantes (cfr. considerando 13 do DSA). Esta última subcategoria integra, por sua vez, os mercados em linha, também conhecidos como
marketplaces (como a
Ebay, a
Amazon, o
Aliexpress, a
Farfetch e o
OLX), as plataformas de viagens e de alojamento local (como a
Airbnb e o
Booking.com) e as lojas de aplicações (como a
Apple AppStore e o
Google Play). Já os motores de pesquisa em linha (como a
Google ou a
Yahoo) parecem não estar compreendidos no conceito de plataforma em linha, pois, embora integrem o âmbito de relevância do
Digital Services Act, constituem uma categoria distinta, definida na alínea j) do seu artigo 3.º
[8].
Da noção de plataforma em linha estão excluídos os serviços de comunicações interpessoais
[9], como o correio eletrónico e os serviços de mensagens privadas (
e.g. do
WhatsApp[10]). Pois, as plataformas em linha não só armazenam as informações fornecidas pelos utilizadores, como tornam as informações disponíveis ao público a pedido dos mesmos. E, nos termos da alínea k) do artigo 3.º,
a difusão ao público implicará “a disponibilização de informações, a pedido do destinatário do serviço que as forneceu, a um número potencialmente ilimitado de terceiros”. Assim, os serviços utilizados para a comunicação interpessoal entre um número finito de pessoas, determinado pelo remetente da comunicação, não se podem subsumir nesta figura (cfr. considerando 14). Ficam, deste modo, excetuadas as informações que tenham sido, por exemplo, partilhadas com amigos através de uma conta do
Facebook e que, em virtude das definições de privacidade determinadas pelo seu titular, não sejam visíveis a outros
[11].
Estão ainda excluídos os tradicionais
sites de comércio eletrónico associados a uma marca, uma vez que não prestam um serviço de intermediação,
i.e., através deles não se verifica a formação de uma relação tripartida entre dois ou mais grupos de utilizadores e o operador da plataforma, mas a constituição de uma relação bilateral, entre o utilizador/comprador e o proprietário do
site/vendedor
[12]. Tratando-se tão-só da disponibilização
online pelos profissionais dos seus próprios produtos, estes
sites não podem ser reputados como plataformas em linha. No entanto, já não é tão evidente como é que a definição de plataforma em linha se articula com as definições de “prestadores de serviços de partilha de conteúdos em linha” e de “serviços de plataforma de partilha de vídeos”, presentes noutros diplomas de direito europeu
[13]. Nuno Sousa e Silva defende que a primeira abrangerá as outras como suas subcategorias
[14]. Repare-se, porém, que os prestadores de serviços de partilha de conteúdos em linha, que disponibilizem ao público o acesso a obras ou outros materiais protegidos por direitos de autor e carregados por utilizadores (como o
YouTube e o
Spotify), ainda que integrem a categoria de plataformas em linha, estão excluídos do “porto seguro” de responsabilidade previsto no DSA, atento o disposto no artigo 17.º, n.º 3 da Diretiva (UE) 2019/790 (cuja norma se mantém como lei especial, no que concerne às infrações de direitos de autor por parte destes prestadores)
[15].
Tendo presente a noção de plataforma em linha, analisaremos de seguida o regime disposto no
Digital Services Act, a respeito da responsabilidade dos prestadores de serviços de alojamento virtual pelos conteúdos ilícitos gerados por terceiros.
3. A responsabilidade das plataformas em linha à luz do Digital Services Act
3.1. A ausência de uma obrigação geral de vigilância
As plataformas em linha, enquanto prestadoras de serviços intermediários, não estão vinculadas a uma obrigação geral de vigilância sobre os conteúdos publicados pelos utilizadores. O artigo 8.º do DSA, à semelhança do que previa o artigo 15.º, n.º 1 da DCE, dispõe que “não será imposta a esses prestadores qualquer obrigação geral de controlar as informações que os prestadores de serviços intermediários transmitem ou armazenam, nem de procurar ativamente factos ou circunstâncias que indiquem ilicitudes”. Esta norma é emblemática da preocupação do legislador europeu em assegurar a dinamização do mercado de serviços digitais, visto que a imposição de uma obrigação geral de vigilância poderia inviabilizar o funcionamento das plataformas, perante a enorme quantidade de dados que teria que ser ininterruptamente analisada
. Além do mais, pretende minimizar eventuais efeitos negativos para a liberdade de expressão e de informação dos utilizadores. Pois, embora as plataformas tenham
, pelo menos em determinadas situações, uma efetiva possibilidade de controlo das informações que transportam, não devem ser obrigadas a um policiamento da sua totalidade
[16]. Caso contrário, poderiam ser impelidas a restringir sobremaneira os conteúdos publicados na plataforma – condicionando, de forma não legítima, os direitos dos utilizadores – como forma de minorar o risco de serem responsabilizadas
[17].
A ausência de uma obrigação geral de vigilância envolve a ausência de uma obrigação de monitorização da totalidade dos conteúdos que as plataformas armazenam e difundem, mas também a ausência de uma obrigação de procurar ativamente factos ou circunstâncias que indiciem eventuais atos ilícitos praticados no seu âmbito. Assim, e de acordo com os ensinamentos de Luís Menezes Leitão, da exclusão da obrigação geral de vigilância resulta a exclusão da responsabilidade por facto de outrem, quer a título objetivo, quer com base na culpa
in vigilando[18]. Este princípio é,
prima facie, contrário à responsabilização dos prestadores por conteúdos alheios, pois, é o facto de não se encontrarem onerados com um dever geral de monitorização de conteúdos ou de investigação proativa de ilicitudes que justifica a sua irresponsabilidade por eventuais infrações que os utilizadores cometam em face de terceiros.
Contudo, da inexistência de uma obrigação geral de vigilância não decorre um princípio absoluto de irresponsabilidade dos prestadores pelos conteúdos que albergam, desde logo, porque não estão isentos do cumprimento de obrigações de vigilância em casos específicos, em particular de decisões provenientes de autoridades nacionais (considerando 30)
[19]. Aliás, em determinadas circunstâncias, espera-se das plataformas uma reação imediata, o que alicerça a existência de deveres de agir perante as infrações cometidas pelos destinatários
[20]. Será, desde logo, o caso de quando os prestadores tomam conhecimento de conteúdos ilícitos por meio de investigações realizadas por iniciativa própria ou na sequência de notificações submetidas por pessoas ou entidades, ao abrigo dos mecanismos de notificação e ação que estes intermediários estão agora obrigados a implementar (cfr. artigo 16.º do DSA)
[21].
Ainda nesta perspetiva
, o DSA prevê, nos artigos 9.º e 10.º, regras comuns sobre os deveres a que estão sujeitos os prestadores de serviços intermediários após a receção de decisões de atuação contra elementos específicos de conteúdo ilegal e decisões de prestação de informações, emitidas pelas autoridades judiciárias ou administrativas nacionais competentes. É, porém, fundamental que estas decisões sejam devidamente delimitadas – satisfazendo o conjunto harmonizado de condições mínimas específicas a que se referem os n.ºs 2 dos artigos 9.º e 10.º – e que assegurem o equilíbrio entre o objetivo que procuram alcançar e os direitos e interesses legítimos dos terceiros passíveis de serem por elas afetados, em ordem a cumprir o princípio da proporcionalidade, na sua dimensão de proibição do excesso
[22].
A previsão expressa destas obrigações de carácter específico atenua a isenção de responsabilidade dos prestadores, em relação ao que constava da Diretiva
[23]. E, numa área em que o risco de difusão de conteúdos entre plataformas pode crescer exponencialmente em pouco tempo, o facto de o Regulamento harmonizar os requisitos mínimos que as decisões devem cumprir para dar origem à obrigação de as plataformas informarem as autoridades nacionais competentes sobre o seguimento que lhes foi dado é um acréscimo que, indubitavelmente, será essencial para uma célere obtenção de informações, uma rápida remoção de materiais ilícitos e,
ipso facto, uma eficaz contenção de danos.
Ademais, nada impede que as plataformas em linha sejam sujeitas a outras obrigações de vigilância
[24]. Várias decisões judiciais têm vindo a impor deveres de monitorização com vista, maioritariamente, a impedir o reaparecimento de conteúdos cuja ilicitude já tenha sido demonstrada. Entre nós, destaca-se a decisão do STJ, de 7 de setembro de 2021, que obrigou a
Google a remover futuros resultados de pesquisa em que o nome do visado surgisse associado às palavras “
rapist”, “
sociopath” e “
sexual predator”. O tribunal entendeu que esta obrigação não se configura como uma obrigação geral de vigilância, mas uma obrigação específica, fundada numa concreta ordem judicial, passível de ser tecnicamente implementada com soluções automáticas, sem requerer um policiamento permanente dos conteúdos
[25].
Em suma, a imposição de uma obrigação de vigilância será admissível quando for suficientemente específica (visando tão-só conteúdos que preencham um determinado critério), devidamente delimitada (evitando sobrecarregar a plataforma ou restringir desnecessariamente os direitos dos utilizadores que atuem legalmente) e proporcional à finalidade desejada (dado os riscos que esta fiscalização acarreta)
[26].
3.2. O regime de isenção condicional de responsabilidade
Tal como a Diretiva 2000/31/CE, o Regulamento dos Serviços Digitais não contém um regime autónomo de imputação de responsabilidade aos prestadores de serviços intermediários. Quando a sua conduta não se subsumir a alguma das condições previstas, os prestadores de serviços digitais deixarão de estar isentos de responsabilidade, e a mesma será aferida à luz das regras gerais de responsabilidade do direito nacional aplicável. Logo, a não aplicação da isenção de responsabilidade não determina a responsabilização automática das plataformas em linha. Será necessário que se provem os pressupostos gerais da responsabilidade civil, que, no ordenamento jurídico português, correspondem ao facto voluntário do agente, ilicitude, culpa, dano e nexo de causalidade entre o facto e o dano. Nisto consiste o princípio da equiparação, o qual resulta claramente do considerando 17 do DSA.
O propósito do regime de isenção de responsabilidade (
safe harbour) é, então, garantir que, verificadas certas condições, os prestadores de serviços não sejam responsabilizados quando os destinatários do serviço disponibilizam conteúdos ilegais
. Trata-se, assim, de um quadro negativo – e não de uma delimitação positiva das condições sob as quais o intermediário incorre em responsabilidade
[27] –, que constitui uma solução de harmonização horizontal, posto que se aplica a qualquer tipo de responsabilidade e em relação a qualquer tipo de conteúdo ilegal, independentemente da sua natureza (cfr. considerando 17 do Regulamento). Deve, por essa razão, ser entendido como um regime único, aplicável – em princípio – a toda e qualquer infração que ocorra nas redes digitais, desde conteúdos pornográficos a difamação, racismo e xenofobia, publicidade enganosa,
etc.
As condições de isenção de responsabilidade pelos conteúdos alheios são diferentes em função da distinta natureza das atividades que os intermediários desenvolvam
[28]. Para este efeito, analisaremos somente os requisitos de que depende a isenção de responsabilidade dos prestadores de serviços de alojamento virtual, onde se incluem as plataformas em linha
[29].
a) A isenção de responsabilidade pelo alojamento virtual: Artigo 6.º
Os prestadores de serviços de alojamento virtual não serão responsáveis pelas informações armazenadas a pedido dos destinatários do serviço se não tiveram conhecimento efetivo das atividades ou conteúdos ilegais e se, no que se refere a uma ação de indemnização por perdas e danos, não tiveram conhecimento de factos ou de circunstâncias que evidenciem a ilegalidade das atividades ou dos conteúdos [alínea a) do n.º 1 do artigo 6.º do DSA]
[30]. Ou ainda se, a partir do momento em que tiveram conhecimento da ilicitude, foram diligentes na remoção ou desativação de acesso aos conteúdos ilícitos [alínea b) do n.º 1 do artigo supracitado]
[31]. Portanto, para que possam beneficiar da exoneração de responsabilidade civil pelos conteúdos divulgados pelos seus utilizadores, não basta às plataformas em linha que não tenham conhecimento efetivo dos conteúdos ilícitos. É igualmente necessário que não tenham conhecimento de factos ou circunstâncias que lhes permita concluir pelapresença dos conteúdos ilícitos no seu sistema
[32]. Bem como se exige que, assim que tenham conhecimento da ilicitude dos conteúdos, atuem com diligência no sentido de
retirar ou impossibilitar o acesso aos mesmos (cfr. n.º 1, do artigo 6.º do DSA, cuja formulação é idêntica à do n.º 1, do artigo 14.º da Diretiva 2000/31/CE)
[33].
Contudo, são referidas duas situações em que a regra da irresponsabilidade é afastada. No n.º 2 do artigo 6.º do DSA mantém-se o disposto no n.º 2 do artigo 14.º da DCE. Assim, se o destinatário do serviço atuar subordinado ao prestador do serviço ou for por ele controlado, serão aplicáveis as regras comuns da responsabilidade civil. Será, por exemplo, o caso das plataformas em linha que permitem aos consumidores celebrar contratos à distância com (outros) comerciantes, mas determinam o preço dos bens ou serviços que estes oferecem, através das suas infraestruturas, aos restantes utilizadores (cfr. considerando 23). Não são, porém, totalmente claras as demais circunstâncias que permitem considerar que um destinatário atua efetivamente “sob a autoridade ou controlo do prestador”, visto que o DSA não avançou com critérios ou elementos indicativos do exercício de controlo
[34].
Em todo o caso, a razão de ser da norma é excecionar da isenção de responsabilidade as situações em que os conteúdos ilícitos tenham sido colocados por quem tem uma conexão próxima com o prestador e está sob um certo grau de influência ou controlo deste (como haverá se tiver sido celebrado um contrato de trabalho). Nestes casos, não só não existe, entre o prestador e o destinatário, o distanciamento necessário para que o primeiro possa alegar o “estado” de desconhecimento da ilicitude do conteúdo de que o segundo é titular, como há a possibilidade efetiva de o prestador intervir sobre o conteúdo ilícito
[35]. Esta solução está, por isso, alinhada com a lógica do restante regime. Se a atuação do prestador não é independente face ao conteúdo transmitido, não estará abrangida pela isenção
[36].
Em contrapartida, o n.º 3 do artigo 6.º do DSA constitui um avanço do legislador europeu no quadro da proteção do consumidor. Nesta norma, o Regulamento prevê que as plataformas em linha que permitem aos consumidores celebrar contratos à distância com comerciantes não deverão usufruir da exoneração (no que respeita à responsabilidade nos termos do direito em matéria de defesa dos consumidores
[37]) sempre que apresentem o elemento específico de informação ou permitam, de qualquer outra forma, que a transação específica em causa crie no “consumidor médio” a convicção de que a informação, o produto ou o serviço objeto da transação é fornecido pela própria plataforma em linha ou por um destinatário do serviço que atue sob a sua autoridade ou controlo, e que, portanto, a plataforma conhece ou controla essa informação, mesmo que assim não seja
[38].
Este preceito advém da preocupação, sentida pela Comissão Europeia, em atenuar consideravelmente a isenção de responsabilidade das plataformas de comercialização à distância híbridas – que tanto vendem produtos ou prestam serviços diretamente, como permitem que terceiros utilizem a sua página para oferecer os seus produtos ou serviços
[39]. Esta preocupação é legítima, porquanto, atualmente, as redes sociais não só possuem os seus próprios
marketplaces (é, por exemplo, o caso do
Facebook e do
Pinterest)
[40], como têm vindo a desenvolver funcionalidades que facilitam a venda de bens ou a prestação de serviços por terceiros (como as contas profissionais do
Instagram). Este progresso acentua a necessidade de se assegurar a proteção dos consumidores quando efetuam transações comerciais em linha.
Neste contexto, o Regulamento procura inibir as plataformas em linha de serem pouco transparentes na forma como exibem os produtos ou serviços aos destinatários, e evitar que ofereçam produtos ou serviços como sendo seus, quando desempenhem um papel de mera intermediação nas transações
[41]. Acompanhando o entendimento de Alberto Ribeiro de Almeida, estamos em face de uma forma de tutela da aparência
– “uma concretização da tutela da confiança e do princípio da boa-fé”
[42] –, que se justifica em razão das informações fornecidas nas interfaces das plataformas. Pois, o facto de um consumidor adquirir o seu produto através de uma plataforma em linha (ainda que a um terceiro), aliado à disponibilização de informação obscura ou duvidosa a respeito da identidade do fornecedor desse bem, pode razoavelmente induzi-lo a considerar, como sua contraparte, a própria plataforma
[43]. No caso de o consumidor acreditar que o produto é fornecido por um destinatário que atua sob a autoridade ou controlo da plataforma, ainda que não exista necessariamente uma aparência de que o consumidor contratou com a plataforma, a falta de clareza acerca de com quem está a contratar pode gerar alguma confusão no seu espírito
[44]. Sucede que o âmbito do artigo 6.º, n.º 3 do DSA parece não coincidir com o do seu n.º 2, visto que se o adquirente não for consumidor ou, sendo-o, não contratar à distância, a não aplicação da isenção de responsabilidade exigirá a prova daquele efetivo controlo ou autoridade, sem que baste apresentar prova da sua simples aparência. Assim, revelar-se-ia mais prudente presumir o exercício de determinado controlo – verificadas certos elementos – do que exigir a sua demonstração efetiva
[45].
Se a plataforma em linha não for suficientemente explícita para criar no consumidor médio a convicção de que o produto é vendido por um terceiro (que não está sob a sua autoridade ou controlo), essa circunstância pode constituir uma ação ou omissão enganosa, nos termos dos artigos 6.º e 7.º da Diretiva relativa às Práticas Comerciais Desleais (DPCD)
[46]. Reveste-se de particular relevância a alínea f) do n.º 4 do artigo 7.º da Diretiva 2005/29
[47], que qualifica como omissão enganosa a falta de indicação, aquando da oferta dos produtos em mercados em linha, da natureza profissional ou não do terceiro fornecedor dos produtos, com base nas declarações prestadas pelo mesmo ao mercado em linha. Esta disposição determina que os prestadores de mercados em linha se encontram adstritos a deveres especiais de informação
[48]. Todavia, a isenção de responsabilidade prevista no artigo 6.º não preclude a responsabilidade do mercado em linha pelo incumprimento do artigo 7.º, n.º 4, alínea f), da DPCD, uma vez que o prestador responde pela sua própria conduta, e não pela informação fornecida pelos utilizadores
[49]. Deste modo, a finalidade do n.º 3, do artigo 6.º, é também promover a coerência interna da política europeia, complementando anteriores instrumentos comunitários
[50].
Por fim, existem dois principais fundamentos de uma pretensão indemnizatória
[51]. Não tendo sido celebrado qualquer contrato entre a plataforma em linha e o consumidor, é a aparência de que existe efetivamente tal relação contratual – traduzida, de alguma forma, num comportamento da plataforma – que justificará a chamada à colação de uma ideia de confiança que, uma vez violada, motiva uma via excecional de responsabilidade. Existindo um contrato, ainda que de mera intermediação, entre a plataforma e o consumidor
[52], desencadear-se-á responsabilidade contratual. Pois, sempre que da interpretação das declarações e comportamentos da plataforma se concluir que o declaratário normal entenderia que a mesma é parte no contrato principal, a plataforma será, com efeito, considerada parte e responderá como tal
[53]. Aqui o instituto da responsabilidade pela confiança não terá aplicação, visto que a teoria do negócio jurídico consegue tutelar essa confiança, atribuindo vinculatividade ao comportamento das partes. Todavia, se tal omissão enganosa tiver lesado o direito do utilizador à celebração de contratos (enquanto dimensão do direito geral de personalidade), privando-o de decidir livremente, o recurso à tutela extracontratual será justificado
[54].
Assim, “não bastará à Plataforma Digital ser um intermediário, é necessário parecer um intermediário”
[55]. Para tanto, a impressão do consumidor médio, apurada de forma objetiva e tendo por base a plena compreensão de todas as circunstâncias pertinentes, será decisiva para exonerar de responsabilidade estas plataformas de comercialização à distância híbridas
[56].
b) Contributos do Regulamento para a determinação dos casos de (ir)responsabilidade das plataformas em linha
Apesar de o Regulamento (UE) 2022/2065 não ter alterado sobremaneira as condições de que depende a isenção de responsabilidade pelo alojamento virtual, acrescentou algumas particularidades que contribuem para determinar, com maior segurança jurídica, quando é que as plataformas em linha poderão fazer-se valer desta proteção contra a responsabilidade.
Por um lado, o Regulamento definiu o que são conteúdos ilegais, designando como tal “quaisquer informações que, por si só ou em relação a uma atividade, incluindo a venda de produtos ou a prestação de serviços, não estejam em conformidade com o direito da União ou com o direito de qualquer um dos Estados-Membros que seja conforme com o direito da União, independentemente do objeto ou da natureza precisa desse direito” [artigo 3.º, alínea h)]. Este é um conceito global
, que abrange todas as categorias de conteúdos, produtos, serviços e atividades ilegais no domínio
virtual, quer a ilegalidade decorra da violação de legislação específica da UE ou de legislações nacionais
. Inclui conteúdos que, independentemente da forma que assumam, são ilegais (como os discursos de incitação ao ódio e os conteúdos terroristas), conteúdos que, só por si, constituem crime (como é o caso da pornografia infantil), conteúdos cuja ilegalidade se torna manifesta por decisão judicial (como sejam os materiais difamatórios), conteúdos cuja ilicitude resulta de normas legais (como a publicidade proibida), mas também conteúdos que se relacionam com atividades ilegais e que só por isso não podem ser considerados ilícitos (cfr. considerando 12). Dada a sua extensão, esta noção acarreta o risco de potenciar remoções excessivas de conteúdos e, por essa razão, pode ser considerada uma séria ameaça à liberdade de expressão
[57]. Daí a relevância da distinção entre conteúdos ilegais e conteúdos potencialmente nocivos, mas não necessariamente ilegais (
v.g., a desinformação e os conteúdos prejudiciais para menores). É em virtude de os segundos não deverem ser tratados da mesma forma que os primeiros que não estão definidos no DSA, nem sujeitos a remoção obrigatória, sob pena de, tratando-se de uma área subjetiva, originar graves repercussões na proteção da liberdade de comunicação dos utilizadores.
De todo o modo, o Regulamento dos Serviços Digitais pretende com esta definição atribuir mais objetividade à determinação da ilicitude dos conteúdos e dos deveres de agir dos intermediários, em ordem a esclarecer as circunstâncias em que opera a isenção. Com efeito, no regime anterior do DL n.º 7/2004, impunha-se o dever de agir ao prestador somente quando estivesse diante de casos de ilicitude manifesta, em que a ilicitude fosse notória –
i.e., surgisse claramente das circunstâncias que se conhecem, sem uma análise substantiva –, e a sua natureza fosse incontestável. Assim, havendo dúvidas acerca da natureza ilícita de um conteúdo, o prestador não se encontrava obrigado a retirar ou impedir o acesso ao mesmo. Todavia, no DSA parece estar excluída qualquer exigência de carácter ostensivo da ilegalidade do conteúdo para que recaia sobre o prestador o dever de intervenção. Esta atuação deverá ocorrer face a qualquer conteúdo que contrarie o direito nacional ou o direito europeu
[58].
Por outro lado, o Regulamento introduziu alguns esclarecimentos, com implicações prático-normativas, no que respeita ao regime de isenção pelo alojamento virtual e, em particular, ao conceito de “conhecimento efetivo”, que tem conduzido a inúmeras práticas ocultas das plataformas, com vista a comprovar o seu alegado desconhecimento dos conteúdos ilegais[59].
O DL n.º 7/2004 dispunha, no artigo 16.º, n.º 2, que o prestador seria civilmente responsável sempre que tivesse ou devesse ter consciência da ilicitude de determinado conteúdo disponibilizado no seu servidor – devendo esta consciência ser apurada de acordo com as circunstâncias concretas que, em cada caso, o prestador conhece, não se estendendo, também, às circunstâncias que devesse conhecer
[60].
Mafalda Miranda Barbosa e Luís Menezes Leitão apontam que aquela solução parece contrariar o disposto nos artigos 7.º e 8.º do DSA
[61]. A articulação entre as normas dos artigos 7.º e 8.º evidencia a preocupação do legislador europeu em não impor uma obrigação de vigilância, em qualquer circunstância, dos conteúdos difundidos e em assegurar que se exija dos prestadores conhecimento efetivo dos conteúdos ilegais, não bastando a adoção de medidas voluntárias de vigilância, de boa-fé e de forma diligente, para afastar a regra da isenção. O regulamento não impede que uma plataforma seja responsável porque, dadas as circunstâncias que conhece, tem ou deveria ter conhecimento do carácter ilícito do conteúdo, mas assegura que o conhecimento efetivo dos conteúdos “não pode ser considerado adquirido apenas pelo facto de o prestador ter conhecimento, em sentido geral, do facto de o seu serviço ser igualmente utilizado para armazenar conteúdos ilegais”, nem o “facto de indexar automaticamente informação carregada para o seu serviço” basta para provar que tem conhecimento dos conteúdos ilegais armazenados (cfr. considerando 22 do DSA
[62]). Assim, o disposto no artigo 16.º, n.º 2 do RJCE teria um efeito contrário ao que é pretendido com os artigos 7.º e 8.º do Regulamento, na medida em que o mero uso de sistemas de moderação de conteúdos exigiria das plataformas uma vigilância mais intensa, sob pena de serem responsabilizadas porque deveriam ter tomado consciência da ilicitude dos conteúdos, atuando como desincentivo à adoção de medidas voluntárias de combate a conteúdos ilegais.
Os prestadores de serviços de alojamento virtual podem tomar conhecimento efetivo da ilicitude dos conteúdos em resultado de investigações realizadas por iniciativa própria, ou podem ser alertados para a sua natureza ilegal através de notificações que lhe sejam apresentadas, nos termos do artigo 16.º do Regulamento
. Todavia, tem emergido o problema de saber a partir de que momento se deve considerar que a plataforma tomou conhecimento efetivo da presença do conteúdo ilegal no seu servidor.
Quando a plataforma em linha tem conhecimento direto (por si própria ou através de um funcionário seu), não parece haver dúvidas de que existirá conhecimento efetivo, para efeitos do disposto no n.º 1 do artigo 6.º do Regulamento. As dificuldadessurgem nos casos em que o conhecimento é adquirido através de notificações de terceiros.
Não tendo a DCE harmonizado os procedimentos de notificação e ação, levantou-se a questão de saber se qualquer notificação apresentada por um terceiro é capaz de produzir na plataforma conhecimento efetivo do conteúdo ilegal em causa, ou se, ao invés, deverá ser exigido algum grau de pormenorização da notificação
[63]. O DSA, por sua vez, dá algumas indicações a este propósito no artigo 16.º, n.º 2, obrigando os prestadores de alojamento virtual a criar mecanismos adequados a permitir e a facilitar a apresentação de notificações que contenham determinados elementos, com o objetivo de assegurar que tais notificações sejam suficientemente precisas e adequadamente fundamentadas, para permitir às plataformas tomar decisões informadas e diligentes e remover conteúdos com fundada certeza da sua ilicitude (cfr. considerando 53).
Contudo, o Regulamento não garante que as notificações que contenham todos aqueles elementos dão origem a conhecimento efetivo. Ao invés, dispõe, no n.º 3 do artigo 16.º, que estas notificações conduzem a um conhecimento efetivo, ou a um alerta para efeitos do artigo 6.º, quando permitam a um prestador de alojamento virtual diligente identificar a ilegalidade da atividade ou do conteúdo em causa sem um exame jurídico pormenorizado. Não obstante
, esta formulação permite dizer, com maior segurança, quando é que uma notificação dá lugar a conhecimento efetivo do conteúdo ilegal. Pois, c
aso a notificação não contenha os elementos que permitam a uma plataforma diligente identificar, de forma evidente, que o conteúdo em questão é ilegal, não se deverá considerar que esta obteve conhecimento efetivo do mesmo.
Há, portanto, que distinguir entre o conhecimento da notificação e a consciência da ilicitude do conteúdo. A receção de uma notificação não obriga, automaticamente, a plataforma a remover ou impedir o acesso a determinado conteúdo, nem lhe retira o direito à isenção de responsabilidade, uma vez que a mesma se pode revelar imprecisa ou injustificada
[64]. No entanto, éimportante realçar que a plataforma em linha não poderá invocar o argumento de que a notificação não cumpre os requisitos indicados, quando a própria não contribuir, como deve, para criar as condições favoráveis para que essa notificação seja redigida de forma completa. Caso contrário, facilmente conseguiria contornar a obrigação de remoção com o pretexto de que a notificação é insuficientemente precisa e indevidamente fundamentada
[65].
Assim, apresentada uma notificação por um terceiro, a plataforma em linha tem a obrigação de proceder ao seu tratamento atempado, diligente, não arbitrário e objetivo (artigo 16.º, n.º 6). Cabe à plataforma apreciar e decidir do seu mérito (
i.e., do carácter ilícito dos conteúdos a que mesma se refere), mas não deve, em princípio, ser responsabilizada pela qualidade da decisão que tomar. Pois, não só haverá casos em que a ilicitude dos conteúdos é duvidosa, como nem todos os tipos de ilegalidades podem ser igualmente reconhecidos pela plataforma, como resultado de uma mera notificação
. Além de que uma decisão incorreta nesta matéria não prejudica efetivamente o lesado, que sempre se poderá valer dos mecanismos disponíveis para contestar essa decisão
[66]. No entanto, se a notificação permitir à plataforma reconhecer, sem um exame jurídico pormenorizado, a ilegalidade do conteúdo em causa
[67], esta poderá ser responsável, porque tendo conhecimento efetivo do conteúdo ilícito (ou de factos ou circunstâncias que evidenciam a sua ilegalidade) não procedeu à sua remoção do sistema.
Neste contexto, o Regulamento prevê a obrigação de os prestadores de alojamento virtual apresentarem
, a todos os destinatários do serviço afetados, uma exposição, suficientemente clara e facilmente compreensível, dos motivos das suas decisões de
restrição à visibilidade de elementos específicos de informação fornecidos pelos destinatários, nomeadamente a supressão, desativação do acesso ou despromoção de conteúdos [artigo 17.º, n.º 1, alínea a)]. Procura-se, assim, garantir que as decisões de remoção ou bloqueio de conteúdos ilegais, tomadas pelas plataformas na sequência de notificações ou de investigações realizadas por sua própria iniciativa, sejam transparentes e suscetíveis de serem reavaliadas, para que não resultem numa censura injusta da liberdade de expressão e de informação.
Por conseguinte, o DSA obriga as plataformas em linha (que não sejam micro ou pequenas empresas) a oferecer aos destinatários do serviço determinados meios de reparação. Assim, os utilizadores que tenham sido negativamente afetados pelas decisões dos fornecedores das plataformas devem poder aceder a um sistema interno de gestão de reclamações (artigo 20.º), como têm o direito a recorrer à resolução extrajudicial de litígios (artigo 21.º), sem prejuízo de terem sempre ao seu dispor as vias de recurso judicial.
c) A inobservância do dever de retirada diligente de conteúdos ilícitos vs. A remoção (indevida) de conteúdos lícitos
Na sequência de uma notificação ou de uma investigação voluntária, a plataforma em linha é chamada a tomar uma decisão que a coloca numa posição difícil – “entre dois fogos”[68]. Ou opta por não retirar o conteúdo e, tendo conhecimento da sua ilicitude, a plataforma poderá ser responsabilizada, perante o(s) lesado(s) (nomeadamente, quem lhe tiver exigido a sua remoção ou desativação de acesso), pelos danos que o conteúdo ilícito lhe(s) tenha gerado. Ou opta por remover o conteúdo em questão e poderá ser responsabilizada perante o seu titular, caso o conteúdo seja declarado lícito
[69].
Daí a importância de, no momento da decisão, a plataforma efetuar uma ponderação entre a permanência do conteúdo
online e a sua eventual ilicitude. No fundo, caberá à plataforma conciliar os interesses conflituantes em causa. Pois, por um lado, advogam-se os direitos das plataformas, nomeadamente, a gerir autonomamente o seu negócio e a definir o seu critério editorial
[70]. E, por outro lado, invocam-se os direitos dos utilizadores das plataformas, mas também os direitos de terceiros afetados pelas publicações dos utilizadores infratores
[71]. Com vista a tutela destes interesses, exige-se das plataformas em linha garantias acrescidas e impõe-se a tomada de decisões ponderadas, sustentadas por um sistema de
check and balances[72]. Assim, em determinadas circunstâncias, será admissível à plataforma resolver este conflito de interesses a favor de uma restrição dos direitos à liberdade de expressão e de acesso à informação dos utilizadores, desde que essa restrição seja motivada, objetiva e não discriminatória. Além disso, a atuação da plataforma em linha deve ser sempre pautada pelo critério de proporcionalidade, de forma a adequar as sanções aplicáveis (que podem variar desde a eliminação da publicação até à suspensão ou encerramento da conta do destinatário do serviço) ao tipo e à intensidade da lesão verificada
[73].
Quando a plataforma remove conteúdos ou bloqueia o perfil de um utilizador indevidamente, o mesmo tem o direito (
i.e., a pretensão) de reativar a sua publicação ou conta, sem prejuízo do ressarcimento de eventuais perdas e danos que tenha sofrido, designadamente, por violação do seu direito à liberdade de expressão ou por quebra do contrato
[74]. Dir-se-ia que a remoção de conteúdos lícitos não constituirá, à partida, uma situação de responsabilidade frequente. Pois, quando a própria plataforma inicia uma investigação é porque suspeita do carácter ilícito do conteúdo. E quando um terceiro notifica a plataforma para a remoção de determinado conteúdo, já o mesmo o configura como sendo ilícito
, pelo que resta à plataforma averiguar a ilicitude do conteúdo. Todavia, em caso de dúvida, a plataforma optará sempre por remover os conteúdos a gastar tempo e recursos a analisar a sua discutível ilicitude, porquanto a probabilidade de vir a ser responsável pela sua remoção será menor
[75].
Por outro lado, se a plataforma em linha tiver conhecimento da ilicitude de um conteúdo, recai sobre a mesma o dever de retirada diligente desse conteúdo, em conformidade com o disposto na alínea b), do n.º 1 do artigo 6.º do DSA. Uma atuação diligente quanto à retirada ou desativação de acesso aos conteúdos ilícitos exigirá por parte do prestador de serviços uma atuação a partir do momento em que tem conhecimento, com um certo grau de probabilidade, da infração
[76]. O DSA não estabeleceu qualquer prazo que deva ser observado pelas plataformas para proceder à remoção, limitando-se a referir que a supressão dos conteúdos ilícitos deve ser realizada sem demora injustificada
[77]. Por conseguinte, este grau de diligência deverá ser aferido à luz do critério da razoabilidade, requerendo atender ao que se considera razoável em função de uma análise casuística
[78]. Ou seja, corresponderá ao tempo que um prestador de serviços de alojamento virtual razoável (merecedor de proteção), face aos conhecimentos que detinha do caso concreto, demoraria para remover aquele conteúdo ilegal. Para tanto, serão relevantes determinadas circunstâncias específicas, designadamente, o tipo de conteúdos ilegais, o número de utilizadores, a quantidade de conteúdos alojada na plataforma, se é ou não possível automatizar total ou parcialmente o processo de localização e reconhecimento de conteúdos, a exatidão da notificação apresentada, se a entidade que a enviou detém o estatuto de sinalizador de confiança (nos termos do artigo 22.º) e o prejuízo potencialmente causado
[79].
No entanto, se o tribunal decidir, perante a situação concreta, no sentido de que determinado conteúdo é ilícito, mas considerar que a questão da ilicitude, quando foi colocada, não tinha uma resposta clara, a responsabilidade da plataforma estará excluída
[80]. Nesse caso, tendo embora conhecimento do teor do conteúdo, se a plataforma em linha decidiu não remover a publicação por duvidar da sua ilicitude, não obteve conhecimento efetivo do conteúdo ilícito, nem conhecimento de factos ou de circunstâncias que evidenciem a ilicitude, encontrando-se dentro dos limites do regime de
safe harbour[81]. Diferentemente, se, ao tempo da decisão, o conteúdo se revelava obviamente ilícito, será possível afirmar o conhecimento efetivo da plataforma em linha e, por sua vez, a perda da isenção de responsabilidade.
Em caso de inobservância do dever de remoção diligente do conteúdo ilícito, a plataforma deixará de estar isenta. Todavia,
a não aplicação desta proteção contra a responsabilidade por conteúdos alheios não significa a inevitável responsabilização da plataforma, mas tão-só “a remissão para as regras gerais de responsabilidade civil aplicáveis à situação em apreço, que ditarão, então, o
se e o
quantum da reparação devida”
[82]. Assim, sem desmerecer a importância dos demais pressupostos, procuraremos averiguar as circunstâncias que podem justificar que uma plataforma seja obrigada a reparar um prejuízo resultante da difusão de um conteúdo ilícito, dando especial enfoque aos termos em que se desvela o requisito da ilicitude
[83].
Nos casos em que não exista domínio sobre as ações dos utilizadores, a responsabilidade civil das plataformas em linha por conteúdos de terceiros pode ser enquadrada como responsabilidade por omissão, à luz do artigo 486.º do Código Civil (CC).Neste contexto, a verificação da ilicitude pressupõe necessariamente a existência de um dever de agir. Este é, pois, um pressuposto fundamental para a aplicabilidade do artigo 486.º do CC[84]. Por esse motivo, poder-se-ia pensar que a responsabilidade das plataformas, neste campo, nunca poderia ser por omissão, uma vez que a ausência de uma obrigação geral de vigilância, decorrente do artigo 8.º do DSA
, implicaria a inexistência de deveres jurídicos de agir
[85].
Ora, nos termos do artigo 486.º do Código Civil, o dever de praticar o ato omitido pode resultar do negócio jurídico ou da lei. Se das disposições do contrato de prestação de serviços advier algum dever jurídico de agir para a plataforma em linha e esta não tiver atuado em conformidade com ele, nenhum problema de maior se coloca e haverá responsabilidade por omissão. A dúvidasurge quanto à possibilidade de a lei impor deveres de conduta, atendendo à ausência de uma obrigação geral de vigilância.
No entanto, como referido supra, a exclusão de uma obrigação geral de monitorização dos conteúdos não significa a inexistência de obrigações específicas, pelo que, em determinadas circunstâncias, será possível enquadrar a responsabilidade civil das plataformas em linha como responsabilidade por omissão[86].
Impõem-se, a este respeito, duas observações. Uma primeira para notar que a referência à lei como fonte do dever jurídico de agir, a que alude o artigo 486.º do CC, deve ser interpretada em sentido amplo
[87]. Logo, compreende o Regulamento dos Serviços Digitais, que, enquanto diploma de direito europeu, integra o ordenamento jurídico português. E uma segunda para salientar que, embora os prestadores de serviços não tenham um dever geral de averiguar se os conteúdos que transmitem consubstanciam uma prática ilícita, os artigos 4.º a 6.º do DSA contêm exceções a este princípio, no caso de não se cumprirem as condições aí elencadas
[88].
Deste modo, se o fornecedor da plataforma tiver conhecimento da presença no seu servidor de um conteúdo ilícito, publicado por algum dos seus utilizadores, e não atuar no sentido de o remover ou de bloquear o seu acesso, essa circunstância (de
inércia) deverá ser considerada à luz da relevância delitual da omissão. A sua responsabilidade fundamentar-se-á no facto de – tendo conhecimento de que está em circulação no seu sistema um conteúdo ilícito – a plataforma ter omitido qualquer condutaque tivesse travado ou prevenido essa circulação
[89]. Por aplicação do regime previsto no n.º 1 do artigo 342.º do CC, caberá a quem alega a responsabilidade da plataforma – geralmente, o lesado – o ónus da prova de que esta teve conhecimento de factos ou circunstâncias que evidenciavam a ilegalidade do conteúdo e nada fez para o retirar. Esta prova equivalerá, em princípio, à prova dos pressupostos da responsabilidade civil: facto, ilicitude e culpa
[90]. Assim, demonstrados os danos e o nexo causal entre estes e a inobservância do dever de remoção do conteúdo ilícito, a plataforma incorrerá em responsabilidade. Contudo, sempre se terá de reconhecer que, em termos práticos, este ónus probatório se afigura bastante exigente. Pois, nem sempre o lesado possuirá os expedientes necessários para corroborar circunstâncias que são conhecidas somente pela estruturainterna da plataforma
[91].
A responsabilidade contratual surgirá, numa primeira via, da violação de algum dos deveres assumidos no contrato de prestação de serviços celebrado entre o destinatário do serviço e a plataforma em linha[92]. As prestações típicas deste contrato traduzem-se, geralmente, em, por um lado, facultar o acesso e uso da plataforma ao destinatário e, por outro lado, no acesso e uso autorizado dos dados pessoais do destinatário. No âmbito deste contrato, os utilizadores devem abster-se de praticar qualquer ato ilícito e omitir qualquer ato que contenda com os termos e condições da plataforma. No entanto, se o incumprimento destes deveres de conteúdo negativo é capaz de suscitar uma intervenção da plataforma, não podemos ignorar que essa intervenção se deve pautar pela observância de certas obrigações. As plataformas estão sujeitas a um dever de comunicação dos motivos das suas decisões quando estas possam afetar os utilizadores, e obrigadas a instituir um sistema interno de gestão de reclamações (artigos 17.º, n.º 1, e 20.º do DSA). Pois, uma decisão no sentido da restrição da visibilidadede um conteúdo pode revelar-se infundada e desencadear a responsabilidade delitual da plataforma por lesão do direito à liberdade de expressão, nos termos do artigo 483.º, n.º 1, 1ª parte do CC
[93]. Todavia, esta situação também cairá, naturalmente, no espectro da responsabilidade obrigacional, visto que, no âmbito da sua relação de índole contratual com o utilizador, a plataforma assume o dever de prestar um serviço de alojamento de conteúdos e viola esse dever no momento em que, sem motivo justificativo, remove o conteúdo
[94].
Na hipótese oposta
, a plataforma em linha além de ter o poder de remover o conteúdo publicado, tem o dever de o fazer, sob pena de ser chamada a responder perante terceiros
[95]. Tendo em consideração o que foi explicitado
supra a respeito desta hipótese, a via adequada a responsabilizar o fornecedor da plataforma em linha pela inobservância do dever legal de retirada diligente de conteúdos ilícitos será, tendencialmente, a via da responsabilidade civil extracontratual, preenchidos que estejam os seus pressupostos. Esta conclusão é extraída essencialmente de duas premissas. Uma referente à circunstância de a exposição de conteúdos ilícitos no servidor da plataforma poder originar prejuízos na esfera jurídica e patrimonial de terceiros que não sejam utilizadores da plataforma, e que, não sendo parte no contrato, dificilmente o poderão invocar
[96]. E outra alusiva ao facto de aquela exposição
online ser,
in casu, apta a desvelar ambas as modalidades de ilicitude previstas no n.º 1 do artigo 483.º do CC. Pois, tanto é suscetível de violar uma norma de proteção destinada a evitar a lesão de outrem, como é capaz de infringir direitos absolutos, em particular, direitos de personalidade, como sejam o direito à imagem, o direito à reserva sobre a intimidade da vida privada e o direito ao bom nome (cuja violação chama à colação o artigo 484.º do CC)
[97].
Note-se ainda que, a par da responsabilidade das plataformas em linha pela difusão de conteúdos ilícitos
online, encontra-se a responsabilidade dos autores desses conteúdos. Não obstante ser difícil definir os limites destas duas esferas de responsabilidade, sempre que possível, deverá fazer-se um juízo casuístico no sentido de calcular: os danos provocados pela colocação do conteúdo ilícito no servidor da plataforma, pelos quais será responsável o utilizador infrator; e os danos causados pela permanência do conteúdo ilícito
online (incluindo eventuais danos gerados por ulteriores difusões desse conteúdo por terceiros) que tenham ocorrido depois de a plataforma ter tomado conhecimento, e pelos quais será responsável
[98].
Ademais, e pese embora a plataforma forneça o contexto que permite e facilita o comportamento ilegal do utilizador e ainda amplifique o seu impacto, somos da opinião de que apenas no caso em que teve conhecimento do conteúdo ilícito e a sua difusão foi causa determinante dos danos verificados é que a plataforma e o utilizador serão civilmente responsáveis nos termos do artigo 490.º do CC – enquanto situação de comparticipação,
i.e., concertação intencional de condutas ou instigação
[99].Nesse caso, haverá responsabilidade solidária (artigo 497.º do CC), e caberá a cada um o direito de regresso relativamente ao montante indemnizatório que tenha pago em excesso, por referência à parcela de danos e culpa que sobre o outro recaiu.
3.3. Os novos desafios à neutralidade da atividade das plataformas em linha
Está subjacente à definição de prestadores de serviços intermediários (e, consequentemente, ao benefício da isenção de responsabilidade) a sua posição tipicamente neutral face aos conteúdos que transmitem. Assim, se, em vez de se limitarem a uma prestação neutra – através de um processamento puramente técnico e automático dos conteúdos fornecidos pelos utilizadores –, os prestadores desempenharem um papel ativo que lhes permita ter conhecimento ou controlo sobre esses conteúdos, fica precludida a aplicação
tout court do regime de isenção de responsabilidade
[100].
Por conseguinte, o considerando 18 do Regulamento dos Serviços Digitais explicita que a isenção não é aplicável quando as informações forem fornecidas pelo próprio prestador de serviços intermediários
[101], ou quando tiverem sido elaboradas sob a sua responsabilidade editorial, na medida em que aquele é suscetível de ter conhecimento ou controlo sobre as mesmas
[102]. Também nos casos em que colabore deliberadamente com o destinatário na prática de atividades ilegais, não será possível afirmar que o serviço foi prestado de forma neutra, de modo que o prestador estará sujeito ao regime comum de responsabilidade (considerando 20 do DSA). Esta situação de colaboração com atividades ilegais trata-se, na verdade, de um limite geral da isenção de responsabilidade
[103], colhido da jurisprudência do TJUE. Pense-se, a propósito, na hipótese de uma plataforma promover determinados conteúdos ilícitos, apresentando esses conteúdos na sua página, em primeiro lugar e durante mais tempo, mediante uma retribuição. A sua atividade não é passiva
[104]. A isenção de responsabilidade não abrange, portanto, os casos em que a plataforma abandona o seu
status de neutralidade e intervém de alguma forma nos conteúdos
[105].
A conclusão de que – ao tempo presente – as plataformas em linha são meros alojadores passivos de conteúdos alheios é muito duvidosa. Os fornecedores das plataformas armazenam os conteúdos e disponibilizam-nos ao público numa página que é estruturada e gerida por si, em que os conteúdos que nela se publicam não lhe são indiferentes, mas uma parte relevante do seu negócio
[106]. Deste modo, questiona-se a própria validade do princípio da neutralidade da atividade destes prestadores, pois, não só a curadoria que fazem dos conteúdos é cada vez mais intensa, como os serviços que prestam são mais complexos, tornando difícil a distinção entre um papel passivo e ativo
[107]. Todavia, o considerando 18 sugere que os prestadores de serviços, em especial os prestadores de serviços de
hosting, podem desempenhar um papel ativo até certo ponto – sem que isso implique necessariamente a sua desqualificação para efeitos de aplicação da isenção –, desde que de tal papel não advenha o seu conhecimento ou controlo sobre os conteúdos transmitidos ou armazenados pelos seus utilizadores
[108].
Ora, a qualificação da atividade das plataformas como neutra dependerá do grau de intimidade que as mesmas tenham com os conteúdos que alojam, o que apenas poderá ser avaliado de forma casuística. No entanto, procuraremos, de seguida, compreender em que termos o desempenho de atividades de recomendação e moderação de conteúdos – práticas atualmente indispensáveis – pode conferir às plataformas em linha um papel ativo na difusão de conteúdos, para efeitos de responsabilização.
a) Os sistemas de recomendação e de publicidade
A generalidade das plataformas em linha, embora preste os seus serviços de forma aparentemente “gratuita”, adota um modelo de negócio que visa gerar receitas através da colocação e difusão de conteúdos no seu servidor. Assim, o rendimento auferido pelas plataformas será – mormente por força da publicidade alojada – diretamente proporcional ao número de visualizações dos conteúdos publicados e ao número de anúncios divulgados. Neste contexto, com o objetivo de persuadir os utilizadores a permanecerem ligados ao seu sistema pelo maior tempo possível e a carregar em publicidade ou em outro conteúdo pago
, as plataformas utilizam mecanismos algorítmicos que lhes permitem recomendar aos utilizadores determinados conteúdos. Através destes “sistemas de recomendação”, as plataformas exibem aos utilizadores conteúdos em que estes previsivelmente têm interesse, com base nos seus perfis e nas suas preferências [cfr. alínea s) do artigo 3.º do Regulamento]. Deste modo, conseguem estimular uma maior interação com esses conteúdos e aumentar a probabilidade de os mesmos serem novamente promovidos pelos algoritmos. A construção de
feeds de conteúdos personalizados, como o
Notícias do
Facebook, a secção
Explorar do
Instagram, e o
Para Ti no
TikTok e no
Twitter (agora
X), são exemplos destes sistemas algorítmicos.
Ora, os sistemas de recomendação não se limitam a sugerir aos destinatários conteúdos especificamente selecionados, recorrem também a técnicas de classificação e priorização. Por essa razão, há quem defenda que os prestadores que fazem uso destes instrumentos não assumem uma posição de passividade entre os conteúdos e os destinatários do serviço. Estão, pelo contrário, ativamente envolvidos numa seleção específica dos conteúdos (ainda que por meio de mecanismos algorítmicos) para fomentar a dinamização do seu espaço e aumentar, desta forma, as suas receitas[109].
Já a doutrina que se pronuncia em sentido oposto considera que a simples utilização de sistemas de recomendação para fins lucrativos não deve ser entendida como um papel ativo no alojamento de conteúdos. O benefício económico que uma plataforma em linha retira com o uso destes meios técnicos, ou com publicidade, não coloca, necessariamente, em causa o carácter neutral da sua atividade. Aliás, o rendimento obtido só deverá atribuir à plataforma um papel ativo quando apresente com o conteúdo ilícito uma ligação direta, para a qual tenha contribuído a própria plataforma
[110].
Salvo melhor opinião, releva, para este efeito, não tanto a forma como a recomendação dos conteúdos é efetuada, mas sim a forma como a plataforma em linha se posiciona perante o conteúdo que está a recomendar. Como é explanado por Joana Campos Carvalho, “se a promoção for apenas dentro da própria página, destacando de forma automática alguns anúncios, que passam a aparecer no início porque os utilizadores pagaram deve entender-se que se mantém a neutralidade, uma vez que se mantém a distância em relação ao conteúdo. Pelo contrário, se de alguma forma o operador interagir com o conteúdo deixa de ser neutra.”
[111]. Não havendo um interesse próprio na difusão do conteúdo ilícito e sendo a atuação da plataforma independente do mesmo, o mero uso de ferramentas de recomendação não constitui razão bastante para abalar a sua posição de neutralidade
[112]. Este é, com efeito, um exemplo da inovação tecnológica que existe atualmente na maioria das plataformas em linha e cuja tendência evolutiva não pode ser retida pelo facto de a isenção de responsabilidade depender de um papel passivo.
Não tendo o legislador europeu optado pelo abandono ou substituição do critério da neutralidade
[113], torna-se necessário adaptar a interpretação dos conceitos de “neutro” e “passivo”, a fim de permitir às plataformas realizar uma série de atividades relacionadas com os conteúdos, sob pena ficar ameaçada a viabilidade operacional das plataformas e a sua liberdade de gerir o seu negócio
[114]. Todavia, não podemos olvidar que os sistemas de recomendação, classificação e priorização algorítmica da informação são uma parte fundamental do modelo de negócio da plataforma que pode ter sérios efeitos desfavoráveis – entre os quais, potenciar exponencialmente a difusão de conteúdos ilegais e, com isso, a exposição ao dano de inúmeros utilizadores, amplificar eventuais problemas motivados por conteúdos potencialmente ilícitos, e transformar conteúdos que só por si são relativamente inofensivos em conteúdos nocivos
[115].
b) A moderação de conteúdos
Com a proliferação de milhões de conteúdos
online, o tema da moderação de conteúdos tem conquistado cada vez mais importância. Plataformas em linha, como o
Instagram, o
TikTok, o Facebook e o
YouTube – pese embora não estejam legalmente obrigadas a vigiar a conduta dos utilizadores (por força do artigo 8.º do DSA) –, têm desenvolvido as suas próprias regras de moderação de conteúdos, prevendo, nos seus termos e condições, mecanismos de vigilância que permitem a supressão de conteúdos e a suspensão ou expulsão de utilizadores
[116].
Todavia, com a quantidade astronómica de conteúdos publicados nas plataformas, a tarefa de os moderar tornou-se "humanamente" impossível. De modo que os sistemas automatizados de moderação de conteúdos são hoje uma ferramenta fundamental para reduzir o conjunto de conteúdos potencialmente ilícitos a submeter à apreciação de moderadores humanos. Pois, a maioria das plataformas não procede a um controlo
a priori dos conteúdos difundidos nos seus sistemas,
i.e., não analisa os conteúdos antes de serem carregados
[117]. Ao invés, dispõem de sistemas algorítmicos que permitem o reconhecimento de conteúdos ilegais que devem ser revistos por moderadores humanos, antes de serem removidos.
Assim, de acordo com o
Digital Services Act, a moderação de conteúdos compreende todas as “as atividades, automatizadas ou não, empreendidas por prestadores de serviços intermediários, destinadas em especial a detetar, identificar e combater os conteúdos ilegais ou informações incompatíveis com os seus termos e condições fornecidos pelos destinatários do serviço” [alínea t) do artigo 3.º].
Apesar de estes instrumentos ainda não oferecerem respostas totalmente seguras – por incorporarem o risco de excluíremconteúdos lícitos e socialmente valiosos –, em alguns domínios permitem uma identificação eficaz e suficientemente precisa de conteúdos ilegais. Serão capazes de reconhecer, principalmente, conteúdos pedopornográficos ou algumas formas de violação de direitos autorais, como sejam as reproduções exatas de obras protegidas
[118]. Já em domínios como o do discurso de ódio e declarações de natureza difamatória, a sua eficácia tem-se revelado mais difícil de alcançar, em virtude das limitações técnicas dos algoritmos na compreensão das nuances do discurso (em particular, o sarcasmo e a ironia) e na análise dos vários contextos (social, cultural, político e geográfico) em que as declarações são proferidas
[119].
No entanto, poderá ser difícil discernir quando é que a atividade de moderação deixa de ser considerada neutra e passa a constituir motivo suficiente para conferir às plataformas um papel ativo. Resulta do disposto no artigo 7.º do Regulamento que o facto de os prestadores de serviços realizarem investigações voluntárias por sua iniciativa ou adotarem outras medidas destinadas a detetar, identificar e suprimir ou bloquear o acesso a conteúdos ilegais (desde que realizadas de boa-fé e de forma diligente[120]), não é suficiente, só por si, para excluir os intermediários do âmbito de aplicação do regime de isenção. Através desta norma – designada cláusula de “bom samaritano” –, o legislador europeu pretende encorajar as plataformas a intensificarem os seus esforços de monitorização e de atuação contra conteúdos ilegais, nomeadamente, através da implementação de políticas de moderação de conteúdos. Para tal, garante que a adoção destas medidas voluntárias não seja vista como um indício de um papel ativo e, por força disso, a exoneração de responsabilidade não venha a ter lugar.
Deste modo, o simples emprego de sistemas de indexação automática de conteúdos para monitorizar a atuação dos utilizadores não poderá ser invocado como um comportamento ativo, nem como prova do conhecimento efetivo de conteúdos ilícitos por parte da plataforma. Contudo, a alçada da cláusula de “bom samaritano” é, de certa forma, restrita. Posto que, apenas assevera que as medidas voluntárias adotadas pelos intermediários por sua própria iniciativa não devem ser a única razão para excluir a isenção de responsabilidade. Não garante que, no decurso das suas investigações, as plataformas em linha não tomem conhecimento efetivo da ilicitude dos conteúdos e sejam por eles responsáveis se, por alguma razão, não suprimirem ou bloquearem o acesso aos mesmos de forma tempestiva[121].
A adoção e evolução dos sistemas de moderação tem, porém, levantado diversas controvérsias no que respeita ao seu possível papel de censura. Pois, considerando que o desempenho de
um papel mais “ativo” neste campo aumenta a probabilidade de encontrarem conteúdos ilegais e, por consequência, agrava significativamente o risco de responsabilidade, as plataformas serão, não raras vezes, impelidas a remover um maior número de conteúdos
, mesmo que tão-só potencialmente ilegais. Agiganta-se, assim, o risco de eventuais remoções excessivas de conteúdos e consequentes restrições desmesuradas da liberdade de expressão. Em contrapartida, uma moderação de conteúdos exígua pode ser igualmente prejudicial. O aumento da desinformação e das notícias falsas e a manipulação dos processos eleitorais são exemplos das suas consequências
[122].
No entanto, a automatização do processo de moderação de conteúdos é o cerne das maiores preocupações. Pois, apesar de o recurso à avaliação humana ser uma parte indispensável e insubstituível das decisões de moderação, este nem sempre tem sido suficiente para diminuir as taxas de erro dos sistemas algorítmicos – tendo por base os designados “falsos positivos” e “falsos negativos”. Os “falsos positivos” referem-se a conteúdos que são considerados ilegais pelos algoritmos, quando são na realidade lícitos
[123]. Entre nós, destaca-se o recente bloqueio automático pela
Meta, nas suas plataformas
Facebook e
Instagram, da pesquisa pelos conteúdos da CP (Comboios de Portugal), em virtude da sua associação ao termo “
child pornography”. Os “falsos negativos”, por sua vez, correspondem a conteúdos ilícitos que não são detetados pelos sistemas automatizados de moderação e que, por essa razão, continuam acessíveis ao público. A permanência de declarações difamatórias, discursos de ódio, conteúdos de assédio sexual e de
bullying online, ilustra as limitações técnicas dos algoritmos na interpretação de conteúdos quando esta exige valorações sensíveis a contextos
[124].
A fim de atenuar o risco de arbitrariedade das decisões de moderação de conteúdos e de bloqueio injustificado do discurso, o
Digital Services Act visou garantir uma moderação de conteúdos mais responsável e reforçar os direitos fundamentais dosdestinatários. Para tanto, o Regulamento procurou regularizar as práticas vigentes, essencialmente, através da codificação das principais recomendações da Comissão aos prestadores de serviços intermediários
[125]. Em nosso entender, o DSA deu, ainda assim, origem a mudanças pertinentes no universo da atividade de moderação de conteúdos
[126]. Pois, adotou uma abordagem que não só comprova que o legislador europeu está consciencializado de que um melhor uso destas ferramentas deve passar pela regulação e transparência dos processos de moderação e não pelos seus resultados
[127], como está atento à necessidade de as plataformas procederem com especiais cautelas em relação ao modo como manuseiam os seus poderes de moderação.
Não obstante o desenvolvimento tecnológico permita às plataformas confiar cada vez mais em ferramentas automatizadas para detetar conteúdos ilegais, o direito à liberdade de expressão dos utilizadores – a bem ver, o direito a publicar conteúdos
onlinecomo corolário de uma utilização livre (e permitida por lei) das plataformas – não deve ficar sujeito à discricionariedade dos prestadores de alojamento virtual. A salvaguarda deste direito postula um aproveitamento prudente dos instrumentos de moderação de conteúdos
[128].
3.4. As obrigações de devida diligência que impendem sobre as plataformas em linha e a natureza jurídica da responsabilidade pelo seu incumprimento
Apesar de ter preservado, praticamente inalterado, o regime de isenção de responsabilidade que constava da Diretiva sobre o Comércio Eletrónico
, o Regulamento dos Serviços Digitais sujeitou as plataformas em linha a um considerável conjunto de obrigações específicas, consagradas no Capítulo III do DSA, sob a designação “obrigações de devida diligência” (
due diligence). Neste âmbito, o Regulamento optou por uma regulação baseada no risco, atribuindo diferentes deveres a diferentes prestadores de serviços intermediários. Assim, no respeito pelo princípio da proporcionalidade, as obrigações de devida diligência variam emfunção dos riscos sociais e económicos que, normalmente, estão associados ao alcance dos prestadores de serviços no espaço europeu, tendo em consideração o tipo e natureza do serviço que prestam e a sua dimensão, em termos de número médio mensal de destinatários ativos na UE
[129].
Deste modo, recaem sobre as plataformas em linha as obrigações de devida diligência aplicáveis aos prestadores de serviços intermediários em geral (artigos 11.º a 15.º), bem como as obrigações adicionais aplicáveis aos prestadores de serviços de alojamento virtual (artigos 16.º a 18.º) e, mais especificamente, aos fornecedores de plataformas em linha (artigos 20.º a 28.º). Se permitirem aos consumidores celebrar contratos à distância com comerciantes, deverão também cumprir determinadas obrigações (artigos 30.º a 32.º). E, se possuírem um alcance significativo, estão ainda sujeitas às obrigações de devida diligência aplicáveis aos fornecedores de plataformas em linha de muito grande dimensão (artigos 33.º a 43.º)
[130].
As obrigações de devida diligência são independentes do regime de isenção de responsabilidade de que gozam os prestadores de serviços intermediários em certas condições. O incumprimento destas obrigações específicas não é configurado como um limite à isenção de responsabilidade
[131] – ou seja, não está associado à perda do benefício da proteção contra a responsabilidade por conteúdos alheios –, é antes fundamento de responsabilidade contraordenacional, que pode determinar a aplicação de coimas e sanções pecuniárias compulsórias (relacionadas com o volume de negócios das plataformas), em razão do disposto no artigo 52.º do DSA.
Na opinião de Miriam C. Buiten, vincular a isenção de responsabilidade ao cumprimento das obrigações de devida diligência pode ter sido uma alternativa “descartada demasiado rápido”
[132]. Segundo a Autora, o cumprimento das obrigações previstas no DSA pode ser mais oneroso para as plataformas do que a perda da isenção de responsabilidade, e os objetivos pelos quais foi dada preferência à solução acolhida (em especial, o de evitar a remoção indevida de conteúdos) poderiam ser, de igual forma, alcançados com esta alternativa. Esta opção permitiria também afastar a distinção entre papel passivo e ativo dos intermediários (que, como vimos, tem dificuldades em adaptar-se às plataformas de hoje) e incentivar o desenvolvimento e a melhoria dos instrumentos de moderação automatizada de conteúdos. Ademais, desta forma, o pedido de uma eventual obrigação de indemnizar por incumprimento de algum dos referidos deveres acessórios seria facilitado pela não aplicação do regime de isenção
[133]. Todavia, a Comissão Europeia rejeitou explicitamente a opção de se condicionar a isenção de responsabilidade à observância das obrigações de devida diligência. Tendo alertado, na sua Avaliação de Impacto do
Digital Services Act, para os riscos que uma solução desse género poderia implicar. Referindo-se, designadamente, à eventualidade de aquela alternativa compelir os prestadores a preferir, de forma estratégica, não atuar em conformidade com as obrigações de devida diligência e a submeter-se a acusações de responsabilidade, caso entendessem que estas seriam menos onerosas e dispendiosas. Além de que poderia criar um encargo bastante pesado para as autoridades judiciais e administrativas, que teriam que avaliar não só as circunstâncias relevantes para a aplicação da isenção, como o cumprimento das referidas obrigações, e, inclusive, gerar mais incertezas jurídicas para os prestadores
[134].
Não obstante, da violação das obrigações de devida diligência pode emergir uma obrigação de indemnizar, pois, o facto de se preverem hipóteses de responsabilidade contraordenacional não obsta a que os mesmos factos possam gerar também responsabilidade civil. O DSA refere-se a esta possibilidade no artigo 54.º. E, no considerando 121, acrescenta que a indemnização dos danos sofridos devido a uma violação, por parte dos prestadores, das obrigações do Regulamento deverá estar em conformidade com as regras e procedimentos da legislação nacional aplicável
[135], sem prejuízo do exercício efetivo de outras possibilidades de reparação disponíveis ao abrigo das regras de defesa dos consumidores. É assim, pois, a circunstância de as plataformas estarem isentas de responsabilidade pelos conteúdos que armazenam e difundem a pedido dos utilizadores não impede que lhes sejam diretamente impostos deveres, cujo incumprimento pode gerar responsabilidade obrigacional
[136]. O único dever que não lhes pode ser imposto é o dever geral de vigilância, em respeito pelo artigo 8.º do Regulamento.
Além de poder ser fonte de responsabilidade obrigacional, a inobservância das obrigações de devida diligência estabelecidas pelo DSA assume importância ao nível da responsabilidade delitual das plataformas perante os destinatários do serviço. Repare-se, por exemplo, que o mecanismo de notificação e ação que as plataformas em linha estão obrigadas a criar terá como principal consequência a tomada de conhecimento efetivo de conteúdos ilegais, o que poderá afastar a aplicação do regime de isenção.Do mesmo modo, as plataformas têm o dever de suspender, durante um período razoável e após emissão de um aviso prévio, a prestação dos serviços pertinentes ao utilizador que, de forma reiterada, forneceu conteúdos manifestamente ilegais (n.º 1 do artigo 23.º do DSA)
[137]. Estão, portanto, vinculadas a agir sempre que concluam pela utilização abusiva e promotora de conteúdos ilícitos, caso contrário, deixarão de beneficiar da isenção
[138].
Neste âmbito, seguindo os ensinamentos de Mafalda Miranda Barbosa, a “responsabilidade no sentido da
liability” requer para a sua afirmação a violação de uma determinada obrigação que integra a “responsabilidade no sentido da
role responsibility”[139]. Ou seja, a responsabilidade aquiliana, embora assente na ilicitude constituída por via do resultado (através da preterição de um direito de outrem ou de uma disposição legal de proteção de interesses alheios), deriva, em primeira linha, do incumprimento de alguma das obrigações que se configuram em torno das plataformas em linha e que integram a sua esfera de responsabilidade no sentido da
role responsibility. Por conseguinte, ainda que as plataformas não sejam, em princípio, responsáveis por conteúdos de terceiros, a previsão rigorosa destas obrigações pode viabilizar, em caso de incumprimento, a imposição de uma eventual obrigação de indemnizar
[140].
Contudo, o facto de a plataforma não estar isenta de responsabilidade não é suficiente para que um pedido indemnizatório seja tido como procedente, é necessário que se encontrem preenchidos os pressupostos gerais da responsabilidade. É, neste sentido, que a delimitação de uma esfera de responsabilidade no sentido da
role responsibility, com a imposição de obrigações específicas, pode ser relevante – como guia para o reconhecimento do ilícito, uma vez qualificadas as normas que estabelecem as obrigações como disposições legais de proteção de interesses alheios
[141], e como alicerce do juízo de culpa ou do nexo de imputação objetiva
[142].
4. Conclusão
Ainda que nos encontremos diante de uma nova realidade digital, mormente em razão da inovação tecnológica, do ponto de vista da responsabilidade civil das plataformas em linha pelos conteúdos ilícitos publicados por utilizadores, o caminho indigitadopelo Regulamento dos Serviços Digitais continua a ser aquele que a Diretiva sobre o Comércio Eletrónico trilhou: o da sujeição às regras gerais de cada Estado-Membro, com a possibilidade de as plataformas se poderem eximir à responsabilidade se, tendo tomado conhecimento do conteúdo ilícito, atuarem com a devida diligência para o remover ou impossibilitar o seu acesso.
O legislador europeu aproveitou para esclarecer alguns aspetos que, no anterior regime, permaneciam dúbios, como saber sobre que tipo de conteúdos ilícitos uma plataforma em linha tem o dever de agir ou em que termos se considera que obteveconhecimento da ilicitude do conteúdo, introduzindo, para o efeito, um mecanismo harmonizado de notificação e ação (apoiado pela figura dos
trusted flaggers e equilibrado por um sistema interno de gestão de reclamações). E deu algumas indicações a propósito do modo como se concilia a posição tipicamente neutral associada aos prestadores de serviços intermediários com as atividades,
maxime, de recomendação e moderação de conteúdos, que atualmente são peça-chave de qualquer plataforma. No entanto, demos conta de que as maiores novidades deste diploma se prendem, não no plano da responsabilidade civil, mas sim no plano regulatório.
Desta forma, o Regulamento adota uma via de compromisso com sabor “anti-
Gattopardo”
[143], uma vez que foi preservado o regime de isenção condicional de responsabilidade, por factos de terceiro, por continuar a ser crucial para a dinamização da economia digital europeia. Porém, requer-se às plataformas a observância de determinadas obrigações que, podendo gerar a sua responsabilidade em caso de violação, se afiguram particularmente relevantes para o especial papel que lhes é reconhecido na sociedade digital, tanto na luta contra a disseminação de conteúdos ilícitos, como na luta contra a potencial remoção excessiva de conteúdos. Pois, o sucesso do
Digital Services Act – parece-nos – dependerá não tanto da sua capacidade para solucionar todas as questões, mas da sua habilidade para encontrar o equilíbrio justo entre os direitos fundamentais dos destinatários do serviço, os direitos dos fornecedores de plataformas em linha e os direitos dos sujeitos afetados por conteúdos ilegais. Esse equilíbrio requer proteger os utilizadores da exposição a conteúdos ilícitos, sem que sejam alvo de decisões injustificadas de remoção de conteúdos.
Em suma, no que aos danos gerados pelos conteúdos ilícitos publicados por utilizadores nas plataformas em linha diz respeito, a teoria da responsabilidade civil é desafiada a atuar não somente na reparação, mas sobretudo na sua prevenção e precaução, em ordem a proteger ao máximo a liberdade de expressão e de informação que as plataformas em linha potenciam.
Referências bibliográficas
Afonso, Gonçalo, “Primeiras Notas sobre a Coordenação dos Serviços Digitais no Regulamento dos Serviços Digitais; em especial, o caso português”, in
E-Publica Public Law Journal, vol. 11, n.º 3, 3 de dezembro de 2021, disponível em
https://doi.org/10.47345/v11n3art5 (22.05.2025)
Agostinho, Sofia Lopes, “A responsabilidade das plataformas digitais pela segurança dos consumidores – A propósito do Ac. do STJ, de 10/12/2020”, in
Nova Consumer Lab, 18 de fevereiro 2021, disponível em
https://novaconsumerlab.novalaw.unl.pt/a-responsabilidade-das-plataformas-digitais-pela-seguranca-dos-consumidores-a-proposito-de-ac-do-stj-de-10-12-2020/(22.05.2025)
Almeida, Alberto Ribeiro de, “A propriedade intelectual nos serviços digitais, uma aproximação ao futuro regulamento sobre os serviços digitais”, in Vicente, Dário Moura e Silva, Nuno Sousa e,
Estudos jurídicos em homenagem a Manuel Oehen Mendes: propriedade intelectual, contratação e sociedade da informação, Coimbra, Almedina, 2022, pp. 565-594
Arnau Raventós, Lidia, “Intermediarios en el Derecho europeo: trazas de su responsabilidad por falta de cumplimiento del contrato intermediado”, in
Cuadernos de Derecho Transnacional, vol. 17, n.º 1, março de 2025, pp. 223-248, disponível em
https://doi.org/10.20318/cdt.2025.9327 (22.05.2025)
Arroyo Amayuelas, Esther, "La conclusió de contraters amb consumidores en la Digital Services Act", in
Revista Catalana de Dret Privat, vol. 27, 2023, pp. 9-25.
Arroyo Amayuelas, Esther, “La responsabilidad de los intermediarios en internet ¿ puertos seguros a prueba de futuro?” in
Cuadernos de Derecho Transnacional, vol. 12, n.º 1, 2020, pp. 808-837, disponível em
https://doi.org/10.20318/cdt.2020.5225 (22.05.2025)
Ascensão, José de Oliveira, “Bases para uma transposição da Directriz n.º 00/31, de 8 de Junho (comércio eletrónico)”, in
Revista da Faculdade de Direito da Universidade de Lisboa, vol. XLIV, n.º 1-2, Coimbra, Coimbra Editora, 2003, pp. 215-252.
Babo, Raquel Costa, “A intermediação das plataformas eletrónicas nos contratos celebrados com consumidores”, in Maria Raquel Guimarães/Rute Teixeira Pedro/Maria Regina Redinha (coordenação),
Direito Digital, CIJE/FDUP, Porto, 2021, pp. 291-337, disponível em
https://cij.up.pt/client/files/0000000001/direitodigital-ebook-5_1771.pdf (22.05.2025)
Barata, Joan, “The Digital Services Act and its impact on the right to freedom of expression: special focus on risk mitigation obligations”, in
Plataforma por la Libertad de Información, 2021, disponível em
https://libertadinformacion.cc/wp-content/uploads/2021/06/DSA-AND-ITS-IMPACT-ON-FREEDOM-OF-EXPRESSION-JOAN-BARATA-PDLI.pdf (22.05.2025)
Barbosa, Mafalda Miranda, “Armazenagem temporária – O problema da isenção de responsabilidade”, in
Revista de Direito da Responsabilidade, Ano 6, 7 de maio 2024, pp. 507-523.
Barbosa, Mafalda Miranda, “Responsabilidade Civil das Plataformas Digitais”, in
Revista de Direito da Responsabilidade, Ano 4, 13 de setembro 2022, pp. 791-810.
Barbosa, Mafalda Miranda, “Responsabilidade contratual e extracontratual das Plataformas Digitais”, in
Revista de Direito da Responsabilidade, Ano 5, 5 de dezembro 2023, pp. 1147-1175.
Buiten, Miriam C., “The Digital Services Act: From Intermediary Liability to Platform Regulation”, in
Journal of Intellectual Property, Information Technology and Electronic Commerce Law (JIPITEC), vol. 12 (2021), pp. 361-380, disponível em
https://www.jipitec.eu/issues/jipitec-12-5-2021/5491/buiten_pdf.pdf (22.05.2025)
Buri, Ilaria e Van Hoboken, Joris –
The Digital Services Act (DSA) proposal: a critical overview, Institute for Information Law (IViR), Faculty of Law University of Amsterdam, 28 out. 2021, disponível em
https://dsa-observatory.eu/wp-content/uploads/2021/11/Buri-Van-Hoboken-DSA-discussion-paper-Version-28_10_21.pdf (22.05.2025)
Busch, Christoph, “Platform Responsibility in the European Union: From the E-Commerce Directive to the Digital Services Act”, in Chakravorti, Bhaskar e Trachtman, Joel P.,
Defeating Disinformation: Digital Platform Responsibility, Regulation and Content Moderation on the Global Technological Commons, Cambridge University Press, 30 de janeiro de 2025, disponível em
https://doi.org/10.1017/9781009438636.003 (22.05.2025)
Busch, Christoph e Mak, Vanessa, “Putting the Digital Services Act into Context: Bridging the Gap between EU Consumer Law and Platform Regulation”, in
Journal of European Consumer and Market Law, vol. 10, n.º 3, 1 de maio de 2021, disponível em
https://ssrn.com/abstract=3933675 (22.05.2025)
Carvalho, Jorge Morais, Lima, Francisco Arga e, e Farinha, Martim, “Introduction to the Digital Services Act, Content Moderation and Consumer Protection”, in
Revista de Direito e Tecnologia, vol. 3, n.º 1, 2021, pp. 71-104.
Carvalho, Joana Campos,
Os contratos celebrados através de Plataformas Digitais, Coimbra, Almedina, 2023.
Carvalho, Pedro Pitta e Cunha Nunes de,
Omissão e Dever de Agir em Direito Civil: Contributo para uma Teoria Geral da Responsabilidade Civil por Omissão, Coimbra, Almedina, 1999.
Casimiro, Sofia de Vasconcelos,
A Responsabilidade pelo Conteúdo da Informação Transmitida pela Internet, Coimbra, Almedina, 2000.
Cauffman, Caroline e Goanta, Catalina, “A New Order: The Digital Services Act and Consumer Protection”, in
European Journal of Risk Regulation, vol. 12:4, 2021, pp. 758-774, disponível em
https://doi.org/10.1017/err.2021.8 (22.05.2025)
Cobbe, Jennifer e Singh, Jatinder, “Regulating Recommending: Motivations, Considerations, and Principles”, in
European Journal of Law and Technology, 10(3), 15 de abril 2019, disponível em
https://ssrn.com/abstract=3371830 (22.05.2025)
Cole, Mark D., Etteldorf, Christina e Ullrich, Carsten,
Updating the Rules for Online Content Dissemination: Legislative Options of the European Union and the Digital Services Act Proposal, Baden-Baden, Nomos, 2021, disponível em
http://dx.doi.org/10.5771/9783748925934 (22.05.2025)
Comissão Europeia, Código de Conduta para a luta contra os discursos ilegais de incitação ao ódio em linha, maio de 2016, disponível em
https://commission.europa.eu/strategy-and-policy/policies/justice-and-fundamental-rights/combatting-discrimination/racism-and-xenophobia/eu-code-conduct-countering-illegal-hate-speech-online_en (22.05.2025)
Comissão Europeia, Comunicação da Comissão ao Parlamento Europeu, ao Conselho, ao Comité Económico e Social e ao Comité das Regiões: Combater os conteúdos ilegais em linha. Rumo a uma responsabilidade reforçada das plataformas em linha, Bruxelas 28.9.2017, COM (2017) 555 final, Bruxelas, 2017, disponível em
https://eur-lex.europa.eu/legal-content/PT/TXT/?uri=CELEX%3A52017DC0555 (22.05.2025)
Comissão Europeia, Impact Assessment Report, Accompanying the Document Proposal for a Regulation of the European Parliament and of the Council on a Single Market For Digital Services (Digital Services Act) and amending Directive 2000/31/EC, COM (2020) 825 final, Part 2, Bruxelas, 2020, disponível em
https://eur-lex.europa.eu/resource.html?uri=cellar:5ebd61c9-3f82-11eb-b27b-01aa75ed71a1.0001.02/DOC_2&format=PDF (22.05.2025)
Comissão Europeia, Recomendação (UE) 2018/334 da Comissão, de 1 de março de 2018 sobre medidas destinadas a combater eficazmente os conteúdos ilegais em linha, Bruxelas, 2018, disponível em
https://eur-lex.europa.eu/legal-content/PT/TXT/PDF/?uri=CELEX:32018H0334 (22.05.2025)
Cordeiro, António Menezes,
Direito das Obrigações, vol. II, Lisboa, AAFDL Editora, 1994 (1.ª ed. 1980)
Costa, João Fachana Cardoso Moreira da,
A responsabilidade civil pelos conteúdos ilícitos colocados e difundidos na internet: em especial da responsabilidade pelos conteúdos gerados por utilizadores, Coimbra, Almedina, 2012
Costa, João Fachana Cardoso Moreira da, “Plataformas digitais e responsabilidade civil”, in Ataíde, Rui Paulo Coutinho de Mascarenhas, Rocha, Francisco Rodrigues e Fidalgo, Vítor Palmela,
Estudos de direito do consumo, vol. III, Coimbra, Almedina, 2023
Costa, Carlos Andrade, “Responsabilidade civil dos operadores de plataformas digitais por incumprimento do contrato de fornecimento: O inesperado Capítulo IV, Secção II do regime da compra e venda de bens de consumo e os seus antecedentes”, in
Revista de Direito da Responsabilidade, Ano 6, 2024, pp. 774-812
Couto, Rute, “Práticas comerciais online: que transparência para o consumidor”, in Ataíde, Rui Paulo Coutinho de Mascarenhas e Almeida, Susana,
Novo Liber Amicorum Mário Frota, Sempre a causa dos direitos dos consumidores, Coimbra, Almedina, 2023, pp. 795-823
Cruquenaire, Alexandre, “Transposition of the e-Commerce Directive: Some Critical Comments”, in Mello, Alberto de Sá e [et al.],
Direito da Sociedade da Informação, vol. V, Coimbra, Coimbra Editora, 2004, pp. 97-113
Duivenvoorde, Bram, “The Liability of Online Marketplaces under the Unfair Commercial Practices Directive, the E-commerce Directive and the Digital Services Act”, in
Journal of European Consumer and Market Law, vol. 11, n.º 2, 2022, pp. 43-52, disponível em
https://kluwerlawonline.com/journalarticle/Journal+of+European+Consumer+and+Market+Law/11.2/EuCML2022009(22.05.2025)
European Law Institute,
Model Rules on Online Platforms, Viena, 2019, disponível em
https://www.europeanlawinstitute.eu/fileadmin/user_upload/p_eli/Publications/ELI_Model_Rules_on_Online_Platforms.pdf(22.05.2025)
Fairgrieve, Duncan, Busch, Christoph, Büyüksagis, Erdem [et. al.], “Product liability and online marketplaces comparison and reform”, in
International and Comparative Law Quarterly, vol. 73, n.º 2, abril de 2024, pp. 477-504, disponível em
https://doi.org/10.1017/S0020589324000046 (22.05.2025)
Farinha, Martim e Carvalho, Jorge Morais, “Direito do consumo e tecnologia”, in Ataíde, Rui Paulo Coutinho de Mascarenhas, Rocha, Francisco Rodrigues e Fidalgo, Vítor Palmela,
Estudos de direito do consumo, vol. III, Coimbra, Almedina, 2023, pp. 883-914
Farinho, Domingos Soares, “Os direitos humanos no Regulamento Serviços Digitais (Digital Services Act) da União Europeia”, in Duarte, Maria Luísa, Gil, Ana Rita e Freitas, Tiago Fidalgo de,
Direitos humanos e Estado de direito: proteção no quadro europeu e internacional, 1.ª ed., Lisboa, AAFDL Editora, 2022, pp. 267-304
Farinho, Domingos Soares, “O Regulamento dos Serviços Digitais da União Europeia (EU Digital Services Act): Uma visão a partir do Direito Administrativo Regulatório”, in
Revista de Direito Administrativo, n.º 18 (setembro-dezembro 2023), pp. 29-41
Ferreira, Paulo e Santos, Luís António, “O Olhar Opaco do Regulamento dos Serviços Digitais sobre os Algoritmos”, in
Políticas da Comunicação: Hibridismos e Opacidades, junho de 2024, pp. 29-52, disponível em
https://ebooks.uminho.pt/index.php/uminho/catalog/view/103/206/3367 (22.05.2025)
Fritz, Karina Nunes, “Bloqueio de usuários nas redes sociais: panorama na jurisprudência alemã”, in
German Report, 17 de maio de 2022, disponível em
https://www.migalhas.com.br/coluna/german-report/366050/bloqueio-de-usuarios-nas-redes-panorama-na-jurisprudencia-alema (22.05.2025)
Frosio, Giancarlo, “From the E-Commerce Directive to the Digital Services Act”, in Twigg-Flesner, Christian e Woods, Lorna,
Digital Services Act Commentary (Edward Elgar, forthcoming 2025), 3 de agosto de 2024, disponível em
https://ssrn.com/abstract=4914816 (22.05.2025)
García Vidal, Ángel, “La exención de responsabilidad de las plataformas de comercio electrónico por infracciones de la propiedad industrial”, in
Cuadernos de Derecho Transnacional, vol. 16, n.º 2, outubro de 2024, pp. 699-711, disponível em
https://doi.org/10.20318/cdt.2024.8938 (22.05.2025)
Guimarães, Maria Raquel,
As plataformas “colaborativas” enquanto “prestadoras de serviços da sociedade de informação”: reflexões à luz da Lei do comércio eletrónico e desenvolvimentos recentes, Economia Colaborativa, 2023, pp. 467-498, disponível em
https://doi.org/10.21814/uminho.ed.100.19 (22.05.2025)
Hofmann, Franz e Raue, Benjamin (Hrsg.),
Digital Services Act: Article-by-Article Commentary, Baden-Baden, C. H. Beck/Nomos, 2024
Husovec, Martin e Laguna, Irene Roche, “Digital Services Act: A Short Primer”, 5 de julho de 2022, disponível em
https://ssrn.com/abstract=4153796 (22.05.2025)
Kuczerawy, Aleksandra, “Remedying Overremoval”, in Van Hoboken, Joris [et al.],
Putting the DSA into Practice – Enforcement, Access to Justice and Global Implications, Berlim, Verfassungsbooks, 2023, pp. 167-182, disponível em
https://ssrn.com/abstract=4384266 (22.05.2025)
Leitão, Luís Manuel Teles de Menezes, “A responsabilidade civil na internet”, in
Revista da Ordem dos Advogados (ROA), Ano 61, vol. I (2001), pp. 171-192
Leitão, Luís Manuel Teles de Menezes,
Digital Services Act (DSA) – O Regulamento Europeu 2022/2065 sobre os Serviços Digitais, 1.ª ed., Coimbra, Almedina, 2023
Leitão, Luís Manuel Teles de Menezes, “O novo Regulamento Europeu sobre os Serviços Digitais: o Digital Services Act (DSA)”, in
Revista da Faculdade de Direito da Universidade de Lisboa, Ano LXIV, n.º 1 T. 2, 2023, pp. 1449-1468
Lodder, A. R. e Carvalho, Jorge Morais, “Online platforms: towards an information tsunami with new requirements on moderation, ranking, and traceability”, in
European Business Law Review, Forthcoming, VU University Amsterdam Legal Studies Paper Series Forthcoming, 4 de março de 2022, disponível em
https://ssrn.com/abstract=4050115 (22.05.2025)
Martinez, Pedro Romano, “Responsabilidade dos prestadores de serviços em rede”, in Portugal, Ministério da Justiça, Gabinete de Política Legislativa e Planeamento,
Lei do Comércio Eletrónico: anotada, aprovada pelo Decreto-Lei n.º 7/2004, de 7 de Janeiro, que transpõe para a ordem jurídica nacional a Directiva n.º 2000/31/CE, do Parlamento Europeu e do Conselho, de 8 de Junho de 2000, relativa a certos aspetos legais dos serviços da sociedade de informação, em especial do comércio electrónico, no mercado interno, Coimbra, Coimbra Editora, 2005, pp. 267-274
Oliveira Martins, Maria Inês, "Liability of Online Marketplace Providers for Non-conformity", in
Journal of European Consumer and Market Law, vol. 13, n.º 4, 2024, pp. 68-77, disponível em
https://kluwerlawonline.com/journalarticle/Journal+of+European+Consumer+and+Market+Law/13.2/EuCML2024009(22.05.2025)
Pacula, Krzysztof, “Inquiry into de validity of the Digital Services Act and the role of the representative associations under that regulation, Comments on the first decisions of the EU courts casting light on the DSA”, in
ERA Forum, vol. 25, 2024, pp. 259-274, disponível em
https://doi.org/10.1007/s12027-024-00799-4 (22.05.2025)
Parlamento Europeu, Resolução do Parlamento Europeu, de 20 de outubro de 2020, que contém recomendações à Comissão sobre o Ato legislativo sobre os serviços digitais: Melhorar o funcionamento do mercado único (2020/2018/(INL), disponível em
https://www.europarl.europa.eu/doceo/document/TA-9-2020-0272_PT.html#title1 (22.05.2025)
Pereira, Alexandre Libório Dias, “Filtros de conteúdos digitais para infrações «óbvias» aos direitos autorais?”, in
Revista da Faculdade de Direito da Universidade de Lisboa, Ano LXIV, n.º 1 T. 1, 2023, pp. 47-56
Pérez Escolar, Marta, “Razonabilidad y Contrato de servicios: Una aproximación a su utilidad como criterio de valoración del comportamiento contractual”, in
Anuario de Derecho Civil, Madrid, vol. 76, n.º 1, 2023, pp. 127-164, disponível em
https://doi.org/10.53054/adc.v76i1.9935 (22.05.2025)
Polat, Cemre e Bariş Özçelik, S., “Locating Online Platforms in the Right Place: Between the Digital Services Act and the Liability Law”, in
Journal of European Consumer and Market Law, vol. 12, n.º 4, 2023, pp. 168-172, disponível em
https://kluwerlawonline.com/journalarticle/Journal+of+European+Consumer+and+Market+Law/12.4/EuCML2023034(22.05.2025)
Portugal, Ministério da Justiça, Gabinete de Política Legislativa e Planeamento,
Lei do Comércio Eletrónico: anotada, aprovada pelo Decreto-Lei n.º 7/2004, de 7 de Janeiro, que transpõe para a ordem jurídica nacional a Directiva n.º 2000/31/CE, do Parlamento Europeu e do Conselho, de 8 de Junho de 2000, relativa a certos aspetos legais dos serviços da sociedade de informação, em especial do comércio electrónico, no mercado interno, Coimbra, Coimbra Editora, 2005
Rott, Peter, “New Liability of Online Marketplaces Under the Digital Services Act?”, in
European Review of Private Law, vol. 30, n.º 6, 2022, disponível em
https://doi.org/10.54648/erpl2022046 (22.05.2025)
Stalla-Bourdillon, Sophie, “Internet intermediaries as responsible actors? Why it is time to rethink the e-Commerce Directive as well…”, in Floridi, Luciano e Taddeo Mariarosaria,
The Responsibilities of Online Service Providers, Springer, julho de 2016, disponível em
https://ssrn.com/abstract=2808031 (22.05.2025)
Silva, Nuno Sousa e, “Novas regras para a internet, notas breves sobre iniciativas europeias de regulação de plataformas digitais”, in
Revista de Direito Intelectual, n.º 1 (2021), pp. 75-102.
Silva, Nuno Sousa e,
“Responsabilidade na internet: o ato dos serviços digitais garante a liberdade de expressão?”, in Nova Consumer Lab, 10 de fevereiro 2021, disponível em
https://novaconsumerlab.novalaw.unl.pt/responsabilidade-na-internet-o-ato-dos-servicos-digitais-garante-a-liberdade-de-expressao/ (22.05.2025)
Streel, Alexandre de e Ledger, Michèle, “Regulating the moderation of illegal online content”, in Maja Capello,
Unravelling the Digital Services Act package, Iris Special European Audiovisual Observatory, Strasbourg, 2021
Trabuco, Cláudia, “Conteúdos ilícitos e responsabilidade dos prestadores de serviços nas redes digitais”, in Mello, Alberto de Sá e [et al.],
Direito da Sociedade da Informação, vol. VII, Coimbra, Coimbra Editora, 2008, pp. 473-497
Ulfbeck, Vibe e Verbruggen, Paul, “Online Marketplaces and Product Liability: Back to the Where We Started”, in
European Review of Private Law, vol. 30, n.º 16, dezembro de 2022, disponível em
https://ssrn.com/abstract=4563634 (22.05.2025)
União Europeia, Conclusões do Advogado-Geral Henrik Saugmandsgaard Øe, apresentadas em 15 de julho de 2021, proc. C-401/19,
República da Polónia v.
Parlamento Europeu e
Conselho da União Europeia, EU:C:2021:613, disponível em
https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex:62019CC0401#t-ECR_62019CC0401_EN_01-E0001 (22.05.2025)
União Europeia, “The impact of the Digital Services Act on digital platforms", 12 de fevereiro de 2025, disponível em
https://digital-strategy.ec.europa.eu/en/policies/dsa-impact-platforms (22.05.2025)
Van Hoboken, Joris, Quintais, João Pedro, Poort, Joost e Eilk, Nico Van, in “Hosting intermediary services and illegal content online – An analysis of the scope of article 14 ECD in light of developments in the online service landscape”,
Study for the Comission, Luxemburgo, 2018, disponível em
https://data.europa.eu/doi/10.2759/284542 (22.05.2025)
Vasconcelos, Pedro Pais de, “Responsabilidade dos prestadores de serviços em rede”, in Portugal, Ministério da Justiça, Gabinete de Política Legislativa e Planeamento,
Lei do Comércio Eletrónico: anotada, aprovada pelo Decreto-Lei n.º 7/2004, de 7 de Janeiro, que transpõe para a ordem jurídica nacional a Directiva n.º 2000/31/CE, do Parlamento Europeu e do Conselho, de 8 de Junho de 2000, relativa a certos aspetos legais dos serviços da sociedade de informação, em especial do comércio electrónico, no mercado interno, Coimbra, Coimbra Editora, 2005, pp. 275-290 (22.05.2025)
Wilman, Folkert, “Between Preservation and Clarification: The Evolution of the DSA’s Liability Rules in Light of the CJEU’s Case Law”, in Van Hoboken, Joris [et al.],
Putting the DSA into Practice – Enforcement, Access to Justice and Global Implications, Berlim, Verfassungsbooks, 2023, pp. 35-49, disponível em
https://ssrn.com/abstract=4384266 (22.05.2025)
Referências jurisprudenciais
Jurisprudência nacional (disponível em
www.dgsi.pt/):
Acórdão do STJ, de 10.12.2020 (Relator Ferreira Lopes), proc. n.º 44/18.6YHLSB.L1.S2.
Acórdão do STJ, de 7.09.2021 (Relatora Fátima Gomes), proc. n.º 25579/16.1T8LSB.L2.S1.
Acórdão do TRL, de 13.07.2023 (Relator Luís Filipe Pires de Sousa), proc. n.º 12234/21.0T8LSB.L1-7.
Jurisprudência do TJUE (disponível em
https://curia.europa.eu/):
Acórdão do TJUE, de 23.03.2010, processos apensos C-236/08 a C-238/08,
Google France SARL e
Google Inc. v.
Louis Vuitton Malletier SA e outros.
Acórdão do TJUE, de 12.07.2011, proc. C-324/09,
L’Oréal SA e outros v.
eBay Internacional AG e outros.
Acórdão do TJUE, de 24.11.2011, proc. C-70/10,
Scarlet Extended v.
SABAM, EU:C:2011:771.
Acórdão do TJUE, de 16.02.2012, proc. C-360/10,
SABAM v.
Netlog, EU:C:2012:85.
Acórdão do TJUE, de 09.11.2016, proc. C-149/15,
Sabrina Wathelet v.
Garage Bietheres & Fils SPRL, EU:C:2016:840.
Acórdão do TJUE, de 03.10.2019, proc. C-18/18
Eva Glawischnig-Piesczek v.
Facebook Ireland Limited, EU:C:2019:821.
Acórdão do TJUE, de 22.12.2022, processos apensos C-148/21 e C-184/21,
Christian Louboutin v.
Amazon Europe Core Sàrl e outros.
Jurisprudência do Tribunal Europeu dos Direitos Humanos:
Decisão de 16.06.2015, proc. 64569/09,
Delfi As v.
Estonia, disponível em
https://hudoc.echr.coe.int/eng?i=001-155105(22.05.2025)
Jurisprudência estrangeira:
Decisão do Oberlandesgericht (OLG) de Rostock, de 18.03.2021, proc. 2 U 19/20, disponível em
https://openjur.de/u/2341170.html (22.05.2025)
Decisão do Landgericht (LG) München I, de 31.01.2022, proc. 42 O 4307/19, disponível em
https://dejure.org/dienste/vernetzung/rechtsprechung?Gericht=LG%20M%FCnchen%20I&Datum=31.01.2022&Aktenzeichen=42%20O%204307/19 (22.05.2025)
Decisão do Oberster Gerichtshof (OGH), de 17.09.2021, proc. 500/19,
Puls 4 TV GmbH & Co. KG v.
YouTube LLC and
Google Austria GmbH, disponível em
https://curia.europa.eu/juris/liste.jsf?num=C-500/19&language=en (22.05.2025)
(texto submetido a 9.02.2025 e aceite para publicação a 22.05.2025)
[1] Sofia de Vasconcelos Casimiro,
A Responsabilidade pelo Conteúdo da Informação Transmitida pela Internet, Coimbra, Almedina, 2000, pp. 53-54. Também Cláudia Trabuco, “Conteúdos ilícitos e responsabilidade dos prestadores de serviços nas redes digitais”, in Alberto de Sá e Mello, [et al.],
Direito da Sociedade da Informação, vol. VII, Coimbra, Coimbra Editora, 2008, p. 474, é da opinião que em várias situações os danos apenas se verificam em virtude dos efeitos provocados pela repetida violação dos direitos em causa.
[2] Diretiva 2000/31/CE do Parlamento Europeu e do Conselho, de 8 de junho de 2000, relativa a certos aspetos legais dos serviços da sociedade de informação, em especial do comércio eletrónico, no mercado interno.
[3] Sucessivamente alterado pelo Decreto-Lei n.º 62/2009, de 10 de março, pela Lei n.º 46/2012, de 29 de agosto, pela Lei n.º 40/2020, de 18 de agosto, e pela Lei n.º 26/2023 de 30 de maio.
[4] Tendo, embora, disciplinado muito mais a “irresponsabilidade dos prestadores de serviços que a responsabilidade destes”, na expressão de José de Oliveira Ascensão, in “Bases para uma transposição da Directriz n.º 00/31, de 8 de junho (comércio eletrónico)”, in
Revista da Faculdade de Direito da Universidade de Lisboa, vol. XLIV, n.º 1-2, Coimbra, Coimbra Editora, p. 227.
[5] Regulamento (UE) 2022/2065 do Parlamento Europeu e do Conselho de 19 de outubro de 2022 relativo a um mercado único para os serviços digitais e que altera a Diretiva 2000/31/CE. Este diploma encontra-se plenamente em vigor desde 17 de fevereiro de 2024. Cfr., para o efeito, artigo 93.º/2 do Regulamento dos Serviços Digitais.
[6] A Proposta de Lei n.º 32/XVI/1ª apresentada pelo Governo à Assembleia da República, que visa assegurar a execução do Regulamento dos Serviços Digitais na ordem jurídica portuguesa (aprovada em votação na generalidade a 12 de dezembro de 2024) prevê a revogação dos artigos 12.º a 19.º do DL n.º 7/2004.
[8] Contudo, o n.º 2, do artigo 2.º, do Regulamento (UE) 2022/1925 do Parlamento Europeu e do Conselho de 14 de setembro de 2022 relativo à disputabilidade e equidade dos mercados no setor digital e que altera as Diretivas (UE) 2019/1937 e (UE) 2020/1828 (Regulamento dos Mercados Digitais), inclui os serviços de motores de pesquisa em linha entre os serviços essenciais de plataforma.
[10] Porém, os serviços relacionados com grupos públicos e canais abertos estão abrangidos e sujeitos ao DSA.
[11] Caroline Cauffman e Catalina Goanta entendem que seria relevante a indicação de um número de “amigos” ou de “membros de um grupo” que conduzisse à perda da proteção de confidencialidade e ao mesmo tratamento que é oferecido à informação que é partilhada com o público em geral. Veja-se, das Autoras, “A New Order: The Digital Services Act and Consumer Protection”, in
European Journal of Risk Regulation, vol. 12:4, 2021, disponível em
https://doi.org/10.1017/err.2021.8, p. 769.
[12] João Fachana Cardoso Moreira da Costa, “Plataformas digitais e responsabilidade civil”, in Rui Paulo Coutinho de Mascarenhas Ataíde, Francisco Rodrigues Rocha e Vítor Palmela Fidalgo,
Estudos de direito do consumo, vol. III, Coimbra, Almedina, 2023
, pp. 438-439.
[14] Vide Nuno Sousa e Silva, “Novas regras para a internet, notas breves sobre iniciativas europeias de regulação de plataformas digitais”, in
Revista de Direito Intelectual, n.º 1 (2021), p. 83.
[15] Para uma análise mais detalhada deste recorte subjetivo e material,
vide Alberto Ribeiro de Almeida, “A propriedade intelectual nos serviços digitais, uma aproximação ao futuro regulamento sobre os serviços digitais”, in Dário Moura Vicente e Nuno Sousa e Silva,
Estudos jurídicos em homenagem a Manuel Oehen Mendes: propriedade intelectual, contratação e sociedade da informação, Coimbra, Almedina, 2022, pp. 571 e ss.
[16] Cláudia Trabuco, “Conteúdos ilícitos e responsabilidade dos prestadores de serviços…”, cit., p. 485. Tal comportaria encargos desproporcionais para os prestadores e custos de acesso elevados para os utilizadores.
[17] “É claro que o argumento apenas procede em face de conteúdos que não sejam ilícitos”
, como observa Mafalda Miranda Barbosa, in “Armazenagem temporária – O problema da isenção de responsabilidade”, in
Revista de Direito da Responsabilidade, Ano 6, 7 de maio 2024, pp. 507-508.
[19] Tal como já foi concretizado pelo TJUE.
Vide os acórdãos de 16 de fevereiro de 2012, proc. C-360/10
SABAM v.
Netlog, EU:C:2012:85, e de 24 de novembro de 2011, proc. C-70/10,
Scarlet Extended v.
SABAM, EU:C:2011:771, disponíveis em
https://curia.europa.eu.
[20] Cláudia Trabuco, “Conteúdos ilícitos e responsabilidade dos prestadores de serviços…”, cit., p. 486.
[22] Esta preocupação do DSA – explícita no considerando 36 e na alínea b) do n.º 2 do artigo 9.º - reflete a jurisprudência do TJUE. Veja-se o acórdão do TJUE, de 03 de outubro de 2019, proc. C-18/18,
Eva Glawischnig-Piesczek v.
Facebook Ireland Limited, EU:C:2019:821, disponível em
https://curia.europa.eu, que lida com a questão do âmbito territorial das decisões de atuação contra conteúdos ilegais e no qual se admite que um tribunal nacional possa ordenar uma plataforma a suprimir, a nível mundial, conteúdo difamatório de natureza semelhante ao declarado ilegal, uma vez que a proteção da pessoa visada “não é assegurada por uma obrigação excessiva imposta ao fornecedor de armazenamento, na medida em que a vigilância e a procura que exige estão limitadas às informações que contêm os elementos especificados na medida inibitória” e “não obriga o fornecedor de armazenamento a proceder a uma apreciação autónoma, podendo este último, assim, recorrer a técnicas e a meios de pesquisa automatizados”. Todavia,Christoph Busch, in “Platform Responsibility in the European Union: From the E-Commerce Directive to the Digital Services Act”, in Bhaskar Chakravorti e Joel P. Trachtman,
Defeating Disinformation: Digital Platform Responsibility, Regulation and Content Moderation on the Global Technological Commons, Cambridge University Press, 30 de janeiro de 2025, disponível em
https://doi.org/10.1017/9781009438636.003, pp. 16-17, alerta para o facto de o TJUE não ter atendido ao modo como este efeito mundial pode ser conciliado com o Direito Internacional Público e Privado.
[23] Luís Manuel Teles de Menezes Leitão,
Digital Services Act (DSA) – O Regulamento Europeu 2022/2065 sobre os Serviços Digitais, 1.ª ed., Coimbra, Almedina, 2023, pp. 21-22.
[24] O n.º 3 do artigo 31.º do DSA impõe uma obrigação de indagação e verificação, ainda que aleatória, casuística e circunscrita a padrões de razoabilidade, com o objetivo de identificar produtos ou serviços sinalizados como ilegais numa qualquer base de dados ou interface em linha oficial.
[25] Cfr. acórdão do STJ, de 7 de setembro de 2021 (Relatora Fátima Gomes), proc. n.º 25579/16.1T8LSB.L2.S1, disponível em
www.dgsi.pt.
[26] Mesmo após o TJUE já se ter pronunciado várias vezes a seu respeito, a distinção entre obrigações gerais e obrigações específicas de vigilância não é fácil. No entanto, a sua jurisprudência tem evoluído. O critério empregue deixou de se associar à quantidade de informação a monitorizar para se centrar no esclarecimento da matéria a investigar. Conforme observa o Advogado-Geral Henrik Saugmandsgaard Øe, nas suas conclusões apresentadas em 15 de julho de 2021, proc. C-401/19,
República da Polónia v.
Parlamento Europeu e
Conselho da União Europeia, EU:C:2021:613, disponível em
https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex:62019CC0401#t-ECR_62019CC0401_EN_01-E0001, §111 a §113, solução contrária equivaleria “a ignorar os desenvolvimentos tecnológicos que tornam possível essa filtragem e a privar o legislador da União de um meio útil para lutar contra certos tipos de conteúdos ilegais”.
[29] Sem desconsiderar que as mesmas entidades podem prestar simultaneamente vários serviços, devendo-se sempre analisar diante de que hipótese problemática estamos. Uma vez que “não só prestadores de serviços de alojamento como o
Google Search recorrem frequentemente a técnicas de
caching, como o fazem outros como o
YouTube, o
Facebook, o
Instagram” (Mafalda Miranda Barbosa, “Armazenagem temporária…”, cit., p. 522).
[30] O DSA, assim como o TJUE, não parece atribuir relevância à diferença entre atividade ilegal e conteúdo ilegal, referindo que o conceito de conteúdos ilegais deverá ser definido em sentido lato (cfr. considerando 12).
[31] No primeiro caso, o conteúdo é retirado da plataforma, enquanto, no segundo caso, o conteúdo continua na plataforma, mas deixa de poder ser acedido por qualquer pessoa. Por uma questão de simplificação, equiparamos as duas operações e referimos, preferencialmente, a expressão “remoção do conteúdo”.
[32] Para este efeito, o TJUE adota o critério do operador económico diligente. As situações que permitem afirmar que um prestador deveria ter conhecimento da ilegalidade não são suscetíveis de serem taxativamente tipificadas. No entanto, a existência de uma notificação ou de documentos internos da empresa onde se discuta o conteúdo ilícito serão exemplos de fatores relevantes no momento da prova daquele conhecimento.
[33] Como observa José de Oliveira Ascensão, in “Bases para uma transposição da Directriz n.º 00/31…”, cit., p. 230, “esse conhecimento não é meramente fáctico, é uma resultante da valoração do conteúdo como ilícito”.
[34] Em linha com outros diplomas de direito europeu, o Parlamento sugeriu que o DSA abordasse a responsabilidade dos mercados em linha sempre que tivessem uma influência predominante sobre os fornecedores e os elementos essenciais das transações económicas, como o preço, os termos do contrato celebrado entre o consumidor e o fornecedor terceiro, em especial, as cláusulas aplicáveis ao incumprimento e os meios de pagamento [
vide Resolução do Parlamento Europeu, de 20 de outubro de 2020, que contém recomendações à Comissão sobre o Ato legislativo sobre os serviços digitais: Melhorar o funcionamento do mercado único (2020/2018/(INL)), disponível em
https://www.europarl.europa.eu/doceo/document/TA-9-2020-0272_PT.html#title1,Anexo à Resolução, VI, §14]. Em sentido similar, Christoph Busch e Vanessa Mak, in
“Putting the Digital Services Act in Context: Bridging the Gap between EU Consumer Law and Platform Regulation”, in
Journal of European Consumer and Market Law, vol. 10, n.º 3, 1 de maio de 2021, disponível em
https://ssrn.com/abstract=3933675, pp. 6-7, entendem que o legislador europeu dever-se-ia ter inspirado no artigo 20.º, n.º 2 do European Law Institute,
Model Rules on Online Platforms. A respeito do princípio "
liability follows control", veja-se Maria Inês Oliveira Martins, "Liability of Online Marketplace Providers for Non-conformity", in
Journal of European Consumer and Market Law, vol. 13, n.º 4, 2024, disponível em
https://kluwerlawonline.com/journalarticle/Journal+of+European+Consumer+and+Market+Law/13.2/EuCML2024009, p. 73.
[35] “Trata-se, no fundo, de uma alusão à responsabilidade do comitente por atos praticados pelo comissário” (João Fachana Cardoso Moreira da Costa, “Plataformas digitais e responsabilidade civil”, cit., pp. 442-443).
[36] Se controla o seu fornecedor, o prestador pode não ter controlo direto sobre o conteúdo, mas tem controlo indireto (
vide Joana Campos Carvalho,
Os contratos celebrados através de Plataformas Digitais, Coimbra, Almedina, 2023, p. 244).
[37] O que significa que a aplicação do n.º 3 do artigo 6.º requer que a plataforma em linha seja declarada responsável à luz das regras de defesa dos consumidores e que se pretenda escudar da sua responsabilidade invocando o n.º 1 do artigo 6.º (cfr. Lidia Arnau Raventós, “Intermediarios en el Derecho europeo: trazas de su responsabilidad por falta de cumplimiento del contrato intermediado”, in
Cuadernos de Derecho Transnacional, vol. 17, n.º 1, março de 2025, disponível em
https://doi.org/10.20318/cdt.2025.9327 p. 244).
[38] Vejam-se, a propósito, os exemplos oferecidos pelo considerando 24 do DSA. Contudo, no que se refere ao exemplo de a plataforma comercializar o produto em nome próprio, não se crê que exista apenas uma aparência discrepante da realidade, mas que a plataforma é parte contratante.
Vide Lidia Arnau Raventós, “Intermediarios en el Derecho europeo…”, cit., p. 241, nota 68, e Esther Arroyo Amayuelas, "La conclusió de contraters amb consumidores en la Digital Services Act", in
Revista Catalana de Dret Privat, vol. 27, 2023, p. 16.
[40] Modelo de negócio que o legislador parece ter ignorado ao encarar as redes sociais e as plataformas que permitem celebrar contratos à distância como duas categorias totalmente distintas (cfr. considerandos 1 e 13).
A contrario sensu, Peter Rott, in “New Liability of Online Marketplaces Under the Digital Services Act?”, in
European Review of Private Law, vol. 30, n.º 6, 2022, disponível em
https://doi.org/10.54648/erpl2022046, associa as redes sociais e as plataformas de
marketplaces a duas realidades com funções totalmente diferentes.
[41] A principal preocupação radica na transparência, pois, “são recorrentes as reclamações de consumidores que só aquando da necessidade de efetivarem alguns direitos contratuais são confrontados com um profissional diferente daquele com quem julgavam ter contratado” (Rute Couto, in “Práticas comerciais online: que transparência para o consumidor”, in Rui Paulo Coutinho de Mascarenhas Ataíde e Susana Almeida,
Novo Liber Amicorum Mário Frota, Sempre a causa dos direitos dos consumidores, Coimbra, Almedina, 2023, p. 816). Contudo, a norma tem sido objeto de crítica, em especial, por ser demasiado ambígua. Veja-se Caroline Cauffman e Catalina Goanta, “A New Order: The Digital Services…”, cit., pp. 766-767, e Jorge Morais Carvalho, Francisco Arga e Lima e Martim Farinha, “Introduction to the Digital Services Act, Content Moderation and Consumer Protection”, in
Revista de Direito e Tecnologia, vol. 3, n.º 1, 2021, pp. 99 e ss.
[42] Alberto Ribeiro de Almeida, “A propriedade intelectual…”, cit., p. 591.
[43] Como acontece,
e.g., com a
Amazon, em que nem sempre é claro para o consumidor se está ou não a comprar a outro fornecedor que não a
Amazon(cfr. Nuno Sousa e Silva, “Novas regras para a internet…”, cit., p. 87).
[44] Podendo ser perspetivada pelo consumidor médio como uma forma de “
partnership” (cfr. Cemre Polat e S. Bariş Özçelik, “Locating Online Platforms in the Right Place: Between the Digital Services Act and the Liability Law”, in
Journal of European Consumer and Market Law, vol. 12, n.º 4, 2023, disponível em
https://kluwerlawonline.com/journalarticle/Journal+of+European+Consumer+and+Market+Law/12.4/EuCML2023034, p. 170). Alertam para o carácter limitado desta disposição Franz Hofmann, in "Art. 6", in Franz Hofmann e Benjamin Raue (Hrsg.),
Digital Services Act: Article-by-Article Commentary, Baden-Baden, C. H. Beck/Nomos, 2024, p. 161, e Ángel García Vidal, in “La exención de responsabilidad de las plataformas de comercio electrónico por infracciones de la propiedad industrial”, in
Cuadernos de Derecho Transnacional, vol. 16, n.º 2, outubro de 2024, disponível em
https://doi.org/10.20318/cdt.2024.8938, p. 711, pois, ultrapassada a discussão em torno da distinção entre confiança e confusão, quando um intermediário oferece um conteúdo de terceiro de tal forma que induza àquela perceção, não estará, em princípio, a atuar com a neutralidade exigida.
[45] Cfr. Lidia Arnau Raventós, “Intermediarios en el Derecho europeo…”, cit., p. 243.
[46] Diretiva 2005/29/CE, de 11 de maio de 2005, relativa às práticas comerciais desleais das empresas face aos consumidores no mercado interno e que altera a Diretiva 84/450/CEE do Conselho, as Diretivas 97/7/CE, 98/27/CE, e 2002/65/CE e o Regulamento (CE) n.º 2006/2004.
[47] Introduzido pelo artigo 3.º, n.º 4, alínea a), ii) da Diretiva (UE) 2161/2019 do Parlamento Europeu e do Conselho, de 27 de novembro de 2019, que altera a Diretiva 93/13/CEE do Conselho e as Diretivas 98/6/CE, 2005/29/CE E 2011/83/UE do Parlamento Europeu e do Conselho a fim de assegurar uma melhor aplicação e a modernização das regras da União em matéria de defesa dos consumidores – comummente designada Diretiva
Omnibus.
[48] Também decorrentes dos artigos 44.º e 45.º do Decreto-Lei n.º 84/2021, de 18 de outubro (Direitos do consumidor na compra e venda de bens, conteúdos e serviços digitais), cuja inobservância pode fazer incorrer o prestador de mercado em linha em responsabilidade solidária, equiparando-o a parceiro contratual do fornecedor. Já o acórdão do TJUE, de 09 de novembro de 2016, proc. C-149/15,
Sabrina Wathelet v.
Garage Bietheres & Fils SPRL, EU:C:2016:840, havia sido explicito ao atribuir igual relevância ao conhecimento de que se atua por contra de outro e à condição desse terceiro (se é ou não profissional). Contudo, não se pode desconsiderar a dificuldade inerente à delimitação da natureza profissional de uma atividade (
vide A. R. Lodder e Jorge Morais Carvalho, “Online platforms: towards an information tsunami with new requirements on moderation, ranking, and traceability”, in
European Business Law Review, Forthcoming, VU University Amsterdam Legal Studies Paper Series Forthcoming, 4 de março de 2022, disponível em
https://ssrn.com/abstract=4050115, pp. 9-10).
[49] Nestes casos, os consumidores lesados terão acesso a uma indemnização por danos e, se for caso disso, à redução do preço ou à rescisão do contrato, podendo ainda os Estados-Membros prever remédios adicionais, como a reparação ou a substituição (cfr. considerando 16 e artigo 3.º, n.ºs 5 e 6, da Diretiva 2161/2019).
[50] Ademais, decorre do artigo 2.º, n.º 4 do DSA que este Regulamento não interfere com o Direito da União em matéria de defesa dos consumidores. Em sentido concordante, cfr. Bram Duivenvoorde, “The Liability of Online Marketplaces under the Unfair Commercial Practices Directive, the E-commerce Directive and the Digital Services Act”, in
Journal of European Consumer and Market Law, vol. 11, n.º 2, 2022, disponível em
https://kluwerlawonline.com/journalarticle/Journal+of+European+Consumer+and+Market+Law/11.2/EuCML2022009, p. 48, e Lidia Arnau Raventós, “Intermediarios en el Derecho europeo…”, cit., p. 237.
[51] Sem prejuízo de a responsabilidade poder avultar em paralelo da infração da demais legislação atinente aos contratos celebrados à distância, nomeadamente, nos termos supramencionados.
[52] A própria estrutura das plataformas parece inviabilizar a ausência de uma relação negocial.
[53] Situação distinta é aquela em que a plataforma em linha, embora deixe claro que não é parte no contrato, cria no consumidor a confiança de que se responsabiliza de certa forma pelo cumprimento do contrato.
Vide Joana Campos Carvalho,
Os contratos celebrados através de Plataformas Digitais, cit., pp. 294-295.
[54] Sobre o desenvolvimento destas hipóteses de responsabilidade civil dos mercados em linha, vejam-se os estudos de Joana Campos Carvalho,
Os contratos celebrados através de Plataformas Digitais, cit., pp. 292 e ss., e de Mafalda Miranda Barbosa, “Responsabilidade contratual e extracontratual das plataformas digitais”, in
Revista de Direito da Responsabilidade, Ano 5, 5 de dezembro 2023, pp. 1149 e ss.
[55] João Fachana Cardoso Moreira da Costa, “Plataformas digitais e responsabilidade civil”, cit., pp. 443-444. “Para excluir esta responsabilidade, o prestador intermediário de serviços terá que explicar que o produto ou serviço é comercializado por uma entidade exterior à plataforma” (Luís Manuel Teles de Menezes Leitão, in
Digital Services Act…, cit., p. 27). Aditamos que deverão considerar-se todas as declarações do fornecedor da plataforma, e não apenas as incluídas nos termos e condições ou documentos contratuais equivalentes (tal como dispõe o considerando 27 da Diretiva
Omnibus). Sobre as cláusulas de desresponsabilização por quaisquer danos que possam advir da transmissão de conteúdos ilícitos – frequentemente encontradas entre os termos e condições das plataformas – veja-se Vibe Ulfbeck e Paul Verbruggen, “Online Marketplaces and Product Liability: Back to the Where We Started”, in
European Review of Private Law, vol. 30, n.º 16, dezembro de 2022, disponível em
https://ssrn.com/abstract=4563634, p. 22, e Duncan Fairgrieve, Christoph Busch, Erdem Büyüksagis [et. al.], “Product liability and online marketplaces comparison and reform”, in
International and Comparative Law Quarterly, vol. 73, n.º 2, abril de 2024, disponível em
https://doi.org/10.1017/S0020589324000046, p. 495.
[56] A sua responsabilização foi recentemente estabelecida no acórdão do TJUE, de 22 de dezembro de 2022, processos apensos C-148/21 e C-184/21,
Christian Louboutin v.
Amazon Europe Core Sàrl e outros, EU:C:2022:1016, disponível em
https://curia.europa.eu.
[58] A solução mostra-se em linha com os recursos de que dispõem atualmente as plataformas.
[59] Mark D. Cole, Christina Etteldorf e Carsten Ullrich,
Updating the Rules for Online Content Dissemination: Legislative Options of the European Union and the Digital Services Act Proposal, Baden-Baden, Nomos, 2021, disponível em
http://dx.doi.org/10.5771/9783748925934, p. 170.
[60] Portugal, Ministério da Justiça, Gabinete de Política Legislativa e Planeamento,
Lei do Comércio Eletrónico: anotada, aprovada pelo Decreto-Lei n.º 7/2004, de 7 de Janeiro, que transpõe para a ordem jurídica nacional a Directiva n.º 2000/31/CE, do Parlamento Europeu e do Conselho, de 8 de Junho de 2000, relativa a certos aspetos legais dos serviços da sociedade de informação, em especial do comércio electrónico, no mercado interno, Coimbra, Coimbra Editora, 2005, pp. 59-60.
[61] Cfr. Mafalda Miranda Barbosa, “Armazenagem temporária…”, cit., p. 515, e Luís Manuel Teles de Menezes Leitão, “O novo Regulamento Europeu sobre os Serviços Digitais: o Digital Services Act (DSA)”, in
Revista da Faculdade de Direito da Universidade de Lisboa, Ano LXIV, N.º 1 T. 2, 2023, cit., p. 1460.
[63] Alexandre Cruquenaire, “Transposition of the e-Commerce Directive: Some Critical Comments”, in Alberto de Sá e Mello [et al.],
Direito da Sociedade da Informação, vol. V, Coimbra, Coimbra Editora, 2004, p. 104.
[64] Todavia, nas palavras de Sofia Lopes Agostinho, in “A responsabilidade das plataformas digitais…”, cit., p. 2, a notificação “constitui, regra geral, um elemento que o juiz deve levar em conta para apreciar, tendo em consideração as informações transmitidas ao operador, a realidade do conhecimento por este dos factos ou das circunstâncias com base nas quais um operador económico diligente devesse constar a ilicitude”.
[65] Cfr. João Fachana Cardoso Moreira da Costa, “Plataformas digitais e responsabilidade civil”, cit., p. 445, e Miriam C. Buiten, “The Digital Services Act: From Intermediary Liability to Platform Regulation”, in
Journal of Intellectual Property, Information Technology and Electronic Commerce Law (JIPITEC), vol. 12 (2021), disponível em
https://www.jipitec.eu/issues/jipitec-12-5-2021/5491/buiten_pdf.pdf, p. 372.
[66] Vide Pedro Pais de Vasconcelos, “Responsabilidade dos prestadores de serviços em rede”, in Portugal, Ministério da Justiça, Gabinete de Política Legislativa e Planeamento,
Lei do Comércio Eletrónico: anotada, aprovada pelo Decreto-Lei n.º 7/2004, de 7 de Janeiro, que transpõe para a ordem jurídica nacional a Directiva n.º 2000/31/CE, do Parlamento Europeu e do Conselho, de 8 de Junho de 2000, relativa a certos aspetos legais dos serviços da sociedade de informação, em especial do comércio electrónico, no mercado interno, Coimbra, Coimbra Editora, 2005, pp. 286 e ss.
[67] A necessidade de a notificação ser clara quanto à ilicitude do conteúdo não equivale à exigência de valoração da ilicitude como manifesta para que a plataforma seja obrigada a agir. Porém, este não é um entendimento pacífico (cfr. Carlos Andrade Costa, “Responsabilidade civil dos operadores de plataformas digitais por incumprimento do contrato de fornecimento: O inesperado Capítulo IV, Secção II do regime da compra e venda de bens de consumo e os seus antecedentes”, in
Revista de Direito da Responsabilidade, Ano 6, 2024, p. 787).
[68] José de Oliveira Ascensão, “Bases para uma transposição da diretriz n.º 00/31…”, cit., p. 232.
[69] Vide Pedro Pais de Vasconcelos, “Responsabilidade dos prestadores de serviços em rede”, cit., p. 288.
[70] Cfr. Mafalda Miranda Barbosa, “Responsabilidade contratual e extracontratual…”, cit., p. 1162.
[71] Veja-se, a propósito, a decisão do
Oberlandesgericht (OLG) de Rostock, de 18 de março de 2021, proc. 2 U 19/20, disponível em
https://openjur.de/u/2341170.html, que declarou que não só o bloqueio temporário da conta de um utilizador, por consequência da publicação de mensagens ofensivas da honra de outro utilizador, não é desproporcional, nem arbitrário, como respeita a obrigação da plataforma agir a partir do momento em que tomou conhecimento de tais conteúdos.
[72] Franz Hofmann, "Enleitung", in Franz Hofmann e Benjamin Raue (Hrsg.),
Digital Services Act…, cit. p. 36; e Benjamin Raue, "Art. 23 Mabnahmen und Schutz vor missbräulicher Verwendung", in Franz Hofmann e Benjamin Raue (Hrsg.),
Digital Services Act…, cit. p. 410.
[74] Cfr. considerando 39.
[75] Vide João Fachana Cardoso Moreira da Costa,
A responsabilidade civil pelos conteúdos ilícitos colocados e difundidos na Internet: em especial da responsabilidade pelos conteúdos gerados por utilizadores, Coimbra, Almedina, 2012, pp. 101 (nota de rodapé 24) e 104-106.
[76] Numa perspetiva crítica, Joana Campos Carvalho, in
Os contratos celebrados através de Plataformas Digitais, cit., p. 243 (nota de rodapé 704), considera infeliz a formulação da versão portuguesa “a partir do momento em que tenha conhecimento da ilicitude, atue com diligência”. Segundo a Autora, atuar com diligência tem um alcance muito mais vasto do que a dimensão temporal prevista, designadamente, nas versões inglesa (“
acts expeditiously”), francesa (“
agisse promptement”) e alemã (“
wird [...] unverzüglich tâtíg”).
[77] Contudo, remete, nos considerandos 62 e 87, para o Código de Conduta para a luta contra os discursos ilegais de incitação ao ódio em linha, de maio de 2016, disponível em
https://commission.europa.eu/strategy-and-policy/policies/justice-and-fundamental-rights/combatting-discrimination/racism-and-xenophobia/eu-code-conduct-countering-illegal-hate-speech-online_en. Este código, no qual participam plataformas como o
Facebook, a
Microsoft, o
YouTube, o
Instagram, o
Snapchat e o
Dailymotion, obriga à remoção do discurso de ódio em menos de 24 horas. Outros tipos de conteúdos ilegais terão prazos de tratamento consideravelmente diferentes. Porém, é de notar que o prazo de 24 horas pode ser considerado extenso, dada a velocidade com que os conteúdos se disseminam
online, mas a imposição de um prazo mais reduzido poderia levar a uma remoção de conteúdos excessiva, através de uma intensificação da moderação de conteúdos automatizada (Ilaria Buri e Joris Van Hoboken, in
The Digital Services Act (DSA) proposal: a critical overview, Institute for Information Law (IViR), Faculty of Law University of Amsterdam, 28 out. 2021, disponível em
https://dsa-observatory.eu/wp-content/uploads/2021/11/Buri-Van-Hoboken-DSA-discussion-paper-Version-28_10_21.pdf, pp. 15-16).
[78] Vide Marta Pérez Escolar, “Razonabilidad y Contrato de servicios: Una aproximación a su utilidad como criterio de valoración del comportamiento contractual”, in
Anuario de Derecho Civil, Madrid, vol. 76, n.º 1, 2023, disponível em
https://doi.org/10.53054/adc.v76i1.9935, p. 157.
[79] Comissão Europeia,
Comunicação da Comissão ao Parlamento Europeu, ao Conselho, ao Comité Económico e Social e ao Comité das Regiões: Combater os conteúdos ilegais em linha.Rumo a uma responsabilidade reforçada das plataformas em linha, Bruxelas 28.9.2017, COM (2017) 555 final, 2017, disponível em
https://eur-lex.europa.eu/legal-content/PT/TXT/?uri=CELEX%3A52017DC0555, pp. 14-15. A plataforma poderá invocar circunstâncias concretas que tenham atrasado a decisão, mas não circunstâncias que digam respeito apenas à sua organização interna e não sejam razoáveis. Joana Campos Carvalho, in
Os contratos celebrados através de Plataformas Digitais, cit., p. 244, dá como exemplo o caso de a plataforma ter demorado dois dias a remover a informação por serem necessários pareceres de dois departamentos distintos.
[80] Vide Portugal, Ministério da Justiça, Gabinete de Política Legislativa e Planeamento,
Lei do Comércio Eletrónico: anotada…, cit., p. 72.
[81] Sofia de Vasconcelos Casimiro,
A Responsabilidade pelo Conteúdo…, cit., p. 128, entende que só desta forma é “possível encontrar um ponto de equilíbrio entre a liberdade de expressão e a responsabilidade pelos conteúdos e assim evitar situações de eventual abuso por parte de quem tenha interesse na remoção de conteúdos”. Todavia, é necessário que a dúvida sobre a ilicitude seja razoável, sob pena de se esvaziar o objetivo da norma (cfr. Joana Campos Carvalho,
Os contratos celebrados através de Plataformas Digitais, cit., p. 240). Atendendo a esta hipótese, Lidia Arnau Raventós, “Intermediarios en el Derecho europeo…”, cit., p. 243 (nota de rodapé 76), e Esther Arroyo Amayuelas, "La conclusió de contraters…”, cit. p. 19, concluem que o DSA dispõe de uma certa cautela favorecedora da aplicação da isenção de responsabilidade na descrição das circunstâncias do artigo 6.º, n.º 1, alíneas a) e b).
[82] Na expressão de Maria Raquel Guimarães,
As plataformas “colaborativas” enquanto “prestadoras de serviços da sociedade de informação”: reflexões à luz da Lei do comércio eletrónico e desenvolvimentos recentes, Economia Colaborativa, 2023, disponível em
https://doi.org/10.21814/uminho.ed.100.19,p. 487.
[83] Repare-se que tão-só na medida em que seja considerado aplicável o direito material português é que as considerações que se seguem deverão ser tidas como válidas.
[84] Para um desenvolvimento completo dos requisitos da responsabilidade por omissão, veja-se
António Menezes Cordeiro, Direito das Obrigações, vol. II, Lisboa, AAFDL Editora, 1994 (1.ª ed. 1980), pp. 347-348.
[85] É esse o entendimento sufragado por Pedro Romano Martinez, “Responsabilidade dos prestadores de serviços em rede”, in Portugal, Ministério da Justiça, Gabinete de Política Legislativa e Planeamento,
Lei do Comércio Eletrónico: anotada, aprovada pelo Decreto-Lei n.º 7/2004, de 7 de Janeiro, que transpõe para a ordem jurídica nacional a Directiva n.º 2000/31/CE, do Parlamento Europeu e do Conselho, de 8 de Junho de 2000, relativa a certos aspetos legais dos serviços da sociedade de informação, em especial do comércio electrónico, no mercado interno, Coimbra, Coimbra Editora, 2005, pp. 271-272.
[86] No mesmo sentido, João Fachana Cardoso Moreira da Costa, “Plataformas digitais e responsabilidade civil”, cit., p. 446.
[87] Vide os argumentos invocados por Pedro Pitta e Cunha Nunes de Carvalho, in
Omissão e Dever de Agir em Direito Civil: Contributo para uma Teoria Geral da Responsabilidade Civil por Omissão, Coimbra, Almedina, 1999
, pp. 144 e ss., para sustentar esta ideia.
[88] Portugal, Ministério da Justiça, Gabinete de Política Legislativa e Planeamento,
Lei do Comércio Eletrónico: anotada…, cit., p. 51. João Fachana Cardoso Moreira da Costa, “Plataformas digitais e responsabilidade civil”, cit., p. 447, explicita que as normas de isenção “não devem ser vistas como meros «filtros» à responsabilidade, mas sim verdadeiras normas que impõem deveres de conduta com relevância prática”.
[89] Cfr. Sofia de Vasconcelos Casimiro,
A Responsabilidade pelo Conteúdo…, cit. pp. 95-96. No entanto, se a conduta do fornecedor da plataforma gerar um novo dano, poder-se-á indagar se a própria omissão (que permitiu que o conteúdo continuasse disponível
online) não determina a responsabilidade por ato próprio e não uma hipótese de responsabilidade subsidiária.
[90] João Fachana Cardoso Moreira da Costa,
A responsabilidade civil pelos conteúdos ilícitos…, cit., p. 91.
[91] Por essa razão, João Fachana Cardoso Moreira da Costa, in
A responsabilidade civil pelos conteúdos ilícitos…, cit., pp. 139 e ss., pronuncia-se a favor da previsão de uma presunção de culpa dos intermediários.
[92] Note-se que, nestes casos, a regra da isenção de responsabilidade não será de aplicar, pois, este regime visa tão-só exonerar os prestadores de serviços de responsabilidade perante terceiros por conteúdos alheios, e não por eventuais quebras contratuais.
[93] Sem prejuízo de as plataformas revogarem as suas decisões caso, no seguimento da apresentação de reclamações suficientemente fundamentadas, se verifique que o conteúdo não é ilegal. O artigo 20.º, n.º 4, proporciona, neste sentido, um elemento de equilíbrio ao mecanismo de notificação e ação(cfr. Aleksandra Kuczerawy, “Remedying Overremoval”, in Joris Van Hoboken [et al.],
Putting the DSA into Practice – Enforcement, Access to Justice and Global Implications, Berlim, Verfassungsbooks, 2023, p. 173, disponível em
https://ssrn.com/abstract=4384266).
[94] Esta responsabilidade também poderá advir da violação de regras impostas pela boa-fé (
vide Mafalda Miranda Barbosa, “Responsabilidade contratual e extracontratual…”, cit., pp. 1163-1164).
[96] Ressalvados os casos em que a plataforma tenha expressamente assumido nos termos do contrato uma obrigação de vigilância sobre os conteúdos transmitidos, bem como os casos em que a ilicitude do conteúdo seja patente e ostensiva, de modo que a sua não remoção viole os deveres impostos pela boa-fé que regem o programa contratual, a plataforma não poderá ser contratualmente responsabilizada (cfr. Mafalda Miranda Barbosa, “Responsabilidade contratual e extracontratual…”, cit., pp. 1164-1165). Também a emergência de um dever de proteção – ligado ao contrato de prestação de serviços firmado entre a plataforma em linha e o utilizador (lesado) –, no sentido de a primeira proteger o segundo quanto a conteúdos ilícitos colocados por outros utilizadores, não se justificará, uma vez que a plataforma não pode razoavelmente prever ou evitar que um utilizador publique um conteúdo ilícito que provoque danos a outro utilizador (João Fachana Cardoso Moreira da Costa,
A responsabilidade civil pelos conteúdos ilícitos…, cit., pp. 108 e ss.).
[97] Podem ainda colocar-se situações de responsabilidade civil por violação de direitos de autor, direitos de propriedade industrial, por concorrência desleal,
etc. Por essa razão, a responsabilidade só poderá ser aferida à luz do caso concreto, pois dependerá do tipo de conteúdo ilícito que o utilizador tenha incluído na sua publicação.
[98] João Fachana Cardoso Moreira da Costa,
A responsabilidade civil pelos conteúdos ilícitos…, cit., p. 94. A favor de uma espécie de "responsabilidade cooperativa", de modo a que cada um assuma as suas obrigações,
vide Paulo Ferreira e Luís António Santos, “O Olhar Opaco do Regulamento dos Serviços Digitais sobre os Algoritmos”, in
Políticas da Comunicação: Hibridismos e Opacidades, junho de 2024, disponível em
https://ebooks.uminho.pt/index.php/uminho/catalog/view/103/206/3367, p. 47. Os Autores entendem que se parte do problema poderá estar nos utilizadores – visto que são estes que decidem o tipo de conteúdos que submetem e partilham nas plataformas e a que tipo de conteúdos decidem expor-se com mais frequência –, parte da solução também deve estar.
[99] Somente neste caso é que a não intervenção da plataforma parece significar que aquela prefigurou o resultado final e houve, da sua parte, uma adesão de vontade, verificando-se uma unidade de propósito no ato ilícito.
[100] Vide, a propósito, o acórdão do STJ, de 10 de dezembro de 2020 (Relator Ferreira Lopes), proc. n.º 44/18.6YHLSB.L1.S2, disponível em
www.dgsi.pt, e, mais recentemente, o acórdão do TRL, de 13 de julho de 2023 (Relator Luís Filipe Pires de Sousa), proc. n.º 12234/21.0T8LSB.L1-7, disponível em
www.dgsi.pt.
[101] Note-se que nas hipóteses em que as plataformas em linha são também fornecedoras dos conteúdos, a sua responsabilidade analisa-se paralelamente com a de qualquer outro sujeito, mas enxerta-se num tema distinto daquele que tratamos – o da definição das situações de ilicitude face aos conteúdos trazidos pelos utilizadores.
[102] Diferentemente, o considerando 42 da DCE referia-se apenas aos serviços de
mere conduit e de
caching, pelo que parte considerável da doutrina entendia que o critério da neutralidade não se deveria aplicar aos serviços de
hosting [cfr. Raquel Costa Babo, “A intermediação das plataformas eletrónicas nos contratos celebrados com consumidores”, in Maria Raquel Guimarães/Rute Teixeira Pedro/Maria Regina Redinha (coordenação),
Direito Digital, CIJE/FDUP, Porto, 2021, disponível em
https://cij.up.pt/client/files/0000000001/direitodigital-ebook-5_1771.pdf, pp. 318-319; e Esther Arroyo Amayuelas, “La responsabilidad de los intermediarios en internet ¿ puertos seguros a prueba de futuro?” in
Cuadernos de Derecho Transnacional, vol. 12, n.º 1, 2020, disponível em
https://doi.org/10.20318/cdt.2020.5225, pp. 814-815].
[103] Luís Manuel Teles de Menezes Leitão,
“O novo Regulamento Europeu…”, cit., p. 1455.
[104] O exemplo é de Mafalda Miranda Barbosa, “Armazenagem temporária…”, cit., p. 521. E demonstra que “em determinada plataforma, pode haver conteúdos em que a atividade é considerada neutra e outros, que correspondem aos que são colocados em destaque, quanto aos quais se considera que não existe neutralidade” (Joana Campos Carvalho,
Os contratos celebrados através de Plataformas Digitais, cit., p. 227).
[105] Se auxilia na redação do conteúdo, dá ao seu fornecedor sugestões de melhoria ou se utiliza a informação nele incluída para criar um conteúdo diferente, deve considerar-se que interfere ativamente no conteúdo (cfr. Joana Campos Carvalho,
Os contratos celebrados através de Plataformas Digitais, cit., pp. 226-227). Bram Duivenvoorde, in “The Liability of Online Marketplaces…”, cit., p. 51 (nota de rodapé 89), acrescenta que o artigo 6.º, n.º 3, não parece ser aplicável quando o
marketplace tem apenas um importante papel na execução do contrato (e.g., se diligencia pelo depósito das encomendas dos produtos num armazém próprio ou é responsável pela sua entrega), mas, tal circunstância pode significar que a plataforma desenvolve um papel ativo.
[106] Como explicita Joana Campos Carvalho, in
Os contratos celebrados através de Plataformas Digitais, cit., p. 221, “quanto maior a qualidade e quanto mais confiável e apelativo o conteúdo disponibilizado pelos utilizadores melhor a reputação da plataforma e, consequentemente, maior o número de utilizadores”.
[108] Folkert Wilman, “Between Preservation and Clarification: The Evolution of the DSA’s Liability Rules in Light of the CJEU’s Case Law”, in Joris Van Hoboken [et al.],
Putting the DSA into Practice – Enforcement, Access to Justice and Global Implications, Berlim, Verfassungsbooks, 2023, disponível em
https://ssrn.com/abstract=4384266, pp. 40-41.
[109] Adotam esta posição Jennifer Cobbe e Jatinder Singh, in “Regulating Recommending: Motivations, Considerations, and Principles”, in
European Journal of Law and Technology, 10(3), 15 de abril 2019, disponível em
https://ssrn.com/abstract=3371830, p. 31.
[110] Veja-se, a propósito, João Fachana Cardoso Moreira da Costa,
A responsabilidade civil pelos conteúdos ilícitos…, cit., pp. 118-119; e a decisão do Supremo Tribunal Austríaco (Oberster Gerichtshof), de 17 de setembro de 2021, proc. 500/19,
Puls 4 TV GmbH & Co. KG v.
YouTube LLC and
Google Austria GmbH), cuja questão central foi a de saber se uma plataforma em linha, como o
YouTube, perde o benefício da isenção quando sugere vídeos, facilita pesquisas, presta assistência aos utilizadores e exibe anúncios ou publicidade personalizada.
[111] Joana Campos Carvalho,
Os contratos celebrados através de Plataformas Digitais, cit., p. 231. A Autora dá como exemplo os casos em que a
Amazonpromove determinado anúncio como sendo uma “
Amazon’s choice”. Pois, ser a escolha da
Amazon significa que a mesma conhece o que está a promover, logo, o seu papel não é neutral. Esta neutralidade já não se perde quando o
OLX destaca um anúncio em troca de determinado montante, visto que esta promoção é meramente automática e não resulta de um juízo de valor sobre o conteúdo.
[112] É esta a posição que o legislador europeu parece ter adotado no considerando 22 do DSA.
[113] Esther Arroyo Amayuelas, “La responsabilidad de los intermediarios en internet…”, cit., p. 817, defende que seriam mais apropriados conceitos como “grau de controlo” ou “desempenho de funções editoriais”.
[114] Esta é também a posição assumida por Joris Van Hoboken, João Pedro Quintais, Joost Poort e Nico Van Eijk, in “Hosting intermediary services and illegal content online – An analysis of the scope of article 14 ECD in light of developments in the online service landscape”,
Study for the Comission, Luxemburgo, 2018, disponível em
https://data.europa.eu/doi/10.2759/284542, pp. 32-33, e Giancarlo Frosio, in “From the E-Commerce Directive to the Digital Services Act”, in Christian Twigg-Flesner e Lorna Woods,
Digital Services Act Commentary (Edward Elgar, forthcoming 2025), 3 de agosto de 2024, disponível em
https://ssrn.com/abstract=4914816, p. 11.
[115] Cfr. Jennifer Cobbe e Jatinder Singh, “Regulating Recommending…”, cit., pp. 4 e ss. Repare-se, a título de exemplo, na hipótese de, através de ferramentas de avaliação pelos consumidores disponibilizadas nas plataformas de
marketplace (sem um controlo substancial), qualquer pessoa – tendo ou não adquirido o produto ou serviço – poder publicar anonimamente uma avaliação ou comentário e, com isso, aumentar exponencialmente o risco de serem publicados em massa comentários negativos e insultuosos, motivados por razões alheias à qualidade do produto ou serviço, com o único objetivo de denegrir o comerciante e afetar a sua reputação (cfr. Gonçalo Afonso, “Primeiras Notas sobre a Coordenação dos Serviços Digitais no Regulamento dos Serviços Digitais; em especial, o caso português”, in
E-Publica Public Law Journal, vol. 11, n.º 3, 3 de dezembro de 2021, disponível em
https://doi.org/10.47345/v11n3art5, p. 92).
Vide, a este propósito, a decisão do Tribunal Europeu dos Direitos Humanos,
Delfi AS v.
Estonia, de 16 de junho de 2015, proc. 64569/09, disponível em
https://hudoc.echr.coe.int/eng?i=001-155105.
[116] O próprio modelo de negócios das plataformas exigiu o desenvolvimento de funções de moderação, a fim de assegurar que os utilizadores desejem permanecer conectados.
Vide Domingos Soares Farinho, “Os direitos humanos no Regulamento Serviços Digitais (Digital Services Act) da União Europeia”, in Maria Luísa Duarte, Ana Rita Gil e Tiago Fidalgo de Freitas,
Direitos humanos e Estado de direito: proteção no quadro europeu e internacional, 1.ª ed., Lisboa, AAFDL Editora, 2022, p. 282.
[117] Aliás, atribuem geralmente aos utilizadores a responsabilidade de garantir a conformidade dos conteúdos que carregam com os termos e condições da plataforma. Veja-se Alexandre de Streel e Michèle Ledger, “Regulating the moderation of illegal online content”, in Maja Capello,
Unravelling the Digital Services Act package, Iris Special European Audiovisual Observatory, Strasbourg, 2021, p. 31.
[118] Neste domínio, é aplicável o regime específico de responsabilidade do artigo 17.º, n.º 4 da Diretiva (UE) 2019/790 (veja-se Alberto Ribeiro de Almeida, “A propriedade intelectual…”, cit., pp. 572-573, e Alexandre Libório Dias Pereira, “Filtros de conteúdos digitais para infrações «óbvias» aos direitos autorais?”, in
Revista da Faculdade de Direito da Universidade de Lisboa, Ano LXIV, N.º 1 T. 1, 2023, pp. 48 e ss.).
[119] Jorge Morais Carvalho, Francisco Arga e Lima e Martim Farinha, “Introduction to the Digital Services Act…”, cit., p. 92.
[120] Estas são condições deliberadamente abertas, que seriam difíceis de evitar atendendo à diversidade de situações em que o artigo 7.º pode ser aplicado, e que não impõem que as medidas adotadas tenham que ser bem-sucedidas, pois, no que respeita à remoção de conteúdos ilegais, exigir uma eficácia total seria irrealista (Folkert Wilman, “Between Preservation and Clarification…”, cit., pp. 45-46).
[121] Domingos Soares Farinho, in “O Regulamento dos Serviços Digitais da União Europeia (EU Digital Services Act): Uma visão a partir do Direito Administrativo Regulatório”, in
Revista de Direito Administrativo, n.º 18 (setembro-dezembro 2023), p. 32, evidencia que o artigo 7.º pode ser lido como “traçando uma linha clara entre a mera existência,
a priori de qualquer utilização, de mecanismos de moderação de conteúdos e o que pode ser encontrado por tais mecanismos quando utilizados em concreto”. Sophie Stalla-Bourdillon, “Internet intermediaries as responsible actors? Why it is time to rethink the e-Commerce Directive as well…”, in Luciano Floridi e Mariarosaria Taddeo,
The Responsibilities of Online Service Providers, Springer, julho de 2016, disponível em
https://ssrn.com/abstract=2808031, p. 17, considera que não é necessária uma isenção do bom samaritano, mas uma isenção para a recusa de boa fé de remoção dos conteúdos, em virtude da subjetividade inerente à determinação da sua ilegalidade.
[122] Cfr. Martim Farinha e Jorge Morais Carvalho, “Direito do consumo e tecnologia”, in Rui Paulo Coutinho de Mascarenhas Ataíde, Francisco Rodrigues Rocha e Vítor Palmela Fidalgo,
Estudos de direito do consumo, vol. III, Coimbra, Almedina, 2023, p. 901.
[123] Este tipo de erro relaciona-se, sobretudo, com conteúdos publicados por órgãos de comunicação social, de tal modo que foi recentemente aprovado o Regulamento (UE) 2024/1083 do Parlamento Europeu e do Conselho de 11 de abril de 2024, que cria um regime comum para os serviços de comunicação social no mercado interno e que altera a Diretiva 2010/13/EU (Regulamento Europeu relativo à Liberdade dos Meios de Comunicação Social), que almeja minorar a discricionariedade na remoção ou moderação de conteúdos jornalísticos
online.
[124] A existir responsabilidade, a mesma nem sempre será fruto da inobservância do dever de retirada diligente de conteúdos ilícitos, visto que a plataforma poderá não ter conhecimento do conteúdo ilícito ou estar em causa um conteúdo apenas potencialmente nocivo.
[126] Cfr. artigos 14.º, n.º 1, 15.º, 20.º, 21.º, 34.º, 35.º e 42.º, e considerandos 26 e 58.
[127] Como adverte Joan Barata, a avaliação das plataformas em linha nunca poderá passar pelo número de conteúdos ilegais removidos, sob pena de se criar um forte incentivo à supressão injustificada de conteúdos.
Vide, do Autor, “The Digital Services Act and its impact on the right to freedom of expression…”, cit., p. 24. Neste sentido, também Alexandre de Streel e Michèle Ledger, “Regulating the moderation…”, cit., p. 36.
[128] Requer-se, no fundo, encontrar um delicado equilíbrio entre, por um lado, o direito à reserva da intimidade da vida privada e familiar e o direito à proteção de dados pessoais dos indivíduos afetados pela informação específica, e, por outro lado, o direito fundamental à liberdade de expressão daqueles que partilharam o conteúdo, a liberdade dos cidadãos da UE de acesso à informação e a liberdade do prestador de gerir o seu negócio (Krzysztof Pacula, “Inquiry into de validity of the Digital Services Act and the role of the representative associations under that regulation, Comments on the first decisions of the EU courts casting light on the DSA”, in
ERA Forum, vol. 25, 2024, disponível em
https://doi.org/10.1007/s12027-024-00799-4, p. 265).
[129] Esta abordagem assimétrica e discriminatória, ao abrigo do princípio da igualdade, determina que os prestadores de serviços intermediários que possam ser qualificados como micro ou pequenas empresas ficam excecionados de certas obrigações de devida diligência (cfr. artigos 19.º e 29.º do DSA).
Vide Alberto Ribeiro de Almeida, “A propriedade intelectual…”, cit., pp. 581-582 (nota de rodapé 30).
[130] Nos termos do artigo 33.º, n.º 4 do DSA, serão designadas de plataformas em linha de muito grande dimensão, as plataformas com um número médio mensal de destinatários igual ou superior ao limiar operacional fixado em 10% da população da União, atualmente estimado em 45 milhões (cfr. n.º 1 do artigo supracitado).
[131] Luís Manuel Teles de Menezes Leitão,
Digital Services Act…, cit., pp. 33-34.
[132] Miriam C. Buiten, “The Digital Services Act…”, cit., p. 370.
[133] Para um entendimento assumidamente mais abrangente das vantagens desta proposta, veja-se Miriam C. Buiten, “The Digital Services Act…”, cit., pp. 378-380.
[134] Cfr. Comissão Europeia, Impact Assessment Report, Accompanying the Document Proposal for a Regulation of the European Parliament and of the Council on a Single Market For Digital Services (Digital Services Act) and amending Directive 2000/31/EC, COM (2020) 825 final, Part 2, Bruxelas, 2020, disponível em
https://eur-lex.europa.eu/resource.html?uri=cellar:5ebd61c9-3f82-11eb-b27b-01aa75ed71a1.0001.02/DOC_2&format=PDF, pp. 165-166.Martin Husovec e Irene Roche Laguna, in “Digital Services Act…”, cit., p. 1. entendem que este é o maior contributo regulatório do
Digital Services Act.
[135] A determinar segundo as regras de conflitos de leis comuns. Em especial, as que avultam do artigo 4.º, n.º 1, alínea b) do Regulamento (CE) n.º 593/2008 do Parlamento Europeu e do Conselho, de 17 de junho de 2008, sobre a lei aplicável às obrigações contratuais (Roma I) e do artigo 4.º, n.º 1 do Regulamento (CE) n.º 864/2007 do Parlamento Europeu e do Conselho, de 11 de julho de 2007, relativo à lei aplicável às obrigações extracontratuais (Roma II).
[136] Vide Luís Manuel Teles de Menezes Leitão,
Digital Services Act…, cit., pp. 33-34.
[137] Sem prejuízo de os utilizadores envolvidos nesses comportamentos serem responsabilizados, quer contratualmente, perante os fornecedores das plataformas, quer extracontratualmente, perante as pessoas visadas pelos conteúdos ilegais (cfr. considerando 64). A norma do n.º 1 do artigo 23.º tem uma relação mais densa com a responsabilidade delitual, embora não se afaste a hipótese de a apresentação de notificações ou reclamações manifestamente infundadas contra um terceiro utilizador (nos termos do n.º 2 do artigo 23.º) pôr em causa, designadamente, a sua honra.
[138] Em contrapartida, o cumprimento dessas obrigações poderá resultar em decisões, frequentemente automatizadas, de bloqueio de conteúdos que não implicam a prática de qualquer ato ilícito. Daí que o DSA, em salvaguarda da liberdade de expressão, exija a fundamentação das decisões de moderação de conteúdos, a previsão de um sistema interno eficaz de tratamento de reclamações e a adoção de medidas de proteção contra comportamentos abusivos, como seja a apresentação reiterada de notificações ou reclamações infundadas (cfr. artigos 17.º, 20.º e 23.º)
. Mafalda Miranda Barbosa, “Responsabilidade contratual e extracontratual…”, cit., pp. 1172-1173.
[139] Mafalda Miranda Barbosa, “Responsabilidade Civil das Plataformas Digitais”, in
Revista de Direito da Responsabilidade, Ano 4, 13 de setembro 2022, p. 810.
[140] Mafalda Miranda Barbosa, “Responsabilidade Civil das Plataformas Digitais”, cit., p. 810.
[141] Esta não é, contudo, uma qualificação pacífica. Nuno Sousa e Silva, in “Novas regras para a internet…”, cit., p. 97, é da opinião que, tendencialmente, a responsabilidade delitual não terá lugar visto que, à exceção do artigo 30.º, “a maior parte destes deveres não se configurarão como normas de proteção dos eventuais lesados”.
[142] Mafalda Miranda Barbosa, “Responsabilidade contratual e extracontratual…”, cit., p. 1172.
[143] No fundo, algo tem de ficar igual para que a mudança possa ocorrer – numa leitura
a contrario sensu da célebre frase do romance “Il Gattopardo”, de Giuseppe Tomasi di Lampedusa, “
Se vogliamo che tutto rimanga come è, bisogna che tutto cambi” (Se queremos que tudo continue como está, é preciso que tudo mude).