Civil Liability; Artificial Intelligence; Resolution of the European Parliament, from October 20th 2020; Proposal for an AI Liability Directive; Requisites of Non-Contractual Civil Liability; Socialization of Risk.
This study comprises of an analysis of Resolution of the European Parliament, from October 20th 2020, and the Proposal for a Directive of the European Parliament and of the Council on adapting non-contractual civil liability rules to artificial intelligence (AI Liability Directive). Both represente the effort initiated by the european legislator to adapt the requisites and the probative burden tipically associated with non-contractual civil liability actions to the new reality of artificial intelligence. However, the documents don´t adopt similar solutions: if the Resolution is loosely a regime of objective liability, supported by a system of “risk socialization” founded on the celebration of insurances and on the existence of a guarantee fund, the Proposal for a Directive rests essentially on the common subjective liability framework, making only small changes in the domain of proof. Throughout the paper, the texts are compared with the support of the most modern portuguese doctrine (as well as some foreign literature). In the conclusion, the positions of diferente authors are presented and the one that holds that the orientation of the Resolution would be the most adequate and fair is defended.
1. Introdução
O presente estudo debruça-se sobre dois textos comunitários. O problema geral da conexão entre inteligência artificial
[1] e responsabilidade civil será analisado, pois, sob o prisma destes documentos
[2], que emergiram do processo regulatório encetado pelo legislador da União e de que a recém aprovada proposta de Regulamento sobre Inteligência Artificial é um marco especialmente relevante. Não se tratam outras questões, relativas a problemas éticos ou de propriedade intelectual.
Tão-pouco se abordarão as recentes alterações ao regime da responsabilidade do produtor
[3], apesar de estas apresentarem uma particular afinidade com a matéria estudada, atendendo ao processo legislativo que lhes subjazeu. Com efeito, a ideia de reformar a Directiva 85/374, por forma a que aquela abarcasse também os sistemas de IA, antecedeu no tempo a apresentação da proposta de Regulamento IA. O objectivo de reformar a Directiva veio a resultar na proposta de revisão
[4] apresentada em Setembro de 2022 (aprovada pelo Parlamento Europeu no passado dia 12 de Março) e que coincidiu com a apresentação da proposta de Directiva Responsabilidade Civil em matéria de IA. Tanto um como outro documentos surpreenderam os estudiosos e propiciariam interessante objecto de análise. Infelizmente, o tempo é escasso e a energia do autor limitada. Não querendo colocar-me fora do alcance sonoro do imperativo de Rilke
[5], espero que os leitores mais críticos tenham indulgência relativamente à opção tomada.
As opiniões emitidas ficam circunscritas nos termos acima descritos. As normas referidas na secção 2 sem indicação da fonte legal provêm da Resolução; as mencionadas na secção 3, da Directiva. No mais, usaram-se as abreviaturas habituais.
2. A Resolução do Parlamento Europeu, de 20/10/2020[6]
2.1. Âmbitos Subjectivo e Objectivo
Na Resolução, o operador é o maior visado: em concretização do Considerando 8 (“… quem cria, mantém ou controla o sistema de IA, ou nele interfere, deverá ser responsável pelos danos ou prejuízos causados…”), dirigem-se-lhe a maioria das normas responsabilizantes, máxime os artigos. 4.º e 8.º. A categoria do operador é dividida em duas espécies, operador de
frontend[7]e operador de
backend[8]. Ambas assentam na ideia de controlo sobre o risco relacionado com o funcionamento do sistema, o que evoca os deveres no tráfego ou de prevenção do perigo
[9].
O produtor
[10] também é visado, embora lhe caiba apenas um dever de cooperação e de fornecimento de informações para com o operador ou o lesado (artigo 8.º, n.º 4).
Quanto à pessoa lesada
[11], a única norma que lhe é dirigida é a que se reporta à sua conduta culposa (artigo 10.º)
[12]. Esta permite reduzir ou até excluir a responsabilidade do operador.
Já o utilizador do sistema de IA está praticamente ausente da Resolução, figurando apenas no Considerando 11, que estabelece que, se ele estiver envolvido no evento danoso, só responderá se, além de utilizador, for igualmente operador.
O artigo 2.º delimita o campo de aplicação objectivo. Neste ponto, é especialmente relevante o n.º 1
[13], que elenca (de forma aparentemente taxativa, até porque o artigo 5.º tem por referência estes bens jurídicos) a vida, a saúde, a integridade física e o património como os bens jurídicos cuja afectação justifica a responsabilização do operador, bem como as situações em que haja “danos não patrimoniais significativos que resultem numa perda económica verificável”
[14]. A solução é similar à do BGB
[15], e esclarece igualmente que o tipo de responsabilidade relevante para efeitos deste diploma é a extracontratual.
A estatuição do n.º 2 também é importante, já que comina com nulidade
[16] todo o acordo entre operador do sistema e pessoa lesada que “contorne ou limite os direitos e obrigações estabelecidos no presente regulamento”
[17].
Finalmente, o n.º 3 ressalva que outras acções de responsabilidade (decorrentes de relações contratuais ou de outra regulamentação) não ficam prejudicadas pelo diploma.
2.2. Sistemas de Alto Risco[18]
O documento dedica capítulos (e soluções) diferentes a sistemas de IA de alto risco e a outros sistemas de IA
[19]. Para os primeiros, consagra uma responsabilidade objectiva (artigo 4.º, n.º 1) da qual os operadores só se podem eximir mediante prova de motivo de força maior (artigo 4.º, n.º 3). Estabelece-se, ainda, a obrigatoriedade
[20] de cobertura por seguro de responsabilidade civil de todas as operações do sistema de IA e de todos os serviços prestados (artigo 4.º, n.º 4), de forma adequada aos limites indemnizatórios previstos no artigo 5.º.
Esses montantes são elevados: dois milhões de euros, em caso de morte ou de danos à saúde ou integridade física; um milhão de euros, nas hipóteses de danos ao património e de danos não patrimoniais de que resulte perda económica verificável
[21]. Estes limites aplicam-se mesmo que haja múltiplos lesados e, se ultrapassados, os valores devidos a cada um (dos lesados) são reduzidos proporcionalmente (artigo 5.º, n.º 2). Contudo, se o montante dos danos for inferior a 500 euros não há lugar a indemnização.
Sendo possível que o justo montante indemnizatório ultrapasse significativamente estes limites (tratar-se-ão de casos excepcionais em que haja, por exemplo, danos colectivos), o Considerando 22 incentiva os Estados-Membros a criar um fundo especial para colmatar esses casos. Propõe-se também a criação de fundos de compensação para as hipóteses em que um sistema de IA ainda não classificado como sendo de alto risco e, portanto, ainda não segurado, provoque danos.
O artigo 6.º (epigrafado “Cálculo da indemnização”) deixa algumas dúvidas. Não só se aproxima de uma norma típica de acidentes de trabalho
[22] como não contém, na verdade, qualquer indicação acerca de como se deve calcular o montante indemnizatório
[23]. A nosso ver, a norma fixa certas prestações que devem absolutamente ser prestadas, cabendo o método do referido cálculo às legislações nacionais.
De todo o modo, somada à obrigatoriedade de seguro e à consagração de uma responsabilidade objectiva, esta norma revela os vectores principais da Resolução: o primado da reparação do lesado e a socialização do risco inerente aos sistemas de alto risco
[24].
Por último, estabelecem-se prazos de prescrição alargados: para acções relativas a danos à vida, saúde ou integridade física, 30 anos; para as demais, 10 anos desde a data em que ocorreram os danos ou 30 anos desde a data em que teve lugar a operação do sistema de IA que mais tarde os causou, aplicando-se o prazo que terminar primeiro (artigo 7.º).
2.3. Outros Sistemas de IA
Para os outros sistemas de IA, a Resolução prevê uma responsabilidade dependente de culpa, que se presume de forme ilidível (artigo 8.º, n.º 1 e 2). As formas de ilidir
[25] a presunção reportam-se de novo à ideia de prevenção de perigo, pois remetem para a tomada das medidas razoáveis e necessárias e para a observação da devida diligência pelo operador. Exclui-se a responsabilidade em caso de força maior, mas não se a lesão tiver sido causada por uma actividade, dispositivo ou processo autónomos baseados no sistema de IA. Pode, como tal, falar-se numa “responsabilidade subjectiva agravada”
[26].
O artigo 8.º, n.º 3, fugindo à regra, estabelece uma responsabilidade objectiva por factos alheios
[27], impondo ao operador um dever de indemnizar mesmo que tenha sido um terceiro a interferir no sistema, caso este não seja localizável ou não possua recursos financeiros; mais uma vez, o risco associado aos sistemas de IA é tido como suficiente para justificar indemnizações em situações em que, à partida, ela não seria devida, recaindo sobre o operador os encargos associados a esse risco
[28].
O prazo de prescrição e o cálculo e limites da indemnização devem ser fixados pela legislação nacional (art. 9.º).
2.4. Imputação de Responsabilidades
O Capítulo IV contempla disposições comuns. O artigo 10.º, como se referiu, prevê a culpa do lesado como causa de redução ou exclusão da responsabilidade do operador.
O artigo 11.º, por seu turno, estabelece a responsabilidade solidária entre operadores, caso haja mais do que um, gozando o operador que cumprir totalmente de direito de regresso sobre os demais (artigo 12.º, n.º 2); a acção de regresso, porém, só pode ser intentada após o lesado ter recebido na íntegra a indemnização, o que novamente demonstra a importância atribuída ao ressarcimento do lesado. Nas relações internas, as proporções de responsabilidade não se baseiam na culpa de cada um (como sucede, por exemplo, ao abrigo do artigo 497.º, n.º 2 do CC), mas nos respectivos níveis de controlo sobre o risco.
Os n.
os 3 e 4 do artigo 12.º consagram alguns direitos em benefício de quem pagar a indemnização. Caso esta seja satisfeita pelo operador, ele pode intentar acção contra o produtor do sistema defeituoso, nos termos da Directiva 85/374/CEE e da legislação nacional relevante. Caso seja a seguradora a cumprir, fica sub-rogada em qualquer acção de responsabilidade civil do lesado contra outrem pelos mesmos danos, até ao montante em que tiver indemnizado o lesado. Fixa-se ainda a primazia da Resolução sobre a Directiva relativa à responsabilidade decorrente dos produtos.
3. A Proposta de Directiva Responsabilidade Civil em Matéria de IA, da Comissão e do Parlamento
3.1. Âmbitos Subjectivo e Objectivo
A proposta de Directiva substitui a figura do operador pela do fornecedor (artigo 2.º, n.º 3). Este é definido no artigo 3.º, n.º 2 do Regulamento IA
[29] (para o qual a proposta de Directiva remete), em termos que se afastam da ideia de controlo do perigo
[30] e se aproximam de uma definição mais económica, já que o que distingue o fornecedor é a colocação do sistema no mercado ou em serviço sob nome ou marca próprios. Outra mudança é o protagonismo acrescido do utilizador, também definido por remissão para o Regulamento IA (artigo 2.º, n.º 4)
[31]. Com efeito, tanto o artigo 3.º como o artigo 4.º se lhe dirigem especificamente. Apagou-se, ainda, o lesado como categoria autónoma, passando a estar englobado na categoria geral de demandante
[32].
Do ponto de vista subjectivo, é também de ressalvar que as remissões para o Regulamento IA obrigam a harmonizar os âmbitos dos dois documentos. O Regulamento IA aplica-se a fornecedores que coloquem no mercado ou em serviço sistemas de IA no território da União, independentemente de estarem fisicamente presentes ou estabelecidos na União ou num país terceiro; a utilizadores de sistemas de IA que estejam fisicamente presentes ou estabelecidos na União; a fornecedores e utilizadores de sistemas de IA que estejam fisicamente presentes ou estabelecidos num país terceiro, se o resultado produzido pelo sistema for utilizado na União; a importadores e distribuidores de sistemas de IA; a fabricantes de produtos que coloquem no mercado ou coloquem em serviço um sistema de IA juntamente com o seu produto e sob o seu próprio nome ou marca; a mandatários dos prestadores, que estejam estabelecidos na União.
Quanto ao âmbito objectivo, cai, na proposta, não só a enumeração dos danos relevantes
[33] como, de modo geral, a ambição de estabelecer um regime completo de responsabilidade civil. De facto, resulta do artigo 1.º, n.º 1 que os únicos pontos que se pretende regular são a divulgação de elementos de prova e o ónus da prova. Além disso, fica claro no artigo 1.º, n.º 2 que o escopo da proposta de Directiva são acções de responsabilidade civil extracontratual e culposa. Fica, assim, excluída a regulação de uma responsabilidade objectiva ao nível da União. Por detrás destas alterações está um princípio de intervenção mínima, como se refere nos Considerandos 10 e 14.
Evidentemente, permite-se aos Estados-Membros adoptar regras mais favoráveis para os demandantes (artigo 1.º, n.º 4). Todavia, não é claro se esta estipulação visa firmar um âmbito de protecção mínimo, que corresponderia ao conteúdo da proposta de Directiva, podendo os tribunais nacionais aplicar o direito interno se ele fosse mais favorável para o lesado, ou se nos casos abrangidos pelo âmbito da proposta é obrigatória a sua aplicação
[34].
Merecem menção mais dois pontos. Primeiro, que este regime não prejudica a aplicação da responsabilidade do produtor ou dos prestadores intermediários de serviços (artigo 1.º, n.º 3)
[35]. Segundo, que o Regulamento IA não é aplicável aos utilizadores que sejam pessoas singulares e utilizem o sistema no âmbito de uma actividade pessoal e não profissional, com excepção do disposto no artigo 52.º do Regulamento.
3.2. Divulgação de Elementos de Prova
O artigo 3.º encarrega os Estados-Membros de assegurar que os tribunais nacionais estão habilitados a ordenar ao fornecedor ou utilizador a divulgação de elementos de prova
[36], sob pena de se presumir
[37] (de forma ilidível: artigo 3.º, n.º 5) que o demandado não cumpriu um dever de vigilância
[38] pertinente e que os elementos de prova solicitados se destinavam a provar. Esta possibilidade conhece, contudo, restrições (excessivas). Por um lado, só é admitida se o potencial demandante já tiver feito o pedido de divulgação de forma extrajudicial, e ele tiver sido recusado, e tiver feito todas as tentativas proporcionadas para recolher os elementos em causa; este tem ainda de apresentar factos e elementos de prova suficientes para fundamentar a plausibilidade da acção de indemnização (artigo 3.º, n.º 1 e 2). Por outro, a norma salvaguarda outros interesses legítimos (como segredos comerciais e informações confidenciais), que podem limitar a divulgação (artigo 3.º, n.º 4). Já as outras “limitações” deste n.º 4, como a circunscrição da divulgação ao que for considerado necessário e proporcionado para fundamentar uma potencial acção e a necessidade de assegurar que a pessoa a quem a ordem de divulgação se dirige tem as vias de recurso adequadas, parecem razoáveis.
3.3. Ónus da Prova do Nexo de Causalidade
O artigo 4.º, que consagra uma presunção
[39] ilidível de nexo de causalidade, retoma a dicotomia entre sistemas de IA de alto risco e outros sistemas de IA. O preceito começa, no n.º 1, por estabelecer as três condições cuja verificação é necessária para que a presunção opere. Primeiro, tem de haver culpa do demandado (que pode ser provada ou presumida, ao abrigo do artigo 3.º, n.º 5) ou de “pessoa por cujo comportamento o demandado é responsável”
[40]. O juízo acerca da culpa está restringido, pela parte final da alínea, ao incumprimento de deveres de diligência (os do artigo 3.º, n.º 9) que se destinem directamente a proteger contra o dano ocorrido; parece, portanto, que considerações típicas de ilicitude contaminam a aferição da culpa. Em segundo lugar, tem de ser razoavelmente provável, com base nas circunstâncias do caso, que o facto culposo tenha influenciado o resultado. É uma condição algo esdrúxula quando comparada com as soluções adoptadas noutras áreas jurídicas em que a dificuldade de provar o nexo causal conduziu a inversões probatórias No direito ambiental, por exemplo, tem-se recorrido a uma de duas alternativas: a consagração de presunções de causalidade ou a afirmação da suficiência de um nexo probabilístico
[41]. O que não é, de todo, comum (e é o que se verifica aqui) é a probabilidade de haver nexo causal ser um pressuposto da efectividade da presunção de causalidade. Deste modo, a redacção não merece a nossa aprovação. Em terceiro lugar, o demandante tem de demonstrar que o resultado produzido pelo sistema de IA (ou a incapacidade do sistema de produzir certo resultado) deu origem ao dano
[42].
A partir destas condições gerais, a norma desenvolve algumas exigências adicionais. No n.º 2, dirigido a fornecedores de sistemas de risco elevado sujeitos aos requisitos estabelecidos no título III, capítulos 2 e 3, do Regulamento IA
[43] e a qualquer pessoa que tenha as obrigações dedicadas neste Regulamento ao fornecedor
[44], dispõe-se que a culpa do demandado só fica provada se se demonstrar que este não incumpriu as alíneas do n.º 2
[45]. Estas reportam-se a exigências de transparência e de qualidade na utilização de dados, à possibilidade de supervisão humana e de exactidão, solidez e cibersegurança e à necessidade de tomar imediatamente as medidas correctivas necessárias a rectificar o sistema ou retirá-lo do mercado. Por conseguinte, inverte-se o paradigma da Resolução de 2020: se nesta havia uma responsabilidade objectiva para o operador de sistemas de IA de alto risco, na proposta de Directiva a sua responsabilidade é subjectiva e limitam-se as formas de provar a sua culpa. Igual limitação opera o n.º 3, que visa as acções intentadas contra utilizadores de sistemas de IA de alto risco sujeitos aos mesmos requisitos. Ou o utilizador não usou o sistema de IA de acordo com as instruções de utilização nem interrompeu a sua utilização ou expôs o sistema a dados de entrada que não são pertinentes à luz da finalidade do sistema.
Os restantes n.
os do artigo servem igualmente para limitar as condições inicialmente previstas no n.º 1, mas em relação à presunção de culpa decorrente da não divulgação de elementos de prova. Se a acção disser respeito a sistemas de alto risco, a presunção não se aplica se o demandado demonstrar que estão razoavelmente acessíveis ao demandante elementos de prova e conhecimentos especializados suficientes para provar o nexo de causalidade (artigo 4.º, n.º 4); se respeitar a outros sistemas de IA, a presunção só é aplicável se o tribunal considerar excessivamente difícil para o demandante provar o nexo de causalidade
[46] (artigo 4.º, n.º 5); se for intentada contra um demandado que tenha usado o sistema de IA no âmbito de uma actividade puramente pessoal e não profissional, a presunção só é aplicável se o demandado tiver interferido substancialmente no funcionamento do sistema ou se tivesse a obrigação e a capacidade de determinar o modo de funcionamento e o não tivesse feito (artigo 4.º, n.º 6). Como já se disse, a presunção é ilidível (artigo 4.º, n.º 7).
Em balanço, diríamos que o regime é demasiado complexo, constituindo um obstáculo aos objectivos de segurança jurídica assumidos pelo legislador (Considerandos 6 e 7)
[47]. Para mais, lamenta-se que se tenha abdicado de um paradigma, assente na responsabilidade objectiva e no seguro obrigatório para sistemas de alto risco, que se mostrava mais adequado à realidade com que a lei procura lidar
[48].
4. Crítica Doutrinal
O professor Henrique Sousa Antunes tomou uma posição assaz crítica da Resolução
[49]. Por um lado, porque entende que ela desfavorece o lesado injustificadamente, atendendo a que a responsabilidade por veículos e do produtor não contempla qualquer distinção de regimes de responsabilidade de acordo com o grau de perigosidade do objecto
[50]. Por outro, por lhe parecer que a disciplina consagrada está “dessintonizada”
[51] da responsabilidade civil clássica. E, por outro ainda, porque ao contrário do que fora sugerido na Resolução de 2017
[52] não prevê a consagração da personalidade electrónica (Considerando 6)
[53] e só admite a intervenção de fundos de compensação em casos limitados e com competência supletiva (Considerando 22).
Relativamente à proposta de Directiva, sublinha que os seus benefícios parecem limitados aos sistemas de IA de risco médio ou baixo, notando-se uma certa indiferença para com a protecção dos lesados em comparação com a que é conferida noutros regimes da União
[54], nomeadamente a proposta de alteração à responsabilidade do produtor
[55]. Questiona também porque motivo é que a Comissão seguiu uma via que contradiz a que vinha sendo trilhada pelo Parlamento e pela própria Comissão
[56]. Finalmente, critica a pouca importância conferida ao princípio da precaução, excessivamente sacrificado em relação ao princípio da inovação
[57].
A professora Elsa Vaz de Sequeira também se pronunciou sobre o tema, alertando para os problemas de causalidade alternativa (hipóteses em que, embora se saiba que todos os envolvidos no processo desrespeitaram as regras aplicáveis, não é possível determinar qual das condutas foi a causa do dano)
[58]. Na Resolução, o artigo 11.º não os resolve de forma inequívoca; e, na proposta de Directiva, não se versou sequer sobre a questão. Esta lacuna é especialmente gravosa no ordenamento português, que não contempla uma resposta para ela, ao contrário do que sucede, por exemplo, no alemão (§ 830 do BGB)
[59].
Já a professora Mafalda Miranda Barbosa, além de propugnar a aplicação da sua tese da causalidade como imputação a partir de esferas de risco
[60], assinala a importância de a responsabilidade abranger as sucessivas actualizações de segurança e
software que sejam necessárias
[61]. Ademais, elogia vários pontos da Resolução, como a definição de critérios de imputação baseados no risco, a consagração de um regime de responsabilidade objectiva e a criação de fundos de compensação de carácter subsidiário
[62]. Quanto à proposta de Directiva, tece um comentário desfavorável sobre a forma como a presunção do nexo de causalidade está redigida
[63] e sublinha a importância das disposições do Regulamento IA; é que, ao afastar-se a responsabilidade assente no risco, estas disposições fixam deveres, podendo funcionar como disposições legais de protecção de interesses alheios (o que permitiria desvelar a ilicitude, sempre que não haja violação de direitos absolutos, e facilitar a prova da culpa)
[64]. Em geral, porém, a professora vinca que os modelos tradicionais de responsabilidade civil podem ser insuficientes para tratar adequadamente a IA
[65] e que, em todo o caso, se impõe a previsão de uma hipótese de responsabilidade objectiva (se não pela União Europeia, pelos legisladores nacionais)
[66].
Além destes Autores, também Joana Ribeiro de Faria se pronunciou negativamente sobre a proposta de Directiva, já que, no seu entender, ela não resolve o problema de evitar que a responsabilidade dependa da identificação clara, por parte do credor, de uma falha que se encontra na esfera de domínio do devedor. Para a Autora, a questão ficaria resolvida com uma inversão do ónus da prova da ilicitude
[67].
Ademais, e embora não a tenhamos consultado em abundância, a doutrina estrangeira parece-nos largamente coincidente com a nacional. Mesmo havendo quem não considere a responsabilidade objectiva adequada a todos os tipos de riscos
[68] ou de contextos
[69], esta é claramente a modalidade preferencial (por vezes, associada a seguros)
[70].
Por último, também o Supervisor Europeu de Protecção de Dados emitiu uma opinião acerca da proposta de Directiva. Começando por se mostrar agradado com o propósito da Comissão de assegurar que as vítimas de danos causados por IA tenham o mesmo nível de protecção que as demais vítimas de danos (Considerandos 3 e 7 da proposta)
[71], algo que poderia não suceder ao abrigo das normais regras de responsabilidade civil (atendendo à “opacidade, autonomia, complexidade, adaptação contínua e imprevisibilidade” dos sistemas de IA), a opinião emitida procede da seguinte forma
[72]: critica a proposta por não ser aplicável às instituições da União Europeia, colocando em posição desfavorável as pessoas lesadas por sistemas de IA produzidos e/ou utilizados por essas instituições; recomenda que a relação entre a proposta e o direito da protecção de dados seja clarificada; insta o legislador a eliminar a diferenciação de regimes entre sistemas de alto risco e outros sistemas, por forma a cumprir o objectivo delineado nos Considerandos 3 e 7, e a aliviar mais vincadamente o ónus da prova a cargo do lesado; sugere que seja contemplado um dever reforçado de informação para assegurar que o mecanismo de divulgação de informação (artigo 3.º) é eficaz
[73]; e mostra preocupação perante a parte final do Considerando 15
[74], por criar incerteza jurídica e permitir contornar as regras da proposta.
5. Conclusão
Em resumo, somos da opinião de que a orientação das instituições europeias é regressiva, no que concerne à tutela dos lesados, e contra produtiva, quanto aos fins de segurança jurídica, confiança das empresas e dos cidadãos e defesa do mercado único. Entendemos, grosso modo, que o modelo da Resolução de 2020, assente num regime de responsabilidade objectiva e secundado pela consagração de seguros obrigatórios e de um fundo de compensação de natureza subisidiária, repercutiria de forma mais justa os custos económicos do desenvolvimento de sistemas que, apesar de úteis à vida humana e à prosperidade das sociedades, implicam riscos e perigos que cabe à ordem jurídica regular.
Bibliografia
Andrade, Francisco C. P., “Análise Crítica de Alguns Aspectos da Proposta de Regulamento Europeu para a Inteligência Artificial”,
inInteligência Artificial e Robótica, Coimbra, Gestlegal, 2022
Antunes, Henrique Sousa, “A Responsabilidade Civil Aplicável à Inteligência Artificial: Primeiras Notas Críticas Sobre a Resolução do Parlamento Europeu de 2020”,
in Revista de Direito da Responsabilidade, Ano III, 2021, pp. 1-22
Antunes, Henrique Sousa, “Inteligência Artificial e Responsabilidade Civil: Enquadramento”,
in Revista de Direito da Responsabilidade, Ano I, 2019, pp. 139-154
Antunes, Henrique Sousa, “Non-contractual liability applicable to artificial intelligence: towards a corrective reading of the European intervention”,
in Social Sciences Research Network, 2023
Ataíde, Rui Paulo Coutinho de Mascarenhas, “Os Deveres no Tráfego”,
in Revista de Direito da Responsabilidade, Ano 1, 2019, pp. 985-1003
Baptista, Joana Catarina Moreira,
A Responsabilidade Civil pelos Danos Causados por Atos Autónomos da Inteligência Artificial, Braga, 2021
Barbosa, Mafalda Miranda, “O Futuro da Responsabilidade Civil Desafiada pela Inteligência Artificial: As Dificuldades dos Modelos Tradicionais e Caminhos de Solução”,
in Revista de Direito da Responsabilidade, Ano 2, 2020, pp. 280-326
Barbosa, Mafalda Miranda, “Inteligência artificial, e-persons e direito: desafios e perspetivas”,
in Direito e Robótica, Coimbra, Instituto Jurídico/Centro de Direito do Consumo, 2020, pp. 57-90
Barbosa, Mafalda Miranda, “Inteligência Artificial, Responsabilidade Civil e Causalidade”,
in Revista de Direito da Responsabilidade, Ano 3, 2021, pp. 605-625
Barbosa, Mafalda Miranda, “Sistemas Autónomos e Responsabilidade: Autoria e Causalidade”,
in Revista de Direito da Responsabilidade, Ano 4, 2022, pp. 1122-1173
Barbosa, Mafalda Miranda, “Ainda o Futuro da Responsabilidade Civil pelos Danos Causados por Sistemas de IA”,
in Revista de Direito da Responsabilidade, Ano 5, 2023, pp. 337-369
Barbosa, Mafalda Miranda, “Da Periferia para o Centro: Pode a Responsabilidade da IA Repercutir-se na Dogmática Delitual Geral?”,
in Revista de Direito da Responsabilidade, Ano 5, 2023, pp. 754-778
Buiten, Miriam / Peitz, Martin / Streel, Alexandre de,
EU liability rules in the age of Artificial Intelligence, CERRE, 2021
Cerka, Paulius / Grigiene, Jurgita / Sirbikyt, GintaRE, “Liability for damages caused by artificial intelligence”,
in Computer Law and Security Review, 31, 2015, pp. 376-389
Chesterman, Simon, “Artificial Intelligence And The Limits Of Legal Personality”,
in NUS Law Working Paper Series, 2020/025, 2020, pp. 819-844
Correia, Diana Filipa Duarte,
O “R” de Robótica no “R” da Responsabilidade Civil: O paradigma da inteligência artificial, Lisboa, 2019
Dias, Jorge De Figueiredo
et al,
Comentário Conimbricense do Código Penal, Tomo I, 1.ª Edição, Coimbra, Coimbra Editora, 1999
Faria, Joana Ribeiro de, “A teoria das esferas do risco. A utilização de agentes eletrónicos no cumprimento dos contratos e a proposta de Diretiva de 28.09.2022 relativa à adaptação das regras de responsabilidade civil extracontratual à inteligência artificial”,
in Revista de Direito Civil, Ano VIII, N.º 1, 2023, pp. 77-103
Ferreira, Ana Elisabete, “Responsabilidade civil extracontratual por danos causados por robôs autónomos: breves reflexões”,
inRevista Portuguesa do Dano Corporal, N.º 27, 2016, pp. 39-63
Gonçalves, Anabela Susana de Sousa, “Inteligência Artificial e Responsabilidade Civil Transnacional”,
in Inteligência Artificial e Robótica, Coimbra, Gestlegal, 2022, pp. 307-327
González, José A. R. L., “Responsabilidade por danos e Inteligência Artificial (IA)”,
in Revista de Direito Comercial, 2020, pp. 69-112
Leitão, Luís Manuel Teles Menezes, “A Reparação de Danos Emergentes de Acidentes de Trabalho”,
in Estudos do Instituto de Direito do Trabalho, Coimbra, Almedina, 2001, pp. 537 a 587
Maia, Ana Rita, “A Responsabilidade Civil na Era da Inteligência Artificial – Qual o caminho?”,
Julgar, Maio de 2021
Martín Casals, Miquel, “Las propuestas de la Unión Europea para regular la responsabilidad civil por los daños causados por sistemas de inteligencia artificial”,
in InDret, N.º 3, 2023, pp. 55-100
Matos, Filipe Albuquerque, “Responsabilidade por Danos Causados a Terceiros por Robôs”,
in Direito e Robótica, Coimbra, Instituto Jurídico/Centro de Direito do Consumo, 2020, pp. 155-211
Muñoz García, Carmen, “Adaptar o reformular la Directiva 85/374 sobre responsabilidad por daños causados por productos defectuosos a la inteligencia artificial. Ultimas novedades”,
in Rev. Crítica de Derecho Inmobiliario, N.º 793, Ano 2022, pp. 2886-2908
Navarro, María Luisa Atienza, “¿Una nueva responsabilidad por productos defectuosos? Notas a la Propuesta de Directiva del Parlamento Europeo y del Consejo sobre responsabilidad por daños causados por productos defectuosos de 28 de septiembre de 2022 (COM/2022/495)”, in InDret, N.º 2, 2023, pp. 1-53
Oliveira, Ana Perestrelo de,
Causalidade e Imputação na Responsabilidade Civil Ambiental, 1.ª Edição, Coimbra, Almedina, 2007
Pagallo, Ugo, “Vital, Sophia, and Co.—The Quest for the Legal Personhood of Robots”,
Information, MDPI, 2018
Pereira, Luís Gabriel Vicente Ribeiro,
Responsabilidade Civil Delitual e Inteligência Artificial: (Re)Compreensão dos Requisitos do Nexo de Causalidade e da Culpa à Luz dos Danos Causados por Agentes Autónomos, Coimbra, 2023
Pires, Nuno Miguel Ramos,
Inteligência Artificial no Governo das Sociedades Comerciais. Responsabilidade pelo Uso da Inteligência Artificial na Governação Societária, Coimbra, 2023
Pozzo, Barbara, “
La Direttiva 2004/35/CE e il suo recepimento in Italia”,
in Rivista Giuridica Dell’Ambiente, n.º 1, 2010, pp. 1-80
Sequeira, Elsa Vaz de, “Danos Causados por Sistemas de Inteligência Artificial: Contornos Gerais do Problema”,
Revista de Direito da Responsabilidade, Ano 5, 2023, pp. 911-938
Silva, Nuno Sousa e, “Inteligência Artificial, Robots e Responsabilidade Civil: o que é que é diferente?”,
Revista de Direito Civil, Ano IV, n.º 4, 2019, pp. 691-711
Sloterdijk, Peter,
Tens de Mudar de Vida, Lisboa, Relógio D’Água Editores, 2018
Wendehorst, Christiane, “Strict Liability for AI and other Emerging Technologies”,
Journal of European Tort Law, Volume 11, Issue 2, 2020, pp. 150-180
Zech, Herbert, “Liability for AI: public policy considerations”,
ERA Forum, 2021, pp. 147-158
Outras Referências
Opinion 42/2023 on the Proposals for two Directives on AI liability rules, European Data Protection Supervisor (EDPS),
in:
https://edps.europa.eu/system/files/2023-10/23-10-11_opinion_ai_liability_rules.pdf (05.04.2024)
Ensaio de José Gil,
in:
https://www.publico.pt/2023/12/03/culturaipsilon/ensaio/jose-gil-ia-simples-pobres-felizes-2072038(05.04.2024)
Jurisprudência
Acórdão do STJ de 19/5/2015 (Júlio Gomes),
inhttps://www.dgsi.pt/jstj.nsf/954f0ce6ad9dd8b980256b5f003fa814/307eba54a70c526980257e4a00536903?OpenDocument(05.04.2024)
Acórdão do TRC de 05/05/2015 (Maria João Areias),
inhttps://www.dgsi.pt/jtrc.nsf/c3fb530030ea1c61802568d9005cd5bb/c1917ee8874cec1780257e49004e5cd5?OpenDocument(05.04.2024)
[1] Hoje, à luz do artigo 3.º, n.º 1 do Regulamento sobre Inteligência Artificial (Regulamento IA ou
AI Act), um sistema de inteligência artificial é o programa informático “capaz de, tendo em vista um determinado conjunto de objetivos definidos por seres humanos, criar resultados, tais como conteúdos, previsões, recomendações ou decisões, que influenciam os ambientes com os quais interage”. Não se trata de definição unívoca, como dá nota Nuno Miguel Ramos Pires,
Inteligência Artificial no Governo das Sociedades Comerciais. Responsabilidade pelo Uso da Inteligência Artificial na Governação Societária, Coimbra, 2023, pp. 12-14. Para uma análise da definição adoptada, cfr. Francisco C. P. Andrade, “Análise Crítica de Alguns Aspectos da Proposta de Regulamento Europeu para a Inteligência Artificial”,
in,
Inteligência Artificial e Robótica, Coimbra, Gestlegal, 2022, pp. 330-331. A melhor e mais completa explicação do que constitui inteligência artificial foi a que encontrámos em Paulius Cerka / Jurgita Grigiene / Gintare Sirbikyt, “Liability for damages caused by artificial intelligence”,
in Computer Law and Security Review, 31, 2015, pp. 378-383.
[2] Diremos apenas que os motivos pelos quais o legislador europeu sentiu necessidade de adaptar as regras de responsabilidade civil à inteligência artificial são duplos: por um lado, porque ela acarreta especial risco e potencial danoso (Considerando 1 da proposta de Directiva); por outro, devido às dificuldades probatórias que a “opacidade, autonomia, complexidade, adaptação contínua e imprevisibilidade” dos sistemas implicariam para os lesados (Considerando 4 da proposta de Directiva e Opinion 42/2023 on the Proposals for two Directives on AI liability rules, European Data Protection Supervisor (EDPS),
in:
https://edps.europa.eu/system/files/2023-10/23-10-11_opinion_ai_liability_rules.pdf (05.04.2024)). Cfr., quanto a estas dimensões, Miquel Martín Casals, “Las propuestas de la Unión Europea para regular la responsabilidad civil por los daños causados por sistemas de inteligencia artificial”,
in InDret, N.º 3, 2023, pp. 67-69. Quanto ao mais, outras análises seriam evidentemente possíveis, não só no plano jurídico (cfr., pela abrangência dos temas tratados, as obras colectivas
Direito e Robótica e
Inteligência Artificial e Robótica) como no plano filosófico (cfr., a propósito, o ensaio de José Gil publicado no final do ano passado no suplemento Ípsilon, do Público,
in:
https://www.publico.pt/2023/12/03/culturaipsilon/ensaio/jose-gil-ia-simples-pobres-felizes-2072038 (05.04.2024)).
[3] Cfr. a ampla bibliografia espanhola sobre a matéria, como: Carmen Muñoz García, “Adaptar o reformular la Directiva 85/374 sobre responsabilidad por daños causados por productos defectuosos a la inteligencia artificial. Ultimas novedades”,
in Rev. Crítica de Derecho Inmobiliario, N.º 793, Ano 2022, Miquel MARTÍN CASALS, “Las propuestas”, pp. 69-71 e María Luisa Atienza Navarro, “¿Una nueva responsabilidad por productos defectuosos? Notas a la Propuesta de Directiva del Parlamento Europeo y del Consejo sobre responsabilidad por daños causados por productos defectuosos de 28 de septiembre de 2022 (COM/2022/495)”,
in InDret, N.º 2, 2023.
[4] A Directiva passou a incluir o software e os produtos da economia circular.
[5] Peter Sloterdijk,
Tens de Mudar de Vida, Lisboa, Relógio D’Água Editores, 2018, p. 237.
[6] Em Henrique Sousa Antunes, “A Responsabilidade Civil Aplicável à Inteligência Artificial: Primeiras Notas Críticas Sobre a Resolução do Parlamento Europeu de 2020”,
in Revista de Direito da Responsabilidade, Ano III, 2021, p. 3, sustenta-se que este documento assenta em cinco elementos: as características dos sistemas de IA; a equiparação do controlo exercido pelo operador desses sistemas ao exercido pelo proprietário de um automóvel; a convergência da responsabilidade do operador com a do produtor de sistemas de IA; a proporcionalidade entre responsabilidade e desenvolvimento da IA, em benefício da comunidade; a criação de condições para haver um mercado de seguros de responsabilidade, protegendo a inovação. De modo geral, estas coordenadas interpretativas merecem a nossa concordância.
[7] Artigo 3.º, alínea e): trata-se de “qualquer pessoa singular ou coletiva que exerça um grau de controlo sobre um risco relacionado com a operação e o funcionamento do sistema de IA e que beneficie da sua operação.”
[8] Artigo 3.º, alínea f): é “qualquer pessoa singular ou coletiva que, de forma contínua, defina as características da tecnologia, forneça dados e preste serviços essenciais de apoio de
backend e, por conseguinte, exerça igualmente algum controlo sobre o risco ligado à operação e ao funcionamento do sistema de IA.”
[9] Cfr. Rui Paulo Coutinho de Mascarenhas Ataíde, “Os Deveres no Tráfego”,
in Revista de Direito da Responsabilidade, Ano 1, 2019, pp. 994-999. Estes deveres foram desenvolvidos pela jurisprudência alemã no início do século passado e impõem ao criador ou controlador de uma fonte de perigo que tome as medidas razoáveis, adequadas e necessárias para evitar a concretização danosa desse perigo. O já mencionado Considerando 8 também alude a eles, ao afirmar que a imputação da responsabilidade a quem cria, mantém ou controla o sistema de IA resulta de “conceitos jurídicos gerais e amplamente aceites (…) segundo os quais a pessoa que cria ou mantém um risco para o público é responsável se esse risco causar dano ou prejuízo e, por conseguinte, deverá minimizar
a priori ou compensar
a posteriori esse risco”. Evidentemente, neste diploma não se trata de minimizar o risco, mas compensar a sua verificação.
[10] Cuja definição é, por remissão do artigo 3.º, alínea j), igual à do artigo 3.º da Directiva 85/374/CEE: “1. O termo «produtor» designa o fabricante de um produto acabado, o produtor de uma matéria-prima ou o fabricante de uma parte componente, e qualquer pessoa que se apresente como produtor pela aposição sobre o produto do seu nome, marca ou qualquer outro sinal distintivo. 2. Sem prejuízo da responsabilidade do produtor, qualquer pessoa que importe um produto na Comunidade tendo em vista uma venda, locação, locação financeira ou qualquer outra forma de distribuição no âmbito da sua actividade comercial, será considerada como produtor do mesmo, na acepção da presente directiva, e responsável nos mesmos termos que o produtor. 3. Quando não puder ser identificado o produtor do produto, cada fornecedor será considerado como produto, salvo se indicar ao lesado, num prazo razoável, a identidade do produtor ou daquele que lhe forneceu o produto. O mesmo se aplica no caso de um produto importado, se este produto não indicar o nome do importador referido no n.º 2, mesmo se for indicado o nome do produtor.”
[11] Artigo 3.º, alínea h): é “qualquer pessoa que sofra prejuízos ou danos causados por uma atividade, um dispositivo ou um processo físico ou virtual baseado num sistema de IA e que não seja o operador.”
[12] A norma abrange as pessoas “pela qual a pessoa lesada seja responsável”, o que lhe confere um alcance equivalente ao conseguido pela conjugação dos artigos 570.º e 571.º do CC.
[13] Este preceito também funciona como norma de conflitos, como sublinha Anabela Susana De Sousa Gonçalves, “Inteligência Artificial e Responsabilidade Civil Transnacional”,
in,
Inteligência Artificial e Robótica, Coimbra, Gestlegal, 2022, p. 324-326. A Autora critica, contudo, a sua redacção, entendendo que o artigo 5.º do Regulamento Roma II é mais protector dos consumidores e que, face ao disposto no Considerando 9 da Resolução, se introduz um indesejável
dépeçage, já que a Resolução só seria aplicável em acções contra o operador do sistema de IA (em relação à responsabilidade de terceiros, o Regulamento Roma II deveria ser aplicado).
[14] Para Henrique Sousa Antunes, a fórmula compreende o “direito de personalidade ou a ofensa de bens incorpóreos, como a violação ou a destruição de dados”. O Autor é crítico da tradução da expressão “
significant imaterial harm” por “danos não patrimoniais” e da subordinação da sua atendibilidade à repercussão económica da ofensa, considerando que se trata de uma limitação do acesso à justiça (Henrique Sousa Antunes, “A Responsabilidade”, pp. 12-13). Mas Mafalda Miranda Barbosa entende que, à luz do artigo 9.º (ou seja, nas hipóteses de responsabilidade subjectiva), é possível aplicar o artigo 496.º do CC (Mafalda Miranda Barbosa, “Da Periferia para o Centro: Pode a Responsabilidade da IA Repercutir-se na Dogmática Delitual Geral?,
in Revista de Direito da Responsabilidade”, Ano 5, 2023, p. 762). Já para outros Autores, é a própria extensão do regime a este tipo de danos que é criticável: Christiane Wendehorst, “Strict Liability for AI and other Emerging Technologies”,
in Journal of European Tort Law, Volume 11, Issue 2, 2020, pp. 166-167.
[15] Neste sentido, Henrique Sousa Antunes, “A Responsabilidade”, p. 12. O Autor chama-lhe uma “cláusula geral limitada de ilicitude”.
[16] Aparentemente, trata-se de uma nulidade que opera
ope legis.
[17] Parece, assim, que o conteúdo da Resolução vale imperativamente, não sendo evidente se de forma relativa ou absoluta. Se a tutela do lesado poderia justificar a relatividade, no sentido de as partes poderem contratar um regime mais favorável para este, as necessidades de segurança jurídica apontariam no sentido oposto. Independentemente de considerações de justiça, a letra da lei parece ir no segundo sentido.
[18] Um sistema de IA é “um sistema baseado em
software ou integrado em dispositivos físicos e que apresenta um comportamento que simula inteligência, nomeadamente recolhendo e tratando dados, analisando e interpretando o seu ambiente e tomando medidas – com um determinado nível de autonomia – para atingir fins específicos” (artigo 3.º, alínea a)). A qualificação de alto risco implica “um potencial importante de um sistema de IA que funcione de forma autónoma causar prejuízos ou danos a uma ou várias pessoas de forma aleatória e que vai além do que se pode razoavelmente esperar; a importância deste potencial depende da interligação entre a gravidade dos eventuais prejuízos ou danos, o grau de autonomia de decisão, a probabilidade de o risco se concretizar e a forma e o contexto em que o sistema de IA é utilizado”.
[19] Realça-se em Henrique Sousa Antunes, “A Responsabilidade”, pp. 5-6 que a dicotomia se justifica por motivos de proporcionalidade (Considerando L). Mas o Autor critica-a, à luz do Considerando 5, defendendo que ela funcionaliza o princípio da proporcionalidade à tutela das indústrias emergentes.
[20] Criticando a obrigatoriedade da cobertura por seguro, apesar de reconhecer o préstimo da mesma, Filipe Albuquerque Matos, “Responsabilidade por Danos Causados a Terceiros por Robôs”,
in Direito e Robótica, Coimbra, Instituto Jurídico/Centro de Direito do Consumo, 2020, p. 193.
[21] Henrique Sousa Antunes concorda com a fixação de limites, de forma a criar um mercado de seguros funcional, mas considera que o critério para a fixação destes limites deveria ser o impacto previsível da lesão, aferido pelo número de pessoas lesadas (à semelhança do artigo 508.º do CC). Contra a existência de
plafonds (embora pronunciando-se antes da redacção da Resolução e da proposta de Directiva): Filipe Albuquerque Matos, “Responsabilidade”, pp. 190-193.
[22] De facto, a norma estabelece que a indemnização deve ser calculada “com base nos custos do tratamento médico que a pessoa lesada tenha recebido (…), bem como no prejuízo financeiro sofrido antes da morte como consequência da cessação ou da redução da capacidade de obter rendimentos ou do aumento das necessidades (…)”, devendo o operador reembolsar ainda “as despesas de funeral”. Para uma comparação com o direito português, cfr. os artigos 25.º e 47.º da Lei n.º 98/2009.
[23] O dano avalia-se em concreto ou em abstracto? Vale a teoria da diferença? Relevam os lucros ilícitos? Ou será que só os elementos referidos na norma relevam para o cálculo da indemnização?
[24] Assim, apesar de o Considerando 10 equiparar o operador do sistema de IA ao proprietário de automóvel, há de igual modo similitudes com o regime dos acidentes de trabalho, também ele pautado por uma tríplice protecção (responsabilidade objectiva, seguro obrigatório e fundo de compensação). Nesta linha, se o risco que subjaz à legislação dos sinistros laborais é aquele que o próprio trabalhador corre ao colocar no mercado a sua força de trabalho (Luís Manuel Teles Menezes Leitão, “A Reparação de Danos Emergentes de Acidentes de Trabalho”,
in Estudos do Instituto de Direito do Trabalho, Coimbra, Almedina, 2001, p. 560), em matéria de inteligência artificial pode dizer-se que o risco relevante é o da colocação de sistemas de risco elevado à disposição do público. Como essa colocação é efectuada pelo operador, é justo que recaiam sobre ele os encargos decorrentes da materialização do risco. Em sentido convergente, afirma o professor Sousa Antunes que a escolha do legislador europeu é “a alocação do risco da autonomia do sistema de inteligência artificial ao operador”.
[25] Em Joana Ribeiro De Faria, “A teoria das esferas do risco. A utilização de agentes eletrónicos no cumprimento dos contratos e a proposta de Diretiva de 28.09.2022 relativa à adaptação das regras de responsabilidade civil extracontratual à inteligência artificial”,
in Revista de Direito Civil, Ano VIII, N.º 1, 2023, p. 82, afirma-se que basta ao operador provar que empregou as diligências referidas no artigo 8.º, n.º 2, alínea b) para excluir a sua responsabilidade. Não concordamos. Parece-nos que a norma estipula, em abstracto, os meios de que o operador se pode servir para afastar a responsabilidade; mas não deixa de ser necessário que, em concreto, a observação das diligências tenha sido de molde a não lhe poder ser assacado um juízo de censura. (É o que resulta da letra do n.º 1: “O operador não é considerado responsável (…) se puder
provar que estes foram causados sem culpa sua, baseando-se num dos seguintes motivos” (itálico nosso).) Interpretação similar é feita a propósito do artigo 132.º do CP (Cfr. Jorge De Figueiredo Dias
et al,
Comentário Conimbricense do Código Penal, Tomo I, 1.ª Edição, Coimbra, Coimbra Editora, 1999, pp. 25-26).
[26] Mafalda Miranda Barbosa, “Sistemas Autónomos e Responsabilidade: Autoria e Causalidade”,
in Revista de Direito da Responsabilidade, Ano 4, 2022, p. 1164.
[27] Neste sentido, Mafalda Miranda Barbosa, “Inteligência Artificial, Responsabilidade Civil e Causalidade”,
in Revista de Direito da Responsabilidade, Ano 3, 2021, p. 624.
[28] A solução parece razoável, pois não seria justo resolver a questão com base no princípio da imputação dos danos (
ubi commoda, ibi incommoda) nem com base na aplicação estrita do princípio da responsabilidade. Sobre estes princípios, cfr. Elsa Vaz De Sequeira, “Danos Causados por Sistemas de Inteligência Artificial: Contornos Gerais do Problema”,
in Revista de Direito da Responsabilidade, Ano 5, 2023, pp. 911-913. No fundo, pode dizer-se de todo o diploma que ele é ilustrativo de como o paradigma da culpa na responsabilidade civil está em erosão, apesar de ainda ser dominante (representativo disto é o quadro traçado em Ana Elisabete Ferreira, “Responsabilidade civil extracontratual por danos causados por robôs autónomos: breves reflexões”,
in Revista Portuguesa do Dano Corporal, N.º 27, 2016, pp. 51-56).
[29] Define fornecedor como “pessoa singular ou coletiva, autoridade pública, agência ou outro organismo que desenvolva um sistema de IA ou que tenha um sistema de IA desenvolvido com vista à sua colocação no mercado ou colocação em serviço sob o seu próprio nome ou marca, a título gratuito ou oneroso”.
[30] Neste sentido, Elsa Vaz De Sequeira, “Danos”, p. 921-922.
[31] Artigo 3.º, n.º 4 do Regulamento: é utilizador “uma pessoa singular ou coletiva, autoridade pública, agência ou outro organismo que utilize, sob a sua autoridade, um sistema de IA, salvo se o sistema de IA for utilizado no âmbito de uma atividade pessoal de caráter não profissional”.
[32] Inclui, além do lesado, os seus sucessores ou sub-rogados e quem actue em seu nome (artigo 3.º, n.º 6).
[33] Embora o artigo 2.º, n.º 9 ainda se lhes refira.
[34] De todo o modo, como nota Mafalda Miranda Barbosa, a lei portuguesa pode ser incapaz de lidar com a maioria destes casos. Cfr. Mafalda Miranda Barbosa, “O Futuro da Responsabilidade Civil Desafiada pela Inteligência Artificial: As Dificuldades dos Modelos Tradicionais e Caminhos de Solução”,
in Revista de Direito da Responsabilidade, Ano 2, 2020, pp. 286-293 para uma análise da aplicabilidade dos artigos 503.º, 500.º e 493.º do CC e da probabilidade de ocorrência de danos puramente patrimoniais (não ressarcíveis entre nós) Cfr. também a análise levada a cabo em Filipe Albuquerque Matos, “Responsabilidade”, pp. 194-202, a respeito da aplicabilidade do artigo 483.º do CC. As dificuldades apontadas pela Autora inquietam a doutrina nacional (cfr., por exemplo, Ana Rita Maia, “A Responsabilidade Civil na Era da Inteligência Artificial – Qual o caminho?”,
in Julgar, Maio de 2021, pp. 27-31 e 73-91), inquietações essas que se estendem ao plano contratual (cfr. a interessante análise levada a cabo em Joana Ribeiro De Faria, “A teoria”, p. 83-96). Não obstante, seria possível prever, a nível nacional, um regime específico de responsabilidade civil ligado à inteligência artificial (de preferência objectivo, como propugna Filipe Albuquerque Matos, “Responsabilidade”, pp. 203-211).
[35] Como tal, defende a professora Mafalda Miranda Barbosa que, ainda que os obrigados nos termos do Regulamento IA possam ser considerados produtores, não tem o lesado de optar por um ou outro dos regimes, podendo fundar a pretensão indemnizatória em mais do que um regime (Mafalda Miranda Barbosa, “Da Periferia”, pp. 777-778).
[36] Encargo que se estende à tomada das medidas de conservação dos elementos de prova (artigo 3.º, n.º 3).
[37] Trata-se de presunção de culpa (como se defende em Henrique Sousa Antunes, “Non-contractual liability applicable to artificial intelligence: towards a corrective reading of the European intervention”, in
Social Sciences Research Network, 2023, p. 5)? Ou de ilicitude (como se afirma em Joana Ribeiro de Faria, “A teoria”, p. 80)? Independentemente da resposta à pergunta, esta Autora não tem dúvidas em afirmar que a responsabilidade não deixa de depender da identificação clara de uma falha por parte do lesado (Joana Ribeiro de Faria, “A teoria”, p. 80).
[38] Trata-se, de acordo com o artigo 2.º, n.º 9, de “uma norma de conduta obrigatória, estabelecida pelo direito nacional ou da União, a fim de evitar danos aos interesses jurídicos reconhecidos a nível nacional ou da União, incluindo a vida, a integridade física, a propriedade e a proteção dos direitos fundamentais”.
[39] A redacção da presunção mereceu críticas (Mafalda Miranda Barbosa, “Sistemas”, pp. 1168-1169). Como se sublinha em Miquel Martín Casals, “Las propuestas”, p. 73, é de uma verdadeira presunção, e não de uma redução do standard probatório, que se trata.
[40] O recorte jurídico da expressão não é claro. Referir-se-á a comissários? Abrangerá vigilados?
[41] Por vezes com indicação do grau de probabilidade exigido. É o caso da Lei de Compensação de Danos Ambientais finlandesa, segundo a qual a vítima deve provar a probabilidade do nexo causal, entendida como uma verosimilhança superior a 50% (retirámos este exemplo de Ana Perestrelo De Oliveira,
Causalidade e Imputação na Responsabilidade Civil Ambiental, 1.ª Edição, Coimbra, Almedina, 2007, p. 34).
[42] Em relação a este terceiro ponto, Mafalda Miranda Barbosa interroga-se (e bem) acerca do que se presume exactamente (Mafalda Miranda Barbosa, “Da Periferia”, p. 769).
[43] Entre estes contam-se a manutenção de registos, de documentação técnica e de um sistema de gestão de riscos, o cumprimento dos critérios de qualidade na utilização de dados, o funcionamento transparente, a possibilidade de supervisão humana, a concepção que assegure a exactidão, solidez e cibersegurança, etc.
[44] Correspondem aos artigos 24.º ou 28.º, n.º 1.
[45] Com uma leitura (aparentemente) diferente, Miquel Martín CasalS, “Las propuestas”, pp. 73-74.
[46] Esta ressalva, que assenta num conceito indeterminado que o Considerando 28 visa preencher, parece excessiva. Afinal, a dificuldade em provar o nexo de causalidade não é um dos próprios pressupostos em que assenta a proposta de Directiva?
[47] Henrique Sousa Antunes mostra-se extremamente céptico em relação a este ponto, defendendo que a proposta é de tal modo ineficaz que o princípio da subsidiariedade (art. 5.º, n.º 3 do TUE) foi violado (Henrique Sousa Antunes, “Non-contractual”, pp. 11-14).
[48] Esta conclusão parece-nos acertada mesmo tendo em consideração que a Comissão Europeia apresentou a proposta de alteração ao regime da responsabilidade civil por defeitos no produto, de maneira a inequivocamente incluir os sistemas de
software ou algoritmos na noção de produto e, dessa forma, sujeitar o respetivo produtor à responsabilidade objectiva pelos eventuais defeitos do produto. De todo o modo, como já se referiu, não cabe no objecto deste artigo tecer considerações sobre essa proposta. Numa outra nota, outra das alterações ao regime com relevo em matéria de inteligência artificial é a inclusão da perda ou corrupção de dados no elenco dos danos geradores de indemnização. Cfr., Opinion, EDPS.
[49] Henrique Sousa Antunes, “A Responsabilidade”.
[50] De facto, a distinção de regimes entre sistemas de alto risco e outros sistemas é de mérito duvidoso, atendendo à proliferação generalizada da IA (sistemas de apoio à decisão, nomeadamente na concessão de credito ou na contratação electrónica; sistemas de tradução de texto; sistemas de diagnóstico médico; sistemas periciais de resolução de conflitos, como o mexicano “Expertius”, utilizado para avaliar critérios de atribuição de pensões de alimentos, ou o australiano “Family Winner”, usado na mediação familiar; sistemas de resolução de conflitos em linha). Estes exemplos foram retirados de Diana Filipa Duarte Correia,
O “R” de Robótica no “R” da Responsabilidade Civil: O paradigma da inteligência artificial, Lisboa, 2019, pp. 16-21.
[51] Henrique Sousa Antunes, “A Responsabilidade”, p. 12.
[52] Trata-se da Resolução do Parlamento Europeu de 16 de fevereiro de 2017, que contém recomendações à Comissão sobre disposições de Direito Civil sobre robótica.
[53] Não sendo a matéria da personalidade electrónica central na economia do presente estudo, já que nenhum dos dois documentos em análise lhe confere particular importância, diremos apenas que não concordamos com a posição do professor Sousa Antunes, que é, de resto, minoritária entre nós (na verdade, consultámos as posições de mais de uma dúzia de Autores e nenhum parece concordar com o professor). Cfr., entre muitos outros, Elsa Vaz De Sequeira, “Danos”, pp. 918-919; Nuno Sousa e Silva, “Inteligência Artificial, Robots e Responsabilidade Civil: o que é que é diferente?”,
in Revista de Direito Civil, Ano IV, n.º 4, 2019, pp. 707-711; Mafalda Miranda Barbosa, “O Futuro”, pp. 296-315 e “Sistemas”, pp. 1124-1146; Filipe Albuquerque Matos, “Responsabilidade”, pp. 160-178. No estrangeiro também não parece haver especial entusiasmo pela ideia (Simon Chesterman, “Artificial Intelligence And The Limits Of Legal Personality”,
in NUS Law Working Paper Series, 2020/025, 2020). Para uma posição intermédia, Ugo Pagallo, “Vital, Sophia, and Co.—The Quest for the Legal Personhood of Robots”,
Information,
in MDPI, 2018, pp. 9-10.
[54] Tradução nossa a partir de Henrique Sousa Antunes, “Non-contractual”, pp. 3-4.
[55] Henrique Sousa Antunes, “Non-contractual”, pp. 4-5. O Autor sugere (e é uma sugestão convincente) que foram valorizadas as opiniões das grandes empresas em detrimento das associações de consumidores, das autoridades públicas, das pequenas e médias empresas e de outras entidades que se pronunciaram numa consulta pública levada a cabo pela Comissão: Henrique Sousa Antunes, “Non-contractual”, p. 9. No mesmo sentido, Opinion, EDPS, p. 12. Em Miquel Martín Casals, “Las propuestas”, p. 94 também se alude a esta dimensão da questão.
[56] De facto, é notório como a balança da ponderação de interesses se desequilibrou desde a Resolução de 2017 (cujas recomendações abrangiam a personalidade electrónica, o seguro obrigatório, fundos de compensação, etc.) até hoje.
[57] Henrique Sousa Antunes, “Non-contractual”, pp. 14-25. O princípio da precaução manda evitar a verificação de riscos (isto é, danos possíveis, mas imprevisíveis, não prováveis). É um princípio basilar do direito ambiental e da responsabilidade ambiental. Com efeito, Ana Perestrelo de Oliveira defende que, em sede ambiental, e por influência do princípio da prevenção (cujo alcance é equivalente ao da precaução, mas tendo em vista perigos, ou seja, danos prováveis), a ideia de risco deve ser a base da imputação civil; e Barbara Pozzo sublinha que o escopo com que se consagra um regime especial de responsabilidade civil deve influir nas soluções legais a que se chega, sendo especialmente importante no domínio ambiental os princípios da precaução e da prevenção (cfr. Barbara Pozzo, “La Direttiva 2004/35/CE e il suo recepimento in Italia”,
in Rivista Giuridica Dell’Ambiente, n.º 1, 2010, pp. 43-45). Em nosso entender, estas reflexões são transponíveis para o domínio da inteligência artificial. Sobre o princípio da inovação, a Comunicação 12 do European Risk Forum define-o da seguinte forma: “whenever precautionary legislation is under consideration, the impact on innovation should also be taken into full account in the (…) process”. De acordo com este princípio, a precaução só prevalece quando há uma ameaça real de um risco inaceitável. Em Herbert Zech, “Liability”, faz-se uma análise económica da tensão entre estes princípios. De resto, a abordagem económica ao problema da regulação da IA, que começa a contaminar o legislador europeu, parece ser a prevalente nos EUA (Christiane Wendehorst, “Strict Liability”, p. 154). Paralelamente, a professora Miranda Barbosa sublinha a importância fundamental dos princípios da precaução, da reversibilidade, da segurança e da responsabilidade no tratamento jurídico da IA (Mafalda Miranda Barbosa, “Inteligência artificial, e-persons e direito: desafios e perspetivas”,
in Direito e Robótica, Coimbra, Instituto Jurídico/Centro de Direito do Consumo, 2020, p. 88).
[58] Já não assim quanto aos problemas de concausalidade (hipóteses em que todas as actuações contribuem para a produção do resultado). Nestes, cada lesante é solidariamente responsável.
[59] Não obstante, há jurisprudência que aceita a condenação de todos os putativos lesantes: acórdãos do STJ, de 19/5/2015 (Júlio Gomes)
in https://www.dgsi.pt/jstj.nsf/954f0ce6ad9dd8b980256b5f003fa814/307eba54a70c526980257e4a00536903?OpenDocument e da Relação de Coimbra, de 05/05/2015 (Maria João Areias)
in https://www.dgsi.pt/jtrc.nsf/c3fb530030ea1c61802568d9005cd5bb/c1917ee8874cec1780257e49004e5cd5?OpenDocument. Esta é igualmente a solução propugnada pela Autora (Elsa Vaz De Sequeira, “Danos”, pp. 927-929), que parece ser, de resto, a maioritária na doutrina civilística (Cfr., Luís Gabriel Vicente Ribeiro Pereira,
Responsabilidade Civil Delitual e Inteligência Artificial: (Re)Compreensão dos Requisitos do Nexo de Causalidade e da Culpa à Luz dos Danos Causados por Agentes Autónomos, Coimbra, 2023, pp. 63-68). Convergindo, em sede ambiental, Ana Perestrelo de Oliveira,
Causalidade, pp. 107-111.
[60] Mafalda Miranda Barbosa, “Inteligência”, pp. 612-625, quanto à Resolução; “Da Periferia”, pp. 771 e 774-777; e, ainda, “Sistemas”, pp. 1170-1173.
[61] Mafalda Miranda Barbosa, “Da Periferia”, pp. 765-766 e “O Futuro”, p. 321.
[62] Adoptando uma posição largamente coincidente, Ana Rita Maia, “A Responsabilidade”, pp. 26-27, e LUÍS Gabriel Vicente Ribeiro Pereira,
Responsabilidade, p. 72. Em Diana Filipa Duarte Correia,
O “R”, pp. 46-48, também se reconhece as vantagens que um sistema deste tipo teria (acrescentando-se ainda a utilidade da consagração de um regime de licenciamento obrigatório dos sistemas de IA), embora se conclua pela “aplicação de um regime assente na indagação sobre o respeito de deveres de cuidado” (Diana Filipa Duarte Correia,
O “R”, pp. 81-87).
[63] Uma vez que, nas palavras da Autora, “confunde-se a análise do âmbito de proteção do dever incumprido, a permitir uma presunção baseada na imputação, com uma ideia de probabilidade que nos aponta ainda para uma visão causalista e fisicista e com uma ideia de dificuldade probatória. Exige-se, na verdade, que seja provável considerar, com base nas circunstâncias do caso, que o facto culposo influenciou o resultado produzido pelo sistema de IA” (Mafalda Miranda Barbosa, “Da Periferia”, pp. 769-770).
[64] Mafalda Miranda Barbosa, “Ainda o Futuro da Responsabilidade Civil pelos Danos Causados por Sistemas de IA”,
in Revista de Direito da Responsabilidade, Ano 5, 2023, pp. 362-363. A Autora destaca ainda, à luz da sua teoria do nexo de causalidade, que a determinação dos deveres que recaem sobre cada interveniente permite recortar esferas de responsabilidade, que poderão subsequentemente ser utilizadas para se estabelecer a imputação.
[65] Mafalda Miranda Barbosa, “Ainda”, pp. 338-340.
[66] Mafalda Miranda Barbosa, “Ainda”, p. 369.
[67] Joana Ribeiro de Faria, “A teoria”, p. 81.
[68] Christiane Wendehorst, “Strict Liability”, p. 170.
[69] Alexandre de Streel / Martin Peitz / Miriam Buiten,
EU liability rules in the age of Artificial Intelligence, CERRE, 2021.
[70] Herbert Zech, “Liability”, pp. 152-153. Em Espanha, cfr. Carmen Muñoz García, “Adaptar”, p. 2894 e Miquel Martín Casals, “Las propuestas”, p. 93. Ainda assim, este autor não deixa de sublinhar a importância do passo dado pelo legislador europeu com a apresentação dos documentos em causa.
[71] Opinion, EDPS, p. 6.
[72] Opinion, EDPS, pp. 7-12.
[73] A sugestão é que se acrescente uma disposição similar ao artigo 13.º, n.º 2 do Regulamento IA, que obriga os fornecedores de um sistema de alto risco a acompanharem esse serviço com instruções de utilização que incluam “informação concisa, completa, correcta, clara e que seja relevante, acessível e compreensível para os utilizadores”.
[74] “Não é necessário abranger as ações de indemnização cujo dano é causado por uma avaliação humana seguida de uma ação ou omissão humana, tendo o sistema de IA apenas prestado informações ou aconselhamento que foram tidos em conta pelo interveniente humano em causa. Neste último caso, é possível seguir o rasto do dano causado até chegar a uma ação ou omissão humana, uma vez que o resultado do sistema de IA não se interpõe entre a ação ou omissão humana e o dano, pelo que a determinação da causalidade não é mais difícil do que em situações em que não esteja envolvido um sistema de IA.”