A responsabilidade civil e os produtos com inteligência artificial

Aqueles que abrem mão da liberdade essencial por um pouco de segurança temporária não merecem nem liberdade nem segurança.
Benjamin Franklin

O uso de inteligência artificial (IA) está disseminado em todas as atividades humanas. Instituições financeiras empregam IA para recomendar aplicações aos investidores, as pessoas conduzem seus veículos guiadas por aplicativos, médicos realizam diagnósticos e cirurgias apoiados por tecnologias que empregam IA. Contudo, é notório que a IA pode falhar e as falhas podem causar danos às pessoas. São muitas as possíveis falhas, desde reconhecimentos faciais equivocados, até cálculos de progressão discriminatórios de regime de apenados.

Apesar da ampla aplicação da IA, o Direito tem demorado para regulamentá-la de forma específica. Nos Estados Unidos, por exemplo, no precedente Jones v. W + M Automation, Inc., a New York’s Appellate Division rejeitou uma ação indenizatória decorrente de defeito do produto contra um fabricante e programador de um sistema de carregamento robótico1. Pela decisão, os réus não foram considerados responsáveis pelos ferimentos da vítima na fábrica da General Motors (GM) onde ele trabalhava, porque esses réus mostraram que fabricaram peças de componentes sem qualquer defeito. Como o robô – e o software associado – foram considerados seguros, as empresas não foram consideradas responsáveis pelo danos do demandante. Contudo, foi esclarecido que a GM, usuária final do robô, ainda poderia ser responsável por modificar indevidamente o equipamento.

A consequência que pode ser extraída nos EUA e que também se aplica ao Brasil em decorrência da disciplina do Código de Defesa do Consumidor (CDC) brasileiro é que os fabricantes do software/hardware, com ou sem emprego de IA ou similares, não são responsáveis por lesões que surjam de softwares ou híbridos (hardware/software) se esses produtos não apresentem defeitos. Produtos que empreguem IA, que sejam caracterizados como defeituosos – seja na produção ou na modificação -, e que causem danos às pessoas, entretanto, podem gerar responsabilidade civil do produtor e do fornecedor em geral.

Nessa linha, como é cediço no Brasil, a análise para a caracterização do defeito de softwares ou híbridos que empreguem IA, seja na produção, seja na modificação, como em outros casos de responsabilidade pelo fato do produto, dependerá do estado da arte ou de padrões regulatórios vigentes no momento  da colocação do produto em circulação.

Nos EUA, recentemente, a Federal Trade Commission (FTC) apresentou diretrizes sobre a regulamentação da IA recomendando que aqueles que empregam IA que afete o bem-estar do consumidor o façam de forma “transparente”, pois a falta de transparência ou informação pode determinar a aplicação Section (5)(a) of the FTC Act, que estabelece que atos ou práticas desleais ou enganosas no comércio são considerados ilícitos e, assim, podem gerar a responsabilidade dos infratores. Nesse sentido, o FTC publicou em 19 de abril de 2021 o texto Aiming for truth, fairness, and equity in your company’s use of AI no qual, as empresas que empregam IA são instadas a atuar com total transparência e responsabilidade (accountability) sob pena de estarem sujeitas às sanções respectivas.2

A União Europeia (UE), em 2019, publicou o guia de responsabilidade civil por IA no qual estabelece que a responsabilidade civil objetiva do produtor deve desempenhar um papel fundamental na indenização dos danos causados por produtos defeituosos e seus componentes, independentemente de eles assumirem uma forma tangível ou digital. Fica manifesta a recomendação de aplicação da responsabilidade objetiva especial centrada na análise do defeito dos produtos.3 A UE publicou, ainda, o White Paper on Artificial Intelligence: a European approach to excellence and trust apresentando requisitos adicionais de conformidade, exigindo maior accountability , principalmente,  por aplicações de IA de alto risco”4. Ademais, cumpre salientar a conclusão do Civil liability regime for artificial intelligence – European added value assessment  no sentido de que a fragmentação e incerteza relacionadas às disposições de responsabilidade aplicáveis nos Estados-Membros da UE frente à ausência de uma abordagem comum podem gerar: i) incentivos negativos para inovação e difusão de sistemas de IA e; ii) custos excessivos para os consumidores.5

No Brasil, como referido, a responsabilidade pelo fato do produto é objetiva especial, tendo por critério de imputação a existência de defeito (falha na segurança legitimamente esperada) ou a falta de informação, nos termos do CDC.

Recentemente, entretanto, a Câmara dos Deputados aprovou o Projeto de Lei 21/20 que cria o marco legal do desenvolvimento e uso da IA pelo poder público, por empresas, entidades diversas e pessoas físicas. O referido projeto, ainda pendente de aprovação no Senado Federal, determina princípios, direitos, deveres e instrumentos de governança para a IA. Com relação à responsabilidade civil, o texto original não parece apresentar um regime específico de responsabilidade. No art. 6º, VI, é definido o objetivo de “responsabilização e prestação de contas”, conhecido pela expressão accountability da língua inglesa, exigindo a demonstração da licitude e da adoção de medidas de bom funcionamento dos sistemas que usem IA6. Por conseguinte, o projeto, pelo menos no seu texto original, não parece alterar o regime já existente de responsabilidade civil de fornecedores de produtos com IA. Na linha dos guias recentes americanos e europeus, parece tão-somente estabelecer um acréscimo no regime da responsabilidade civil no uso da IA ao definir o princípio da accountability na normatização do fenômeno.7

Quanto à racionalidade inerente a essa forma especial de responsabilidade civil objetiva centrada nos deveres de segurança e informação, nos termos da teoria da justiça que fundamenta a tradição do direito privado desde a sua origem, cabe destacar a prevalência da justiça comutativa em detrimento da justiça distributiva, pois apenas diante do defeito (falha na segurança) ou da falta ao dever de informação haverá responsabilidade.

Revelam-se acertadas, portanto, até o momento, as opções de disciplina do tema nos EUA, UE e Brasil. A responsabilidade centrada nos deveres de segurança e informação preservam a justiça no seu aspecto privado, não oneram irracionalmente o emprego de tecnologia tão importante no mundo contemporâneo e criam os corretos incentivos para o investimento em segurança e informação.

Uma disciplina com base na responsabilidade subjetiva (culposa) se revelaria pouco protetiva das pessoas. Outrossim, uma disciplina da responsabilidade civil centrada no risco da atividade limitaria o uso tão importante dessa tecnologia e geraria um tratamento uniforme de bons e maus fornecedores, desincentivando investimentos em segurança e informação. A disciplina da responsabilidade civil para o uso da IA deve buscar de maneira proporcional a garantia de segurança e informação, mas sem descuidar da preservação da liberdade e do  bem-estar das seres humanos.

____________

1 THOMAS E. JONES et al., Respondents-Appellants, v. W + M AUTOMATION, INC., et al., Appellants-Respondents, TRI-TEC CONTROLS, INC., et al., Respondents, et al., Defendants. Appellate Division of the Supreme Court of the State of New York, Fourth Department. July 7, 2006. Acesso: https://h2o.law.harvard.edu/cases/5775

2 JILLSON, Elisa. Aiming for truth, fairness, and equity in your company’s use of AI. Acesso: https://www.ftc.gov/news-events/blogs/business-blog/2021/04/aiming-truth-fairness-equity-your-companys-use-ai

3 Liability for artificial intelligence and other emerging digital technologies. Acesso: https://op.europa.eu/en/publication-detail/-/publication/1c5e30be-1197-11ea-8c1f-01aa75ed71a1/language-en

4 White Paper on Artificial Intelligence: a European approach to excellence and trust. Acesso: https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf

5 Civil liability regime for artificial intelligence European added value assessment. Acesso: https://www.europarl.europa.eu/thinktank/en/document.html?reference=eprs_stu(2020)654178

6 Importante ressaltar, entretanto, que, diferentemente do texto original, o texto do art. 6º, VI do projeto aprovado na Câmara dos Deputados (pendente de deliberação no Senado) prevê que “normas sobre responsabilidade dos agentes que atuam na cadeia de desenvolvimento e operação de sistemas de inteligência artificial devem, salvo disposição legal em contrário, se pautar na responsabilidade subjetiva”. Tal previsão de um regime de responsabilidade civil centrado na culpa, como salientado no presente artigo, não se mostra adequado aos melhores regimes de responsabilidade civil pelo fato do produto na tradição brasileira e internacional. Definir a responsabilidade civil baseada na culpa dos agentes, na prática, significa inviabilizar – ou ao menos dificultar de maneira significativa – o ressarcimentos do danos causados às pessoas em virtude da dificuldade de prova de culpa num contexto marcado por tecnologia que avança exponencialmente.”

7 Em sentido similar, tratando da responsabilidade civil na Lei Geral de Proteção de Dados, vide a análise sobre accountability de Nelson Rosenvald: ROSENVALD, Nelson. A polissemia da responsabilidade civil na LGPD. Acesso:

https://www.migalhas.com.br/coluna/migalhas-de-protecao-de-dados/336002/a-polissemia-da-responsabilidade-civil-na-lgpd

Disponível em: Migalhas