Vítimas de danos causados por algoritmos de Inteligências Artificiais buscam garantia de reparação de danos no Brasil

Vítimas de danos causados por algoritmos de Inteligências Artificiais buscam garantia de reparação de danos no Brasil

Uma Carta Aberta [abaixo, leia a íntegra] de 25 pesos-pesados do Direito aplicado à tecnologia alerta o Senado Federal para a necessidade de mudança no projeto de lei que estabelece um marco legal para a inteligência artificial no Brasil. O documento, associado a um abaixo assinado, foca no problema com o regime de responsabilidade subjetiva previsto no texto do PL 21/20, já aprovado na Câmara.

“A referida norma contraria entendimento que vem sendo construído pela doutrina jurídica, estudos e propostas nacionais e internacionais a respeito da matéria, colocando em sério risco a possibilidade das vítimas de danos causados por Inteligências Artificiais obterem a devida reparação integral e, por consequência, comprometendo a garantia dos direitos fundamentais previstos pelos incisos V e X do artigo 5º da Constituição da República”, destaca a abaixo assinado, que vai de Ana Frazão a Rafael Zanatta.

Como está, o texto prevê, ao orientar sobre as regulamentações pelo Poder Público, que “normas sobre responsabilidade dos agentes que atuam na cadeia de desenvolvimento e operação de sistemas de inteligência artificial devem, salvo disposição legal em contrário, se pautar na responsabilidade subjetiva, levar em consideração a efetiva participação desses agentes, os danos específicos que se deseja evitar ou remediar, e como esses agentes podem demonstrar adequação às normas aplicáveis por meio de esforços razoáveis compatíveis com padrões internacionais e melhores práticas de mercado”.

Como explica o advogado e professor Danilo Doneda, um dos 25 subscritores da carta ao Senado, ao optar pela responsabilidade subjetiva o Brasil dificulta as ações que quem se sentir prejudicado por decisões tomadas com base em algoritmos, por exemplo.

“Estamos falando de uma tecnologia importante, mas que é muito complexa. Nem quem vê isso todos os dias entende totalmente como funciona. Imagine para um cidadão que foi prejudicado pelo algoritmo que excluiu ele de alguma coisa. Na responsabilidade subjetiva, para pedir indenização, tem que comprovar que houve culpa, que causou um dano que cabe reparação”, explica Doneda.

“Se usa a responsabilidade objetiva em várias situações nas quais o cidadão tem dificuldade de fazer prova, como nas relações de consumo. É difícil entender como funciona um sistema de inteligência artificial, muito mais dizer que ele foi mal projetado ou discriminatório. Como alguém vai conseguir comprovar isso? É colocar o ônus de uma demonstração impossível para quase todos.”

As informações sã do site Convergência Digital

Carta aberta de juristas ao Senado Federal contra o artigo 6º, inciso VI do PL 21-A/2020

Carta aberta ao Senado Federal

Nós, civilistas e juristas brasileiros, subescrevemos a presente carta aberta ao Senado Federal para manifestar profunda preocupação com o artigo 6º, inciso VI do Projeto de Lei 21-A/2020, que cria o Marco Legal da Inteligência Artificial no Brasil, estabelecendo a responsabilidade civil subjetiva como o regime padrão aplicável aos danos causados por sistemas de Inteligência Artificial.

A referida norma contraria entendimento que vem sendo construído pela doutrina jurídica, estudos e propostas nacionais e internacionais a respeito da matéria, colocando em sério risco a possibilidade das vítimas de danos causados por Inteligências Artificiais obterem a devida reparação integral e, por consequência, comprometendo a garantia dos direitos fundamentais previstos pelos incisos V e X do artigo 5º da Constituição da República.

A Inteligência Artificial é tema fundamental para o desenvolvimento social e econômico do país. Ao mesmo tempo, é tecnologia que, com sua complexidade inaudita e pelo próprio fato de estar ainda em pleno desenvolvimento, fase em que não é possível alcançar um nível satisfatório de previsibilidade sobre os efeitos de sua utilização, deve ser empregada em contextos que garantam um grau mínimo de risco à pessoa, garantida a reparabilidade quando necessário.

A proposta, ao contrário, ao privilegiar o regime da responsabilidade subjetiva, não somente impõe os custos do desenvolvimento de aplicações de Inteligência Artificial ao cidadão – em inversão patente da tábua de valores constitucional – como não fomenta os necessários incentivos para que as devidas medidas de precaução sejam tomadas quando do seu emprego.

Ainda, a eleição do regime de natureza subjetiva como prioritário, em abstrato, ao contrário do que se tem defendido, não favorece o ecossistema de investimentos no Brasil. A norma cria, antes, um cenário de irresponsabilização generalizada, na medida em que torna praticamente impossível a prova pelas vítimas da culpa dos agentes que atuam na cadeia de desenvolvimento e operação de sistemas de Inteligência Artificial.

Além disso, a inclusão no Projeto de Lei do §3º do artigo 6º, que prevê o regime de responsabilidade civil objetiva para os danos causados no âmbito de relações de consumo, em nada inova no ordenamento e não é capaz de atenuar o grave entrave gerado pelo inciso VI do mesmo artigo.

Diante disso, sugerimos a alteração da redação do dispositivo, nos seguintes termos:

Onde atualmente consta: “Artigo 6º: VI – responsabilidade: normas sobre responsabilidade dos agentes que atuam na cadeia de desenvolvimento e operação de sistemas de inteligência artificial devem, salvo disposição legal em contrário, se pautar na responsabilidade subjetiva, levar em consideração a efetiva participação desses agentes, os danos específicos que se deseja evitar ou remediar, e como esses agentes podem demonstrar adequação às normas aplicáveis por meio de esforços razoáveis compatíveis com padrões internacionais e melhores práticas de mercado.”

Sugerimos que passe a constar: “Artigo 6º: VI – responsabilidade: normas sobre responsabilidade dos agentes que atuam na cadeia de desenvolvimento e operação de sistemas de inteligência artificial devem, salvo disposição legal em contrário, levar em consideração a tipologia da inteligência artificial, o risco gerado e seu grau de autonomia em relação ao ser humano, além da natureza dos agentes envolvidos, a fim de se determinar, em concreto, o regime de responsabilidade civil aplicável.”

Assinam esta carta, em ordem alfabética:

Ana Frazão

Anderson Schreiber

Bruno Bioni

Bruno Miragem

Caitlin Sampaio Mulholland

Carlos Edison do Rêgo Monteiro Filho

Cristiano Chaves de Farias

Danilo Doneda

Dierle Nunes

Estela Aranha

Fabiano Menke

Filipe José Medon Affonso

Gustavo Tepedino

Guilherme Damasio Goulart

Guilherme Calmon Nogueira da Gama

Guilherme Magalhães Martins

Ingo Wolfgang Sarlet

Juliano Madalena

Laura Schertel Mendes

Lucia Maria Teixeira Ferreira

Marcos Ehrhardt Júnior

Maria Celina Bodin de Moraes

Milena Donato Oliva

Nelson Rosenvald

Rafael Zanatta

Leia também

Regulação dos Algoritmos de empresas de aplicação na internet, que bicho é esse?

China sai na frente ao definir novas regras para algoritmos de internet

União Europeia vai apresentar lei para abrir algoritmos e fiscalizar gigantes da internet

Facebook chega ao fim e agora se chama “Meta”; Mark Zuckerberg enfrenta escândalo global

YouTube e Facebook podem adotar alerta sonoro “piii” para palavras proibidas nas transmissões online