Pular para o conteúdo

Danos causados por IA: Quem responde pelas decisões automatizadas?

Banner Aleatório

IA – inteligência artificial está a cada dia mais presente nas atividades cotidianas das empresas, facilitando processos cotidianos e trazendo novas soluções para áreas internas como recursos humanos, marketing, financeiro, dentre outros.

Banner Aleatório

Apesar de serem especificamente treinadas para a execução desses afazeres, essas novas ferramentas que vêm sendo utilizadas não são à prova de erros, podendo ocasionar danos para os indivíduos afetados pelas decisões automatizadas.

Imagine que uma empresa utilize um sistema automatizado para selecionar candidatos a vagas de emprego. Enquanto toda escolha da inteligência artificial estiver ocorrendo conforme os parâmetros definidos, fala-se em: inovação, praticidade, efetividade. Contudo, basta um único erro acontecer ou algum prejuízo ser causado a alguém no processo seletivo para surgir o principal questionamento: quem deverá responder pelos danos sofridos?

No Brasil, por mais que o tema esteja em alta, com muitos debates em curso, ainda não há uma lei específica sobre inteligência artificial, tampouco sobre a responsabilidade civil por danos causados por decisões automatizadas.

Por isso, o que se tem é a aplicação das normas já existentes, como o CC, o CDC e a LGPD, que oferecem bases jurídicas sólidas para solucionar os casos concretos.

Vejamos: tratando-se de uma relação de consumo, a jurisprudência brasileira já indica a aplicação de responsabilidade objetiva, isto é, a responsabilização pelos danos causados por decisões automatizadas independe de culpa da empresa.

Entretanto, não havendo relação de consumo, adota-se outro entendimento: a aplicação da responsabilidade subjetiva, na qual se exige a comprovação de culpa ou dolo para que haja responsabilização. Assim, nesses casos, é necessário demonstrar claramente falhas técnicas ou negligência na operação da IA para que a empresa seja responsabilizada.

A LGPD também contribui para essa discussão, ao impor obrigações de transparência sobre decisões automatizadas. Assegura-se, inclusive, aos titulares de dados o direito de revisão dessas decisões, o que abre margem para que os afetados possam solicitar esclarecimentos e uma nova análise.

Outro ponto importante neste debate diz respeito aos desenvolvedores e fornecedores das tecnologias utilizadas e à sua eventual responsabilidade. A regra geral, no Brasil, é responsabilizar inicialmente quem de fato utiliza a ferramenta (a empresa que implementa e oferece o serviço com o uso de IA). No entanto, é possível a responsabilização dos desenvolvedores de forma solidária, caso fique comprovada negligência técnica, falhas graves de segurança ou até mesmo omissão de informações sobre os riscos do sistema.

Retornando ao caso da utilização de inteligência artificial em processos seletivos, imagine a seguinte situação: o sistema empregado avalia automaticamente os currículos recebidos dos candidatos para uma vaga de analista e, indevidamente, exclui alguns perfis qualificados por viés algorítmico. Quem responde por este dano causado aos candidatos excluídos?

Seguindo a jurisprudência, a responsabilidade inicial recai sobre a empresa que conduz o processo seletivo e utiliza a IA, ou seja, a empresa contratante da tecnologia. Ainda assim, é possível também responsabilizar solidariamente os desenvolvedores e fornecedores do sistema, caso se comprove algumas das situações mencionadas anteriormente. Por fim, os candidatos afetados podem requerer a revisão da decisão automatizada, com base na LGPD.

Superada esta etapa inicial sobre a responsabilização, surge um novo desafio: como as empresas podem continuar inovando em seus processos com o uso de inteligência artificial e, ao mesmo tempo, se protegerem dos riscos envolvidos?

Transparência e accountability são as palavras-chave nesse contexto. Empresas que adotam soluções baseadas em IA vêm promovendo auditorias algorítmicas regulares, incluindo elaboração e revisão de sua documentação, em seus sistemas utilizados, bem como mantendo comunicação a todos os envolvidos sobre o uso de ferramentas deste tipo, como uma forma de boa prática.

No Brasil, está em tramitação no Congresso o PL 2.338/23, que dispõe sobre o uso de inteligência artificial e avança neste tema, propondo responsabilidades específicas para desenvolvedores, fornecedores e usuários de sistemas automatizados, especialmente em casos considerados de alto risco. Este debate acompanha um movimento internacional pela regulação da IA, como verifica-se na União Europeia e nos Estados Unidos.

Apesar de uma legislação específica ainda não existir no Brasil, é possível notar o empenho de juristas e especialistas em tecnologia na busca por assegurar uma maior proteção às vítimas de sistemas automatizados, diante de erros ou abusos.

O debate sobre responsabilidade civil por danos causados por inteligência artificial é crítico, mas não é o único em torno da crescente utilização de IA nas tarefas cotidianas. É indispensável este constante diálogo entre empresas, desenvolvedores, órgãos reguladores, pesquisadores e a sociedade como um todo, para que possamos avançar tecnologicamente, porém com responsabilidade.

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *