
Por Alan Bousso* — Veículos autônomos, embarcações com navegação assistida por algoritmos, sistemas de decisão automatizada e ferramentas preditivas estão cada vez mais presentes na sociedade contemporânea. O que ainda não está plenamente consolidado, contudo, é o regime jurídico aplicável aos danos eventualmente causados por tais sistemas.
A responsabilidade civil sempre teve como principal finalidade reparar danos e recompor o equilíbrio jurídico. O modelo tradicional estrutura-se sobre elementos conhecidos: conduta, dano, nexo causal e, conforme o caso, culpa. Entretanto, quando a ação danosa decorre de um sistema autônomo que opera por meio de algoritmos complexos, a identificação desses elementos torna-se mais desafiadora. A quem atribuir a responsabilidade quando um veículo autônomo provoca um acidente? Ao proprietário? Ao fabricante? Ao desenvolvedor do software? Ao operador que supervisionava o sistema? Ou a todos, de forma solidária?
A ausência de parâmetros claros compromete a previsibilidade das decisões judiciais e gera insegurança tanto para as vítimas quanto para os agentes econômicos envolvidos na cadeia tecnológica. O direito não pode permanecer alheio a esse cenário. A inovação exige adaptação normativa proporcional ao grau de risco que introduz na sociedade.
O ordenamento jurídico brasileiro já dispõe de instrumentos relevantes. O Código Civil prevê a responsabilidade objetiva nos casos de atividade de risco. O Código de Defesa do Consumidor estabelece a responsabilidade objetiva do fornecedor por defeito do produto ou do serviço. Tais dispositivos oferecem fundamentos importantes para a solução de casos concretos envolvendo inteligência artificial. Contudo, a especificidade dos sistemas autônomos recomenda tratamento mais detalhado e sistematizado.
Projetos legislativos em discussão no país, como o que trata do marco regulatório da inteligência artificial, propõem diretrizes relevantes. Entre elas, destacam-se a classificação de sistemas de IA segundo o nível de risco, a previsão de responsabilidade objetiva para aplicações de alto risco e a possibilidade de inversão do ônus da prova em favor da vítima, quando houver hipossuficiência técnica ou excessiva dificuldade de comprovação. Essas propostas caminham no sentido correto: reconhecer que, quanto maior o grau de autonomia e potencial lesivo da tecnologia, maior deve ser o dever de cautela e de responsabilidade de quem a desenvolve ou a adota.
A previsibilidade jurídica não é um obstáculo à inovação; ao contrário, é condição para que ela se desenvolva de maneira sustentável. Com regras claras, empresas que investem em tecnologia podem dimensionar riscos, estruturar contratos, contratar seguros e implementar protocolos de governança. Já usuários e consumidores precisam ter garantias efetivas de que eventual dano será reparado.
Não se trata de condenar a inteligência artificial, mas de reconhecer que toda inovação capaz de afetar direitos fundamentais — como a vida, a integridade física e o patrimônio — deve estar inserida em arcabouço normativo coerente.
Outro ponto relevante é a transparência. Sistemas de IA frequentemente operam por meio de processos decisórios pouco compreensíveis ao usuário comum. A opacidade algorítmica dificulta a identificação de falhas e a comprovação do nexo causal. Por isso, além da definição do regime de responsabilidade, é indispensável que a legislação imponha deveres de informação, rastreabilidade e documentação técnica.
A discussão sobre responsabilidade civil por danos causados por IA não deve ser conduzida apenas no âmbito acadêmico ou jurisprudencial. É matéria que exige debate público amplo e participação de especialistas, operadores do Direito, setor produtivo e sociedade civil. A construção de parâmetros normativos claros permitirá harmonizar inovação e proteção jurídica, evitando decisões casuísticas e divergentes.
Em última análise, o que está em jogo é a própria credibilidade do sistema jurídico diante da transformação tecnológica. A sociedade não pode ser colocada em posição de incerteza permanente quanto à reparação de danos decorrentes de sistemas que ela própria é incentivada a utilizar. A inteligência artificial continuará a evoluir. O direito deve fazer o mesmo.
Advogado e mestre em direito pela PUC-SP*
Saiba Mais

Direito e Justiça
Direito e Justiça
Direito e Justiça
Direito e Justiça