O avanço exponencial da tecnologia, especialmente da inteligência artificial (IA), transformou profundamente as relações sociais e institucionais. Com isso, surgiram não apenas soluções inovadoras, mas também novos riscos sociais secundários — muitos deles ainda sem resposta nos marcos tradicionais do Direito Penal.
Dentre estes riscos, destaca-se o uso da IA por organizações criminosas. Essas utilizam algoritmos e sistemas autônomos para otimizar e sofisticar suas ações ilícitas, desafiando os critérios clássicos de Direito Penal.
Este breve texto analisa a possibilidade – e os limites – de responsabilização penal da IA e seus agentes diante de resultados delitivos. Partindo da constatação de que a IA atual não possui consciência, tampouco intencionalidade genuína, conclui-se que tais sistemas não podem ser tratados como sujeitos de direitos. Isto porque a ação penalmente relevante exige intencionalidade, elemento ausente na inteligência artificial.
Contudo, o uso criminoso da IA por seres humanos, seja por meio de programação dolosa, omissão ou manipulação indevida dos sistemas, pode ensejar responsabilização penal dos envolvidos, conforme os critérios tradicionais da dogmática penal. Nesse contexto, é a conduta humana – e não a da máquina – que deve ser objeto de análise à luz dos princípios da culpabilidade e da vedação à responsabilidade objetiva, sendo a IA mero instrumento para consecução do resultado.
A inteligência artificial, tal como hoje concebida, opera em um plano simbólico-sintático e carece da dimensão semântica que caracteriza a intencionalidade humana. Logo, ainda que atue de forma autônoma, a IA não “compreende” o conteúdo de suas ações, o que impede a sua responsabilização criminal direta.
Em tais casos, a ausência de ação penalmente relevante inviabiliza a intervenção do Direito Penal, pela simples falta de ação. Em analogia, não há responsabilidade penal quando um raio atinge um indivíduo ou quando uma árvore cai naturalmente e atinge um ser humano. Isso porque, esses são fatos da vida, desprovidos de qualquer intencionalidade e significação social, tal qual a inteligência artificial, que eventualmente produz resultado delitivo agindo de maneira imprevisível e inevitável.
Existe possibilidade de responsabilidade criminal em razão de resultados antijurídicos atingidos pela máquina. Entretanto, somente quando esta possui algum vício de programação ou mau uso do agente de inteligência artificial. Para os casos em que a máquina atua de forma autônoma, atingindo resultados imprevisíveis e inevitáveis, não há falar em ação penalmente relevante, de modo a se tornar impossível a responsabilização criminal, em um modelo a racional de Direito Penal.
_
Autor: Renato Dilly Campos
Rua Yvon Magalhães Pinto, 615, 8º andar | São Bento
Belo Horizonte | MG | CEP 30350.560 | Tel. (31) 3527.5800
SHS Quadra 6, Brasil 21, Bloco A, sala 501
Brasília | DF | CEP 70316.102 | Tel. (61) 2193.1283
Rua Bandeira Paulista, 726, 17º andar | Itaim Bibi
São Paulo | SP | CEP 04532.002 | Tel. (11) 3056.2110
Avenida das Flores, 945, 10º andar
Jardim Cuiabá | Cuiabá | MT | CEP 78043.172
Av. Wilson Alvarenga, 1.059, sala 601 | Carneirinhos
João Monlevade | MG | CEP 35930.001 | Tel. (31) 3193.0191