Um novo espaço de análise, reflexão e pluralidade no
debate público sobre o sistema de justiça criminal








Com os avanços tecnológicos recentes, a inteligência artificial (IA) passou a ocupar espaço relevante em diversas áreas profissionais, incluindo o Poder Judiciário e a investigação criminal. No âmbito processual penal, tais ferramentas apresentam potencial de modernização, seja pela otimização de fluxos de trabalho, seja pela ampliação do acesso e da organização de dados. Contudo, o mesmo aparato tecnológico que pode contribuir para a justiça criminal também traz riscos significativos, sobretudo quanto à manipulação e à adulteração de provas digitais.
Em ano eleitoral, esse risco assume contornos ainda mais sensíveis. Imagine-se, por exemplo, a divulgação massiva, nas redes sociais, de vídeos adulterados por IA nos quais candidatos a cargo eletivo aparentemente proferem declarações ofensivas, praticam atos ilícitos ou assumem posições políticas que jamais manifestaram. Tais conteúdos sintéticos (conhecidos como “deepfakes”) são produzidos por sistemas de IA capazes de reproduzir, com elevado grau de verossimilhança, áudios, imagens e vídeos falsos, tornando extremamente difícil, ao observador comum, distinguir o material autêntico do manipulado.
A eventual inserção de um vídeo dessa natureza em investigação criminal ou mesmo em ação penal, como suposta prova de determinado fato, compromete a confiabilidade do acervo probatório e desafia diretamente a garantia do devido processo legal. Além disso, pode induzir à formação de narrativas artificiais, influenciar a opinião pública, macular a imagem do(a) candidato(a) e dificultar o exercício efetivo da ampla defesa e do contraditório.
Nesse contexto, o presente texto busca compreender como são produzidos os chamados deepfakes e quais são suas implicações para a formação da prova no processo penal, especialmente diante da crescente digitalização das relações sociais.
Como ponto de partida, as deepfakes podem ser compreendidas como conteúdos audiovisuais sintéticos produzidos por técnicas de aprendizado de máquina, especialmente por meio de modelos generativos treinados com grandes volumes de dados para simular padrões de fala, movimentos faciais e expressões corporais.
Nesse sentido, Hancock e Bailenson (2021) explicam que os algoritmos de Generative Adversarial Networks (GANs) aprendem a mapear formatos de boca a partir de áudios e, posteriormente, integram esses padrões a vídeos pré-existentes, produzindo gravações altamente realistas de pessoas dizendo algo que jamais disseram. A própria arquitetura dessas redes, estruturada como uma disputa entre geradores e detectores, faz com que os sistemas de falsificação evoluam continuamente para superar os mecanismos de identificação, configurando uma espécie de “corrida armamentista” tecnológica.
No plano epistemológico, o impacto das deepfakes é particularmente sensível no campo penal. Isso porque o vídeo, historicamente, ocupou a posição de “padrão-ouro” da verdade no campo social, pois, devido à dominância cognitiva da informação visual, as pessoas tendem a atribuir maior credibilidade a conteúdos audiovisuais do que a relatos meramente verbais (Hancock; Bailenson, 2021, p. 2). Esse fenômeno, associado à chamada realism heuristic, implica que conteúdos visuais enganosos podem produzir percepções falsas com maior facilidade do que textos ou áudios isolados. No contexto penal, isso significa que vídeos manipulados podem influenciar investigações, decisões cautelares e até julgamentos, afetando a formação da convicção judicial e do tribunal do júri.
Ao mesmo tempo, surge aquilo que a literatura denomina “ameaça epistêmica” das deepfakes. Fallis (2020) sustenta que a proliferação dessas tecnologias compromete a capacidade social de aquisição de conhecimento a partir de mídias audiovisuais, pois mesmo provas autênticas passam a ser objeto de suspeita generalizada. Em termos penais, isso produz um duplo risco: de um lado, a possibilidade de condenações injustas baseadas em provas manipuladas; de outro, a fragilização de provas legítimas, quando acusados passam a alegar que registros autênticos seriam “deepfakes”, explorando a dúvida tecnológica para afastar responsabilidade.
Os impactos também se manifestam na esfera dos crimes contra a dignidade sexual e contra a honra. Hancock e Bailenson (2021) destacam que uma das primeiras e mais disseminadas aplicações das deepfakes foi a pornografia não consensual, em que rostos de vítimas são inseridos em vídeos sexuais inexistentes, com efeitos potencialmente devastadores sobre reputação, identidade e vida social. Tal prática pode configurar, a depender do ordenamento jurídico, crimes de difamação, injúria, perseguição, extorsão ou mesmo delitos relacionados à violência de gênero.
Ademais, as deepfakes são frequentemente percebidas como instrumentos capazes de produzir desinformação em contextos eleitorais, ao permitir que figuras públicas sejam retratadas dizendo “qualquer coisa”. Ainda que os autores advertem contra uma visão alarmista que trate as deepfakes como ruptura absoluta, eles reconhecem que tais tecnologias intensificam tensões já existentes quanto a confiança pública, legitimidade democrática e objetividade das imagens (Jacobsen; Simpson, 2023). Em matéria penal, isso pode implicar investigações relacionadas a crimes eleitorais, abuso de poder informacional ou atentados à integridade do processo democrático.
Assim, a resposta institucional tem se concentrado na lógica da detecção algorítmica, isto é, no desenvolvimento de sistemas capazes de atribuir probabilidades de manipulação a determinados conteúdos (Jacobsen; Simpson, 2023). Contudo, os próprios autores problematizam essa abordagem, ao indicar que a definição do que conta como “real” ou “falso” passa a ser mediada por grandes plataformas tecnológicas, que se tornam árbitras da reconhecibilidade social. Tal cenário projeta desafios relevantes ao processo penal, especialmente quanto à cadeia de custódia da prova digital, à necessidade de perícias técnicas especializadas e à redefinição de standards probatórios diante da manipulação sintética de imagens e sons.
Assim, a literatura estrangeira converge no sentido de que as deepfakes não representam apenas um problema tecnológico, mas um fenômeno com implicações diretas sobre confiança pública, responsabilidade penal, produção de prova e proteção de bens jurídicos fundamentais, exigindo revisão crítica dos instrumentos jurídicos tradicionais frente à nova arquitetura da desinformação digital.
A cadeia de custódia da prova digital, especialmente após a introdução dos arts. 158-A a 158-F do CPP pela Lei 13.964/2019, passou a ser concebida como o “conjunto de todos os procedimentos utilizados para manter e documentar a história cronológica do vestígio” desde o reconhecimento até o descarte (Brasil, 1941).
Nesse sentido, a cadeia de custódia representa uma sequência concatenada de atos destinados a preservar a integridade, a confiabilidade e a legalidade da prova (Lopes Jr., 2025), constituindo verdadeiro pressuposto de admissibilidade da prova digital no processo penal (Vaz, 2023). Sua finalidade central é assegurar autenticidade, integridade e rastreabilidade, evitando que o vestígio seja alterado, corrompido ou manipulado ao longo do percurso processual (Brasil, 2025).
Todavia, a especificidade da prova digital impõe desafios adicionais. Diferentemente da prova física tradicional, os dados eletrônicos são marcados por volatilidade, fragilidade e extrema facilidade de manipulação (Lima, 2020). O próprio STJ, ao rejeitar prints de WhatsApp coletados sem metodologia forense, destacou que a manipulação de dados digitais pode ocorrer de forma imperceptível, comprometendo sua confiabilidade quando ausentes laudo técnico e documentação formal das etapas de extração e preservação (Badaró, 2024). Nesse cenário, ferramentas como Cellebrite e Verifact, aliadas a registros em blockchain e ao uso de IA para análise de metadados e detecção de alterações, são apontadas como mecanismos aptos a reforçar a integridade e a auditabilidade das evidências (Neves; Rosa, 2026).
Entretanto, há um ponto crítico que tensiona os atuais padrões de confiabilidade: a cadeia de custódia assegura a integridade do arquivo enquanto objeto digital, mas não necessariamente a veracidade do seu conteúdo. Como adverte a literatura, não é possível garantir completamente a veracidade de uma prova digital por nenhum meio disponível atualmente, diante das múltiplas possibilidades de fraude e da fluidez do conteúdo digital. A tecnologia blockchain, por exemplo, preserva o hash do documento (sua “impressão digital”) garantindo que o arquivo não foi alterado após o registro (Petroni, 2020), mas não impede que o conteúdo já tenha sido previamente manipulado antes da preservação.
É justamente nesse ponto que o fenômeno das deepfakes agrava o problema probatório. Deepfakes são imagens, áudios ou vídeos produzidos por algoritmos de aprendizagem profunda, capazes de gerar conteúdos verossímeis sem mediação humana direta, utilizando extensos bancos de dados para simular movimentos faciais, voz e expressões de pessoas reais (Beiguelman, 2020). Não se trata de mera edição ou montagem tradicional, mas de produção sintética algorítmica, com elevado grau de realismo.
Assim, é plenamente concebível que um indivíduo produza um vídeo sintético no qual “aparece ostentando”, por exemplo armas e drogas, publique-o na internet, e posteriormente esse arquivo seja regularmente coletado pela autoridade policial, submetido a extração forense, geração de hash e registro formal de todas as etapas da cadeia de custódia.
Nessa hipótese, ter-se-ia uma prova formalmente íntegra (com cadeia de custódia preservada, documentação técnica e rastreabilidade assegurada), mas materialmente falsa quanto ao seu conteúdo. A cadeia de custódia garantiria que o arquivo apresentado em juízo é o mesmo coletado, mas não que aquilo que ele retrata corresponde a um fato real. Como a própria doutrina reconhece, a preservação da cadeia de custódia é condição de confiabilidade e licitude, mas sua violação (ou observância) repercute sobretudo na autenticidade formal da prova, não necessariamente em sua correspondência com a realidade fática (Cunha, 2020).
Diante disso, os atuais padrões de confiabilidade probatória mostram-se potencialmente insuficientes frente as deepfakes. A ênfase tradicional na integridade do suporte (arquivo, dispositivo, metadados, hash) precisa ser complementada por mecanismos técnicos capazes de aferir a autenticidade semântica do conteúdo, tarefa que, paradoxalmente, pode demandar o uso de sistemas de IA para detecção de manipulações (Neves; Rosa, 2026). Ainda assim, permanece o desafio epistêmico: se a tecnologia de geração sintética evolui em ritmo acelerado, a defesa poderá encontrar enormes dificuldades práticas e econômicas para demonstrar que o conteúdo é artificial, sobretudo quando a cadeia de custódia foi formalmente respeitada.
Em síntese, embora a cadeia de custódia (nos moldes dos arts. 158-A a 158-F do CPP) represente avanço significativo na proteção da integridade probatória, a ascensão das deepfakes impõe uma releitura crítica do conceito de confiabilidade. A preservação da cronologia do vestígio garante que o arquivo não foi adulterado após sua coleta; contudo, não resolve, por si só, o problema da falsidade originária do conteúdo digital. O desafio contemporâneo do processo penal passa, portanto, da mera integridade técnica do suporte à verificação substancial da autenticidade do fato representado, sob pena de se admitir como juridicamente “válida” uma prova formalmente íntegra, mas materialmente falsa.
À guisa de conclusão, a análise desenvolvida permite sustentar que a cadeia de custódia, tal como atualmente estruturada nos arts. 158-A a 158-F do CPP, cumpre função essencial de preservação da integridade formal do vestígio digital, mas revela-se insuficiente para enfrentar o desafio qualitativamente distinto representado pelas deepfakes. O modelo vigente preocupa-se, legitimamente, com a rastreabilidade, a documentação e a imutabilidade do arquivo; contudo, como visto, não pode assegurar que determinado vídeo é o mesmo que foi coletado e armazenado, sem oferecer garantias de que o conteúdo ali representado corresponda a um fato real.
Nesse contexto, impõe-se reconhecer, no plano processual, que a mera regularidade da cadeia de custódia não esgota o exame da confiabilidade probatória quando se trata de conteúdos audiovisuais potencialmente sintéticos. A superação desse déficit pode exigir a institucionalização de perícias técnicas voltadas especificamente à verificação da autenticidade material do conteúdo digital. Algo análogo, em termos estruturais, às perícias grafotécnicas, que não se limitam à preservação formal do documento, mas buscam aferir sua autoria e veracidade intrínseca. Em outras palavras, além da análise da integridade do suporte (hash, metadados, logs de extração), seria necessário avançar para exames técnicos capazes de detectar inconsistências algorítmicas, padrões sintéticos ou indícios de manipulação invisíveis ao olhar humano.
Paralelamente, torna-se prudente problematizar o estatuto quase intuitivo do vídeo como “padrão-ouro” probatório. Em um ambiente tecnológico no qual imagens e áudios podem ser gerados artificialmente com elevado grau de verossimilhança, a simples existência de um vídeo em que o acusado “aparece” praticando determinada conduta não deveria, por si só, satisfazer o standard probatório mínimo exigido para uma condenação. A tendência deve ser a de exigir corroboração externa, contextual e independente, especialmente quando a imputação se apoia de modo decisivo em conteúdo audiovisual digital.
Essas propostas não pretendem oferecer respostas definitivas, mas antes sinalizar a necessidade de uma inflexão crítica no tratamento das provas digitais no processo penal contemporâneo. A consolidação de novos parâmetros periciais e a revisão do peso epistêmico atribuído ao vídeo como meio de prova demandam amadurecimento doutrinário, desenvolvimento tecnológico e reflexão jurisprudencial. O debate permanece em aberto, e talvez deva permanecer, como condição necessária para que o processo penal continue apto a equilibrar inovação tecnológica, segurança jurídica e garantias fundamentais.
BADARÓ, Gustavo Henrique Righi Ivahy. Os standards metodológicos de produção na prova digital e a importância da cadeia de custódia. Boletim IBCCRIM, São Paulo, v. 29, n. 343, p. 7-9, 2024. Disponível em: https://publicacoes.ibccrim.org.br/index.php/boletim_1993/article/view/1325. Acesso em: Acesso em: 21 fev. 2026.
BEIGUELMAN, Giselle. As verdades dos deepfakes. Revista Zum, v. 10, n. 18, p. 50-58, 2020. Disponível em: https://revistazum.com.br/wp-content/uploads/2020/07/ZUM18_v2.pdf. Acesso em: Acesso em: 21 fev. 2026.
BRASIL. Superior Tribunal de Justiça. Informativo de Jurisprudência, n. 869, 4 nov. 2025. Disponível em: https://processo.stj.jus.br/docs_internet/informativos/PDF/Inf0869.pdf. Acesso em: Acesso em: 21 fev. 2026.
CUNHA, Rogério Sanches. Pacote anticrime: Lei 13.964/2019 – comentários às alterações no CP, CPP e LEP. Salvador: JusPodivm, 2020.
FALLIS, Don. The epistemic threat of deepfakes. Philosophy & Technology, v. 34, n. 4, p. 623-643, 2021. https://doi.org/10.1007/s13347-020-00419-2
HANCOCK, Jeffrey T.; BAILENSON, Jeremy N. The social impact of deepfakes. Cyberpsychology, Behavior, and Social Networking, v. 24, n. 3, p. 149-152, 2021. https://doi.org/10.1089/cyber.2021.29208.jth
JACOBSEN, Benjamin N.; SIMPSON, Jill. The tensions of deepfakes. Information, communication & society, v. 27, n. 6, p. 1095-1109, 2023. https://doi.org/10.1080/1369118x.2023.2234980
LIMA. Renato Brasileiro de. Manual de Processo Penal: volume único. 8. ed. rev. ampl e atual. Salvador: JusPodivm, 2020.
LOPES JR., Aury. Direito processual penal. 18. ed. São Paulo: Saraiva Educação, 2025.
NEVES, Luiz Gabriel Batista; ROSA, Hiuston César dos Santos. Tecnologia e prova digital: desafios e propostas para a cadeia de custódia no Judiciário. Boletim IBCCRIM, São Paulo, v. 34, n. 398, p. 28-31, 2026. Disponível em: https://publicacoes.ibccrim.org.br/index.php/boletim_1993/article/view/2654. Acesso em: 21 fev. 2026.
PETRONI, Benedito Cristiano aparecido. Aplicação de smart contracts no controle e na otimização de cadeia de custódia de evidências digitais baseados na plataforma blockchain. 2020. Tese (Doutorado) – Universidade Paulista, São Paulo, 2020. Disponível em: https://repositorio.unip.br/engenharia-dissertacoes-teses/aplicacao-de-smart-contracts-no-controle-e-na-otimizacao-de-cadeia-de-custodia-de-evidencias-digitais-baseados-na-plataforma-blockchain/. Acesso em: 21 fev. 2026.
VAZ, Millena Ferreira. A preservação da cadeia de custódia como pressuposto de admissibilidade da prova digital. Revista da ESMESC, v. 30, n. 36, p. 323-350, 2023. https://doi.org/10.14295/revistadaesmesc.v30i36.p323
Como citar: SOARES, Eduardo Junges Amaral. Deepfakes e processo penal: estamos preparados para a utilização da Inteligência Artificial na produção probatória? Jornal de Ciências Criminais do IBCCRIM, 24 fev. 2026. Disponível em: https://jcc.ibccrim.org.br/artigos/deepfakes-e-processo-penal/. Acesso em: 24 fev. 2026.