Um novo espaço de análise, reflexão e pluralidade no
debate público sobre o sistema de justiça criminal








Ética em pesquisa científica: autoria e os limites do uso da inteligência artificial como ferramenta na produção acadêmica
O avanço do desenvolvimento de ferramentas de inteligência artificial (IA) generativa tem impactado de maneira significativa o ambiente acadêmico, influenciando não só a forma como estudantes pesquisam e escrevem, mas a maneira como docentes avaliam, orientam e compreendem a autoria intelectual. Em pouco tempo, uma série de sistemas capazes de produzir textos, organizar argumentos, resumir bibliografia e até mesmo sugerir hipóteses se tornaram extremamente acessíveis.
Esse cenário produziu um movimento duplo nas universidades: de um lado, o entusiasmo diante das possibilidades de automatização e ganho de eficiência; de outro, a inquietação quanto aos riscos para a integridade científica, para a formação intelectual dos pesquisadores e para a própria ética na pesquisa. Entre os alunos, há uma preocupação constante sobre o que é permitido, o que é vedado e quais limites devem ser observados. Quanto aos professores, surgem dúvidas acerca dos limites de uso por parte dos alunos, bem como em relação à forma de avaliação quando uma ferramenta de IA é utilizada. A ausência inicial de parâmetros claros gera receio em relação às sanções e, paradoxalmente, ao uso inadequado também por falta de orientação institucional.
A ética em pesquisa tem em sua base pilares como ineditismo, independência de autoria, responsabilidade intelectual, transparência metodológica, conferência de dados e reprodutibilidade. A introdução da IA tensiona cada um desses elementos, pois permite delegar à máquina tarefas que antes exigiam esforço cognitivo próprio. Se a produção acadêmica pressupõe o desenvolvimento de raciocínio crítico, a capacidade argumentativa e a autonomia intelectual, o uso indiscriminado dessas ferramentas pode deslocar o processo formativo para uma lógica de “terceirização do pensamento” que, neste caso, se torna acrítico. Lembremos que a IA não consegue refletir sobre uma situação, ela tão somente estrutura argumentos a partir de uma sequência lógica pré-estabelecida pelo algoritmo.
Nesse cenário, cresce a necessidade de estabelecer limites e controles institucionais, não com o objetivo de proibir a tecnologia, mas de preservar as bases principiológicas da atividade científica. A regulamentação interna surge como mecanismo de proteção da integridade acadêmica e de orientação para um uso responsável, evitando tanto uma permissividade absoluta, quanto a proibição inviável.
Recentemente, a UFF[1], a UFBA[2], a UFOP[3], a UFCE[4], a UNESP[5], a UNESPAR[6], a UNICAMP[7], a UFG[8] a UFMG[9] publicaram documentos que orientam o uso responsável da IA no ambiente acadêmico. Esses regramentos institucionais revelam que o Brasil atravessa um período de construção descentralizada dessas normas. Não existe uma diretriz nacional única e cada universidade tem elaborado suas próprias políticas, algumas por meio de guias orientadores, outras por resoluções e portarias com caráter mais vinculante. No entanto, conforme notícias divulgadas[10] recentemente, o Conselho Nacional de Educação vem discutindo regras para o uso da IA em escolas e universidades e a intenção é que o texto seja votado em março de 2026.
Esse modelo fragmentado permite respostas adaptadas às especificidades de cada instituição e área do conhecimento, embora possua uma série de questionamentos acerca de uma parametrização mínima e compartilhada no âmbito acadêmico nacional. Ao analisar as diferentes iniciativas, identifica-se que as universidades admitem o uso da IA tão somente como ferramenta auxiliar, jamais como substituta da atividade intelectual própria. A responsabilidade pela integridade do trabalho permanece exclusivamente humana, ainda que a tecnologia seja utilizada como apoio.
Dessa forma, as diretrizes institucionais têm enfatizado princípios como transparência no uso das ferramentas, responsabilidade autoral e avaliação crítica dos resultados gerados pelos sistemas automatizados. Orienta-se a declaração de quais recursos foram utilizados, em que etapas da pesquisa e com qual finalidade, garantindo a rastreabilidade metodológica. Além disso, o/a autor/a deve assegurar a veracidade das informações e evitar plágio, fabricação ou distorção de dados. Há também preocupação com vieses, com a limitações dos softwares e com a possibilidade de reprodução de desinformação ou discriminação algorítmica, exigindo revisão crítica permanente das informações produzidas.
Outro eixo de preocupação é a proteção dos dados e do material de pesquisa. As universidades alertam para os riscos de inserir informações sensíveis em plataformas externas, especialmente quando envolvem dados de participantes de pesquisa ou conteúdos inéditos que possam comprometer o caráter original do trabalho. A própria criatividade acadêmica é tratada como competência a ser desenvolvida e não substituída. É recomendado que as ferramentas de IA sejam utilizadas prioritariamente para tarefas mecânicas ou organizacionais, enquanto a elaboração de hipóteses, argumentação e interpretação permaneçam sob responsabilidade do(a) pesquisador(a).
Algumas universidades adotaram regulamentações ainda mais detalhadas, estabelecendo permissões e vedações específicas. A Universidade Federal do Ceará, por exemplo, permite o uso de IA apenas como suporte auxiliar e desde que formalmente declarado, sendo expressamente vedado (i) gerar conteúdo original, interpretações ou análises críticas, (ii) redigir seções substantivas do trabalho (métodos inéditos, testagens, resultados, discussão e conclusões), (iii) fabricar, alterar, manipular ou “embelezar” dados, resultados, imagens ou gráficos; (iv) inserir referências não verificadas ou mascarar plágio e (v) produzir material não declarado em desacordo com as normas da portaria. No entanto, admite o uso para revisão linguística, organização estrutural do texto e apoio à clareza redacional, desde que o conteúdo intelectual permaneça de autoria humana.
A implementação dessas regras envolve desafios operacionais relevantes, pois não basta editar normas, é necessário construir mecanismos de controle e fomentar uma cultura institucional de integridade. Esse movimento é refletido a partir da exigência de declarações formais de uso de IA, da necessidade de relatórios de similaridade textual e da explicação acerca das ferramentas utilizadas ao longo do processo de pesquisa. Medidas como essas buscam demonstrar a importância de tomada de consciência e de autorresponsabilidade por parte dos/das autores/as, incentivando a transparência em vez da ocultação. Ao mesmo tempo, os programas de pós-graduação são orientados a explicitar em seus planos de ensino quais modalidades de uso são admitidas ou proibidas, prevenindo ambiguidades e conflitos interpretativos.
O debate também envolve dimensões éticas relacionadas ao respeito à comunidade acadêmica. O uso indevido de IA pode ser interpretado como desrespeito ao trabalho docente, que pressupõe avaliação da produção intelectual genuína do estudante, bem como aos colegas, que competem em condições de igualdade acadêmica. Além disso, pode comprometer a reputação institucional e a confiança social na pesquisa científica. Quando títulos acadêmicos passam a ser obtidos sem o correspondente desenvolvimento das competências de pesquisa, cria-se uma dissonância entre certificação formal e capacidade real, enfraquecendo o sistema de produção do conhecimento.
Há também uma consequência a nível de formação que merece atenção especial. A pesquisa acadêmica não pode ser vista apenas como um produto a ser entregue para obter um título. Trata-se de um processo de aprendizagem que envolve tentativa, erro, leitura crítica e amadurecimento intelectual. Delegar as tarefas que são inerentes às etapas de construção do conhecimento para sistemas automatizados pode ter como consequência pesquisadores que detém um título avançado, mas sem qualquer domínio das técnicas metodológicas e argumentativas que sustentam a ciência. Ou seja, habilidades indispensáveis para o bom desenvolvimento científico, como criatividade, elaboração de raciocínios e exploração de hipóteses podem ser subdesenvolvidas pelo uso acrítico dessas tecnologias.
Além disso, algumas universidades desenvolveram políticas mais amplas de integridade acadêmica, incluindo procedimentos para caracterização e sanção de plágio e má conduta científica. A Universidade Federal Fluminense, por exemplo,
“entende como inadmissível a conduta e o uso ilícito de qualquer mecanismo ou tecnologia, seja com ou sem IA, que viole a integridade acadêmica, gere injustiças, desigualdades ou exclusões de qualquer grupo, contribua para prejuízo cognitivo no processo de aprendizagem, viole os direitos fundamentais dos indivíduos e/ou grupos”[11].
Esse movimento demonstra que a preocupação não se restringe à tecnologia em si, mas à preservação dos valores que estruturam a produção do conhecimento. A IA apenas torna mais visíveis problemas já existentes, como autoria indevida, fraude intelectual e superficialidade metodológica, exigindo respostas institucionais mais robustas.
Apesar das tensões, entende-se que a proibição absoluta seria ineficaz e contraproducente. A tecnologia está integrada à vida universitária e ao cotidiano social, sendo utilizada no ensino, na pesquisa e para atividades administrativas. O objetivo, portanto, não deve ser a proibição do uso, mas compreender o funcionamento, as potenciais colaborações e os riscos decorrentes das falhas, a fim de extrair os benefícios e mitigar quaisquer efeitos negativos. A IA é uma realidade inevitável e o seu desenvolvimento contínuo exige reflexão crítica permanente pela comunidade acadêmica e atualização constante das orientações universitárias.
Além disso, é preciso reconhecer que a IA tem sido utilizada para ampliar a capacidade analítica da pesquisa empírica, especialmente na análise de grandes bases de dados públicos sobre, por exemplo, encarceramento, tráfico de drogas e decisões judiciais. Algumas técnicas são empregadas para identificar padrões decisórios, assimetrias regionais e possíveis vieses institucionais em volumes expressivos de acórdãos que seriam inviáveis de examinar manualmente. Nesses casos, a IA não substitui a interpretação jurídica, mas funciona como ferramenta estatística de triagem, que organiza e detecta padrões, além de fortalecer a transparência e a reprodutibilidade da pesquisa.
Nesse contexto, a ética em pesquisa assume uma função orientadora essencial. Não se trata apenas de estabelecer regras formais, mas de promover uma cultura de responsabilidade intelectual que reconheça a tecnologia como instrumento e não como substituto do pensamento humano. O desafio é equilibrar inovação tecnológica e rigor científico, garantindo que os projetos de pesquisa desenvolvidos no âmbito das universidades brasileira não percam a autonomia crítica inerente à ciência, a honestidade intelectual e o compromisso com a reprodutibilidade dos dados.
Dessa forma, o uso da IA no ambiente acadêmico não deve ser entendido nos extremos, seja de aceitação ou rejeição. Proibir completamente o uso das novas tecnologias significa ignorar o curso do desenvolvimento científico e tecnológico, além de privar as universidades e os alunos da implementação de ferramentas potencialmente úteis para organização, acessibilidade e análise de informações. No entanto, permitir o uso de maneira irrestrita, sem qualquer forma de controle e orientação, poderá impactar negativamente a formação de pesquisadores e a credibilidade da produção científica.
A resposta para esse dilema reclama a construção de parâmetros éticos claros, objetivos e transparentes, que passam por revisões periódicas e que são capazes de preservar a autonomia humana no processo de pesquisa. O desafio consiste em incorporar a tecnologia sem abdicar dos fundamentos científicos. A IA pode até ser capaz de ampliar algumas capacidades, mas jamais conseguirá substituir aquilo que tem de mais humano: a emoção que atravessa a reflexão e a responsabilidade intelectual que define o fazer científico.
[1] Disponível em: https://posling-uff.com.br/wp-content/uploads/2025/11/Guia-para-o-uso-de-IA-Generativa.pdf Acesso em: 2 mar. 2026.
[2] Disponível em: https://ufba.br/sites/portal.ufba.br/files/guia_para_uso_etico_e_responsavel_da_inteligencia_artificial_generativa_na_universidade_federal_da_bahia.pdf Acesso em: 2 mar. 2026.
[3] Disponível em: https://www.soc.ufop.br/public/files/RESOLUCAO_CONPEP_144.pdf Acesso em: 2 mar. 2026.
[4] Disponível em: https://prppg.ufc.br/wp-content/uploads/2025/09/sei-23067.053369-2025-11.pdf Acesso em: 2 mar. 2026.
[5] Disponível em: https://www.doe.sp.gov.br/executivo/universidade-estadual-paulista/resolucao-unesp-n-13-de-22-de-abril-de-2025-20250515114532201079255 Acesso em: 2 mar. 2026.
[6] Disponível em: https://understandingai.iea.usp.br/wp-content/uploads/2026/01/instrucao-normativa-conjunta-no-001-2025-unespar1.pdf Acesso em: 2 mar. 2026.
[7] Disponível em: https://prg.unicamp.br/wp-content/uploads/sites/42/2025/02/Orientacoes-para-Uso-Responsavel-de-IA.pdf Acesso em: 2 mar. 2026.
[8] Disponível em: https://files.cercomp.ufg.br/weby/up/680/o/Guia_de_integridade_acadêmica_-_2024_-_com_alterações.pdf Acesso em: 2 mar. 2026.
[9] Disponível em: https://wwwufmg-hml.dti.ufmg.br/ia/wp-content/uploads/2024/09/Uso-de-Ferramentas-de-IA-na-UFMG.pdf Acesso em: 2 mar. 2026.
[10] Disponível em: https://g1.globo.com/jornal-nacional/noticia/2026/02/23/conselho-nacional-de-educacao-discute-regras-para-o-uso-da-ia-em-escolas-e-universidades.ghtml e https://www.gov.br/mec/pt-br/assuntos/noticias/2026/fevereiro/mec-aborda-uso-responsavel-de-ia-em-cupula-global Acesso em: 2 mar. 2026.
[11] Disponível em: https://posling-uff.com.br/wp-content/uploads/2025/11/Guia-para-o-uso-de-IA-Generativa.pdf Acesso em: 2 mar. 2026.
Como citar: AMARAL, Maria Eduarda Azambuja. Ética em pesquisa científica: autoria e os limites do uso da inteligência artificial como ferramenta na produção acadêmica. Jornal de Ciências Criminais do IBCCRIM, 23 mar. 2026. Disponível em: https://jcc.ibccrim.org.br/mulheres-advogadas/etica-em-pesquisa-cientifica-autoria-e-os-limites-do-uso-da-inteligencia-artificial-como-ferramenta-na-producao-academica. Acesso em: 23 mar. 2026.
Esta obra é disponibilizada sob a licença Creative Commons Atribuição 4.0 Internacional (CC BY 4.0), permitindo uso, compartilhamento, adaptação e finalidade comercial, desde que seja dado crédito adequado ao autor.
Maria Eduarda Azambuja Amaral (instagram: @amaralmea) Professora do PPG em Direito Constitucional (mestrado/doutorado) e da Graduação em Direito do Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP/DF). Doutora em Ciências Criminais pela PUCRS, com pós-doutoramento na USP e na PUCRS. Especialista em Perícia Criminal e Ciências Forenses (IPOG), em Direito Processual Penal (CEI/CERS) e em Direito Probatório no Processo Penal (ESMAFE/PR). Advogada.
Encontrou um erro?
Nos ajude a melhorar! Envie sua correção abaixo 👇