--- title: "Uso de IA na pesquisa: o que o CNPq passou a exigir" url: https://www.blog.psicometriaonline.com.br/uso-de-ia-na-pesquisa-o-que-o-cnpq-passou-a-exigir canonical: https://www.blog.psicometriaonline.com.br/uso-de-ia-na-pesquisa-o-que-o-cnpq-passou-a-exigir language: pt-BR published: 2026-04-09T12:30:29.355Z updated: 2026-04-09T12:44:59.922Z modified: 2026-04-09T12:44:59.922Z author: "Alessandro Reis" categories: ["Inteligência artificial", "Metodologia científica"] tags: ["ciência de dados", "machine learning", "vida acadêmica"] description: "Entenda como o CNPq orienta o uso de IA na pesquisa e o que isso significa para autoria, integridade e transparência." source: Blog Psicometria Online --- # Uso de IA na pesquisa: o que o CNPq passou a exigir Se você é pesquisador, orientador ou mestrando, vale prestar atenção: o CNPq passou a tratar explicitamente o uso de Inteligência Artificial dentro da política de integridade científica, publicado no dia 6 de março de 2026.  Isso importa porque o debate sobre IA na pesquisa não é só sobre *“pode ou não pode usar ChatGPT”.* É, antes de tudo, sobre **plágio, fraude, autoria, transparência e confiabilidade científica.** A leitura correta do documento é esta: **a IA não aparece como um tema isolado**, mas como parte de uma agenda mais ampla de **integridade na atividade científica**.  ## **O que o CNPq está dizendo, na prática?** Na prática, a mensagem do CNPq é simples: **usar IA não é proibido**, mas seu uso **não pode comprometer a honestidade, a rastreabilidade e a responsabilidade do pesquisador**. Isso implica três coisas para a sua pesquisa: - IA não é autora; - o uso deve ser transparente; - a responsabilidade final continua sendo humana. Ou seja, você pode usar IA como apoio para revisar texto, organizar ideias ou auxiliar em tarefas técnicas. O que você **não pode fazer** é terceirizar julgamento científico, interpretação de resultados ou responsabilidade metodológica. ![Saiba as regras](/uploads/1775737635343-435488533.png "Normas do CNPq para IA na pesquisa") ## **O que o Brasil tem em comum com outros países?** Nesse ponto, o Brasil está longe de estar sozinho. Quando se observa o que vem sendo discutido em países como **Estados Unidos, Alemanha, China, Japão** e também na **União Europeia**, aparece uma convergência bastante clara. O que todos têm em comum: **1\. IA não pode ser autora -** A autoria e a responsabilidade científica continuam sendo exclusivamente humanas. **2\. Transparência é essencial -** Se a IA foi usada, isso deve ser informado com clareza, especialmente quando influenciou a redação, análise ou revisão do trabalho. **3\. O pesquisador continua sendo o supervisor -** A IA pode apoiar, mas não substituir decisões científicas, interpretação de resultados ou validação metodológica. Alguns países, como a Alemanha, foram mais rígidos e colocaram regras sobre revisores de artigos não usarem *apenas* IA; e a China, que tornou a IA na pesquisa uma questão de soberania e desenvolvimento, inserindo uma regulamentação estatal mais detalhada. Mas, em todo caso, o consenso internacional parece ser este: IA pode ser ferramenta, mas **não pode ser tratada como um sujeito científico**. O uso responsável de IA é usar a ferramenta como apoio, sob supervisão humana, com transparência e validação crítica. Isso implica quatro deveres básicos do pesquisador: - declarar quando a IA foi usada; - revisar tudo que ela produziu; - verificar referências, dados e argumentos; - assumir responsabilidade integral pelo resultado final. Uma boa prática é criar um segmento da Metodologia com um título como “Declaração de Uso de IA”, que pode inserir textos como este exemplo ficcional: *“Na etapa de organização e exame do material textual, utilizou-se a ferramenta ChatGPT (OpenAI) como apoio instrumental ao refinamento de categorias analíticas preliminares e à estruturação inicial do corpus descritivo-interpretativo. As proposições geradas foram posteriormente avaliadas, depuradas e validadas pelos pesquisadores, não tendo a ferramenta participado de modo autônomo das decisões analíticas, da interpretação substantiva dos resultados ou da construção inferencial do estudo”.* ## ** O que isso significa para o pesquisador brasileiro?** O recado do CNPq é menos dramático do que muita gente imagina: a IA não está sendo banida da pesquisa, mas enquadrada dentro das mesmas exigências que já valem para qualquer prática científica séria. No fundo, a pergunta continua sendo a mesma de sempre: o trabalho continua sendo intelectualmente seu — ou você apenas terceirizou sua produção para uma ferramenta? Se a IA ajudar você a pensar melhor, escrever com mais clareza e revisar com mais rigor, ela pode ser uma aliada valiosa. Mas, se servir para mascarar plágio, descuido ou falsa autoria, ela se torna um problema de integridade científica. E é exatamente aí que o CNPq está colocando o debate: não no campo do entusiasmo tecnológico, mas no da responsabilidade científica. Se quiser, eu posso agora transformar isso em uma versão mais elegante e “publicável” para blog, com título mais forte, subtítulo, intertítulos mais fluidos e fechamento mais impactante. ## **Checklist de conformidade e integridade** A. Transparência - Declarei se usei IA no trabalho. - Registrei **qual ferramenta** usei. - Informei **em que etapa** usei IA. - Diferenciei uso para **apoio textual** e uso para **apoio analítico**. B. Autoria e responsabilidade - Nenhuma IA foi apresentada como autora/coautora. - Todos os autores humanos sabem como a IA foi usada. - Há um responsável humano claro por cada parte do trabalho. C. Verificação do conteúdo - Revisei todas as afirmações geradas por IA. - Conferi se as referências citadas existem de fato. - Verifiquei se a IA inventou autores, DOI, periódicos ou páginas. - Reescrevi trechos em que a IA “soava correta”, mas estava vaga. D. Método e análise - Não usei IA como substituta da interpretação científica. - Toda decisão metodológica foi tomada por humanos. - Resultados estatísticos, tabelas e códigos foram auditados. - Posso explicar o raciocínio sem depender da ferramenta. E. Ética e dados - Não inseri dados sensíveis/confidenciais em IA pública. - Não subi dados de participantes sem base ética e legal. - Avaliei risco de vazamento, retenção e reuso dos dados. - Verifiquei se o uso da IA é compatível com CEP/LGPD/instituição. F. Escrita e publicação - Revisei o texto final para evitar “estilo genérico de IA”. - Garanti que a revisão de linguagem não virou terceirização intelectual. - Chequei a política da revista, programa ou agência de fomento. - Posso declarar o uso de IA sem esconder nenhuma etapa relevante. G. Integridade científica - O uso de IA não encobriu plágio. - O uso de IA não mascarou fabricação ou manipulação de dados. - O uso de IA não criou falsa impressão de autoria original. - O uso de IA não reduziu a rastreabilidade do trabalho. Referência CONSELHO NACIONAL DE DESENVOLVIMENTO CIENTÍFICO E TECNOLÓGICO (CNPq). Portaria CNPq nº 2.664, de 6 de março de 2026. Institui a Política de Integridade na Atividade Científica do CNPq. Brasília, 2026. Disponível em: <[http://memoria2.cnpq.br/web/guest/view/-/journal\_content/56\_INSTANCE\_0oED/10157/23142775?COMPANY\_ID=10132](http://memoria2.cnpq.br/web/guest/view/-/journal_content/56_INSTANCE_0oED/10157/23142775?COMPANY_ID=10132) >. Acesso em: 09 abr. 2026. > **Como citar este artigo:** Reis, A. (2026, 9 de abril). Uso de ia na pesquisa: O que o cnpq passou a exigir. *Blog Psicometria Online*. https://www.blog.psicometriaonline.com.br/uso-de-ia-na-pesquisa-o-que-o-cnpq-passou-a-exigir