Uma conversa sobre inteligência artificial na academia: seria ético usar a IA em trabalhos acadêmicos?
- Jorge Guerra Pires
- há 5 dias
- 12 min de leitura
Atualizado: há 4 dias

Vamos conversar sobre o uso da IA no mundo acadêmico. No final, vamos mostrar alguns exemplos.

A Revolução da IA na Pesquisa: Oportunidades, Dilemas e o Futuro da Escrita Acadêmica
A ascensão dos modelos de linguagem, popularizados pelo ChatGPT, desencadeou uma enxurrada de novas ferramentas de inteligência artificial (IA) que chegam a ser assustadoras pela sua quantidade e rápida evolução para quem não é da área. Essas ferramentas estão começando a impactar profundamente diversas áreas, incluindo o universo acadêmico e a pesquisa científica.
Nossa conversa explorou as nuances dessa revolução, destacando como a IA pode se tornar uma aliada poderosa, mas também apresentando desafios éticos e dilemas sobre o futuro do trabalho do pesquisador e da própria escrita acadêmica.
Modelos de IA: Do Baseado em Conhecimento ao Probabilístico
Historicamente, os chatbots (um precursor dos modelos de linguagem atuais) eram baseados em conhecimento, ou seja, funcionavam mais por regras predefinidas e modelagem manual de fluxos conversacionais. Joseph Weizenbaum desenvolveu o ELIZA em 1960, um dos primeiros exemplos, que usava regras simples de decomposição e recomposição da entrada do usuário. Essa abordagem evoluiu com o uso de XML e ontologias.
Com o surgimento de modelos como o GPT e, posteriormente, o ChatGPT, a abordagem probabilística ganhou enorme importância. Diferentemente dos modelos baseados em regras, que aprendem de forma mais lógica e estruturada (como com o uso de RDF e inferências), os modelos probabilísticos como os LLMs (Large Language Models) aprendem por meio de um treinamento custoso e demorado, não aprendendo com a interação em tempo real como os modelos mais antigos podiam fazer. Eles fazem inferências a partir da entrada do usuário com base nesse treinamento massivo.
Inicialmente, houve resistência na academia a essa abordagem probabilística, com uma linha de pensamento preferindo os modelos baseados em conhecimento. Mesmo pesquisadores que são early adopters de tecnologia, como o Giseldo na nossa conversa, admitiram ter tido resistência inicial ao ChatGPT. No entanto, a crítica acadêmica e do senso comum é vista como necessária para o desenvolvimento dos modelos, transformando críticas em potenciais novas funcionalidades a serem pesquisadas.
Oportunidades: A IA como Ferramenta para Acelerar a Ciência
Um ponto central da discussão é que a IA, e especificamente os LLMs, podem ser vistos como ferramentas para melhorar a eficiência do método científico. A ideia não é que a IA pense pelo pesquisador, mas que auxilie em tarefas que, embora necessárias, podem ser demoradas ou mecânicas.
Comparar o uso da IA com o uso de ferramentas estatísticas como o Excel para analisar dados numéricos ajuda a ilustrar essa perspectiva. O Excel trabalha com números, a IA trabalha com texto. Assim como usar o Excel para fazer regressões não é antiético, usar a IA para certas tarefas textuais não deveria ser, desde que a responsabilidade seja do pesquisador.
Diversas tarefas na pesquisa podem ser auxiliadas pela IA:
•
Revisão da Literatura: Encontrar artigos científicos relevantes (estado da arte) é um primeiro e crucial passo na pesquisa. Bases de busca tradicionais como I3E, Web of Science, Scopus e Springer exigem sintaxes de busca específicas. Ferramentas baseadas em GPTs, como Sace, Consensus, Elicit e Reference Wiz (do Academic AI), facilitam essa busca interpretando a linguagem natural da consulta e buscando em múltiplas bases, incluindo pré-prints, o que é essencial em áreas de rápida mudança. Essas ferramentas também podem gerar resumos (TLDRs) dos artigos encontrados, embora o pesquisador deva ler os originais. O Google Acadêmico também começou a oferecer funcionalidades de resumo de métodos e resultados.
•
Escrita Científica: A IA pode auxiliar na correção gramatical e na formatação de textos, inclusive em linguagens como LaTeX, muito usada em ciências exatas. Ferramentas como Writefull (integrado ao Overleaf) e plugins para editores como VS Code (como Copilot) podem sugerir correções e gerar trechos de código ou texto, acelerando o processo. Embora muitas dessas ferramentas mais refinadas sejam pagas, é possível realizar tarefas similares (copiar e colar) usando versões gratuitas de LLMs ou até modelos rodando localmente. A IA também pode ajudar a superar barreiras linguísticas, tornando o processo de publicação em línguas estrangeiras mais acessível.
•
Análise de Dados: Ferramentas como o Sheit Chat do Academic AI visam ajudar pesquisadores (como médicos sem conhecimento estatístico aprofundado) a analisar dados e gerar anotações, funcionando como um "Excel inteligente".
•
Geração de Rascunhos: Ferramentas como o Side Gen (Academic AI) podem pegar anotações geradas durante a revisão da literatura ou análise de dados e criar um rascunho de artigo. A ênfase, no entanto, é que isso deve ser usado como rascunho, não como o texto final a ser copiado e publicado.
A possibilidade de rodar modelos de linguagem localmente, sem depender de internet ou pagar assinaturas (embora com custos de energia e hardware), também amplia o acesso a essa tecnologia para alguns usos.
Desafios e Dilemas: Ética, Responsabilidade e Plágio
Apesar das oportunidades, o uso da IA na academia levanta sérias questões éticas. A principal delas é a responsabilidade. Ficou claro na nossa conversa que, mesmo usando ferramentas de IA, a responsabilidade final pelo conteúdo e pela integridade da pesquisa recai sempre sobre o pesquisador/autor, e não sobre a ferramenta.
•
Alucinações e Erros: Modelos de linguagem podem inventar dados ou informações que parecem reais, o que é chamado de alucinação. É crucial que o pesquisador revise criticamente o conteúdo gerado pela IA, verificando as informações e, se possível, perguntando à ferramenta de onde ela tirou os dados. Isso é especialmente crítico em áreas como a saúde, onde um erro pode ter consequências graves.
•
Fraude Acadêmica: A fraude acadêmica (como falsificar dados ou imagens, ou fingir ser outro revisor) é um problema independente do uso da IA. A IA, no entanto, pode ser usada como uma ferramenta para cometer fraude, como no caso da imagem do rato adulterada ou da publicação de texto copiado diretamente do ChatGPT. O uso antiético da IA não tem a ver com a ferramenta em si, mas com a intenção e ação do usuário.
•
Plágio e Autoria: A questão da posse do texto gerado por um LLM ainda está em discussão. Embora os termos de uso de alguns modelos digam que o usuário é o dono do texto gerado, isso é complexo, pois os modelos foram treinados em textos com direitos autorais, e podem gerar conteúdo que já existe. Copiar texto do ChatGPT e usá-lo sem a devida citação (se o texto já existir em outras fontes) pode configurar plágio. Já há consenso na maioria dos periódicos de que o ChatGPT ou outros modelos de IA não podem ser listados como autores de um artigo, pois não têm responsabilidade.
•
Resistência e Adoção: Ainda existe uma certa resistência na academia ao uso da IA, comparada à resistência que houve no passado com o uso de computadores ou bases de dados online. Essa resistência é esperada, mas a tendência é que essas ferramentas se tornem cada vez mais comuns.
O Futuro da Pesquisa e da Escrita Acadêmica
A revolução dos modelos de linguagem sugere um futuro onde a IA estará cada vez mais integrada ao fluxo de trabalho do pesquisador.
•
Mudança no Papel do Pesquisador: O trabalho do pesquisador pode evoluir, com a IA assumindo tarefas mais mecânicas, permitindo que os acadêmicos se concentrem mais no pensamento crítico, na conexão de ideias e na formulação de novas perguntas de pesquisa.
•
Aceleração da Produção Científica: Ferramentas de IA podem acelerar processos como a revisão da literatura e a escrita, potencialmente aumentando o número de publicações. No entanto, isso também pode levar a um aumento na exigência de qualidade nas publicações.
•
Ferramentas Integradas: A tendência é o surgimento de ferramentas que integrem diversas funcionalidades, desde a busca e análise de literatura até a geração de rascunhos e a edição de texto em formatos específicos como LaTeX.
•
Desafio Contínuo da Ética: À medida que as ferramentas evoluem, as discussões éticas e as diretrizes para seu uso precisarão ser continuamente revistas e refinadas.
Em suma, a inteligência artificial não é apenas uma novidade no mundo acadêmico; ela é uma força transformadora com potencial para aumentar significativamente a eficiência e a produtividade na pesquisa. No entanto, sua adoção exige responsabilidade, rigor ético e uma compreensão clara de suas limitações. O futuro da pesquisa e da escrita acadêmica passará necessariamente pela incorporação dessas ferramentas, redefinindo o papel do pesquisador e a forma como a ciência é feita.
Uma Conversa sobre a Revolução das IAs: Impacto e Uso no Ambiente Acadêmico
Data: Sábado, em horário de almoço. (Originalmente planejado para sexta-feira)
Participantes:
Jorge: Apresentador, host do podcast, autor do livro "Redes Neurais em Termos Simples" e "Academic AI", pesquisador em bioinformática (doutorado).
Giseldo: Convidado, professor de informática em um Instituto Federal em Alagoas, doutorando em Ciência da Computação (engenharia de software com aprendizagem de máquina, processamento de linguagem natural, chatbots).
Visão Geral: A conversa explora a "revolução" impulsionada por modelos de linguagem como o ChatGPT e a proliferação de ferramentas de IA. O foco principal recai sobre o uso dessas IAs no contexto acadêmico, abordando desde a revisão da literatura e a escrita científica até as discussões éticas e a resistência institucional. A discussão é descontraída, mas aprofundada, com os participantes compartilhando experiências pessoais e visões sobre o futuro da pesquisa com IA.
Principais Temas e Ideias:
A Proliferação de Modelos de IA e a Velocidade da Mudança:
A revolução do ChatGPT e outros modelos de linguagem (LLMs) gerou uma "enxurrada de modelos diferentes".
A quantidade e a velocidade de evolução desses modelos são "assustadoras para quem não é do campo de inteligência artificial".
Giseldo: Tem "brincado muito com essas ferramentas", "testado", "verificado", trazendo "coisas interessantes".
Modelos de Linguagem: Baseados em Conhecimento vs. Probabilísticos:
Discussão sobre as duas principais abordagens no desenvolvimento de chatbots e LLMs.
Modelos Baseados em Conhecimento (ou Regras): Mais tradicionais, baseados em regras pré-definidas ("se isso, então aquilo"), conhecimento "modelado e interpretado pelo computador". Exemplos históricos incluem ELIZA (1960) e a linguagem AIML (1980s).
Giseldo: "Ainda há casos de uso em que os chatbots tradicionais (...) são bastante úteis no sentido de atender a necessidade do usuário."
O aprendizado nesses modelos pode ocorrer por inferência a partir de uma base de conhecimento estruturada (ex: RDF).
Modelos Probabilísticos (ex: GPT): Ganharam destaque após o GPT-2, baseados em estatísticas e padrões nos dados de treinamento.
Giseldo: Após o GPT-2, essa abordagem "ganhou muita importância".
O aprendizado (retreinamento) é um processo "custoso" e demorado.
A diferença na aprendizagem: LLMs "têm dificuldade de aprender com a interação", eles fazem inferências "a partir da entrada do usuário". Modelos baseados em regras podem aprender durante o diálogo com o usuário.
O Impacto dos LLMs na Pesquisa Acadêmica e a Resistência Institucional:
A velocidade da mudança é tão grande que artigos científicos podem ficar "desatualizados de certa forma" rapidamente.
A introdução dos LLMs trouxe a capacidade de "chamar funções" (function calling), expandindo suas capacidades além de apenas conversar.
Jorge: Menciona seu livro "Academic AI", publicado no início do ChatGPT, e a "muita confusão" e "certa resistência" no grupo da CAPES ao compartilhar artigos sobre o tema. Ele foi "criticado" e "apanhou muito".
Comparação do impacto da IA na academia com a introdução de calculadoras e computadores, que mudaram o papel do doutorando (anteriormente uma "calculadora humana").
Muitas atividades acadêmicas que exigem "habilidade mecânica" (vs. intelectual) podem ser auxiliadas pela IA.
Jorge: "Aquele acadêmico que ah eu não quero usar inteligência artificial vai ser um tiro no pé."
Giseldo: Confirma a resistência na academia, inclusive citando a experiência com seu orientador de mestrado que preferiu a abordagem baseada em conhecimento antes do "barulhão" do GPT-3.5.
A "crítica acadêmica" é "necessária para desenvolver os modelos", transformando críticas em "recurso uma feature nova a ser estudada e pesquisada".
Giseldo: Confessa ter sido resistente inicialmente ao GPT, comparando com a resistência a revisores de língua para seus papers. No entanto, decidiu "abraçar 100% da abordagem" para entender seu potencial.
Pesquisas sugerem que alunos usando ChatGPT para aprender em ensino fundamental/médio "aprenderam bem mais".
O foco não é pedir ao ChatGPT para "gerar o meu texto" (isso não é ciência), mas usá-lo para "auxiliar em várias outras etapas".
Ética e Responsabilidade no Uso Acadêmico da IA:
Distinção entre "habilidade intelectual" e "habilidade mecânica" (Jorge).
Usar IA para "habilidade mecânica" (ex: formatar resumo, revisar gramática) não é antiético.
Jorge: "O antiético seria você... usar inticial e e que já aconteceu (...) a saída do chat BT né igualzinho assim os caras tirou e jogou".
O problema não é o uso da ferramenta, mas como ela é usada e se há responsabilidade.
Jorge: Compara o uso de IA com o uso de Excel para análises estatísticas por biólogos/médicos: "a diferença é que o Excel trabalha com números e o chat BT trabalha com texto".
Giseldo: "A responsabilidade pelo texto ele é do autor, ele não é da ferramenta."
Casos de fraude acadêmica (falsificar dados, fingir ser revisor) "não tem nada a ver os AGPT e fraude são duas coisas diferentes", mas a responsabilidade sempre recai sobre o pesquisador.
Giseldo: Critica a atitude "irresponsável" e "infantil" de pegar texto do GPT "cola do jeito que tá e nem lê".
Alucinações ou erros do modelo (ex: inventar dados para gráficos): o pesquisador "vai ser imputável ali pelo erro".
Giseldo: "O uso responsável da ferramenta".
Comparação com modelos matemáticos na medicina: se o modelo erra, o médico é responsável. Da mesma forma, o pesquisador é responsável se o LLM comete um erro no seu trabalho.
Dicas: "leia com atenção", "não não deixe de usar os modelos por preconceito, mas leia", "se você vê uma coisa bizarra lá pergunte o modelo de onde você tirou isso", "confira isso para mim mais de uma vez".
A regra de que o ChatGPT não pode ser listado como autor em periódicos científicos é "recente".
Direitos Autorais e Plágio:
Discussão sobre quem detém os direitos autorais do texto gerado por LLMs.
LLMs são treinados e acessam textos com direitos autorais, mas nem sempre citam a fonte.
Nos termos de uso do GPT, "se você gerou o texto daqui você é o dono" (com ressalvas).
Giseldo: Atualmente, "estamos na na numa zona de que se eu gero um texto com GPT eu posso atribuir esse texto à minha autoria por enquanto". Isso está em discussão, mas "está caminhando para que eu possa usar esse texto, esse texto é de minha autoria".
Plágio tradicional: copiar texto de outros pesquisadores sem citar. Isso é "senso comum".
Plágio com IA: usar texto gerado por GPT como seu. Isso "está ainda nessa indecisão", mas Giseldo acredita que o texto gerado é de autoria do usuário.
Caso de Siraj Raval: usou GPT-2 para gerar fundamentação teórica, citou a fonte original, mas foi criticado e "cancelado" porque o texto gerado era ruim e foi visto como plágio/mau uso.
Ferramentas de IA para o Mundo Acadêmico:
Apresentação de ferramentas que utilizam LLMs para auxiliar em tarefas acadêmicas, especialmente na revisão da literatura e escrita científica.
Revisão da Literatura (Estado da Arte):Tradicionalmente feita manualmente, buscando em bases de dados como IEEEXplore, Web of Science, Scopus, Springer. Cada base tem sintaxes de busca diferentes.
Ferramentas baseadas em GPTs (Giseldo):
Saice: Busca artigos por palavras-chave ou texto corrido, usa GPT para gerar resumos ("TLDR"), extrair conclusões, métodos, limitações. Pode exportar resumos.
Consensus: Muito parecido com Saice, elogiado por Jorge. Está investindo em seus próprios LLMs.
Elicit: Outra ferramenta mencionada na mesma linha.
Reference Whiz (Academic AI): Ferramenta de Jorge que busca em bases e pré-prints (Semantic Scholar, Google Scholar), incluindo IEEEXplore. Faz resumo dos resumos. Jorge nota dificuldade com artigos em português devido às bases usadas (sugere integração com Periódicos da CAPES).
Pré-prints: Importantes para áreas de rápida evolução (IA, LLMs). Plataformas como bioRxiv, arXiv. Jorge menciona o Kills, uma plataforma de revisão aberta (peer review público).
Escrita Científica:Uso de editores como Microsoft Word ou LaTeX.
LaTeX: linguagem de formatação para documentos científicos. Exige curva de aprendizado, mas automatiza formatação. Ferramentas como Overleaf (online, colaborativo, versão gratuita e paga) e Visual Studio Code com plugins (offline, gratuito).
Integração de LLMs na escrita (Giseldo):
Gerar código LaTeX simples a partir do ChatGPT ou Grok.
Grock (xAI): Diferencial por ter um compilador LaTeX embutido, gerando PDFs com layout mais avançado que o ChatGPT (que usa Python para PDFs). Permite editar o documento conversando em linguagem natural.
Writefull: Plugin de LLM integrado ao Overleaf (pago) ou Visual Studio Code (pago via Copilot), que auxilia na escrita, revisão gramatical, autocompletar, etc. Usa modelos nativos para inglês, mas suporta outras línguas.
Visual Studio Code + Copilot/Plugins: Permite usar LLMs offline ou via API para auxiliar na edição de LaTeX, gerar texto, corrigir gramática. O Copilot é gratuito para estudantes.
Chatbots locais (ex: Ollama com modelos Gema, Deepseek, Llama): Permite rodar LLMs no próprio computador, gratuitamente (exceto custo de hardware/energia), sem necessidade de internet.
Citegen (Academic AI): Ferramenta de Jorge que gera rascunhos de artigos a partir de anotações (geradas pelo Chitchat, uma ferramenta de análise de dados tipo "Excel inteligente") em formato LaTeX. O objetivo é criar um rascunho para o pesquisador trabalhar, não um texto final pronto.
Ferramentas de correção gramatical gratuitas como LanguageTool e extensões de browser da Microsoft.
Concordâncias e Discordâncias:
Concordância geral sobre o potencial da IA para aumentar a produtividade na pesquisa.
Concordância sobre a necessidade de responsabilidade do pesquisador pelo texto final.
Discordância (amigável): Jorge defende que o uso de ferramentas como Excel para números é análogo ao uso de IA para texto em termos metodológicos. Giseldo concorda em parte, mas diverge no nível de terceirização de atividades cognitivas que ele se sente confortável em fazer ("eu particularmente eu não terceirizo esse tipo de atividade cognitiva ainda para a ferramenta, mas é uma questão pessoal").
Discordância (amigável): Discussão sobre a "religiosidade" do LaTeX. Jorge vê alguns professores "empurrando" a ferramenta. Giseldo a defende fortemente pelo ganho de eficiência e diz que só trabalha com LaTeX, mas reconhece que é uma escolha pessoal e que não se deve criticar quem usa outras ferramentas. Discordância sobre a necessidade de saber Linux para quem trabalha com informática (Giseldo: sim, Jorge: discorda, conversa para outra live).
Futuras Discussões:
Demonstrações mais detalhadas das ferramentas apresentadas.
Rodar modelos LLM localmente (Giseldo propõe apresentar umas quatro ferramentas).
Edição de texto com LLMs em LaTeX (daria uma aula).
Geração de imagem e vídeo com IA.
Foco em recursos gratuitos.
O debate sobre Linux.
Conclusão da Live (Sumarizada): A live iniciou discutindo a ética do uso de IA na academia, chegando à conclusão (pelo menos entre os participantes) de que o uso ético depende da responsabilidade do pesquisador e de como a ferramenta é utilizada (ferramenta de auxílio vs. gerador de texto final sem revisão). Na segunda parte, foram apresentadas diversas ferramentas que integram LLMs para auxiliar em tarefas como revisão da literatura e escrita científica, mostrando opções pagas e gratuitas/locais. A conversa destacou a rápida evolução da área e a necessidade de a academia se adaptar, superando resistências iniciais. Novos tópicos para lives futuras foram propostos para explorar as ferramentas e discussões éticas em maior profundidade.
Observações Adicionais:
A conversa foi marcada por alguns problemas técnicos (cortes de áudio, latência), o que foi notado e gerenciado pelos participantes.
O ambiente era de um sábado, horário de almoço, com ruído de fundo (vizinhos), o que limitou a duração e a profundidade em alguns momentos.
A experiência pessoal dos participantes (pesquisa, ensino) enriqueceu a discussão.
Comentarios