Inteligência Artificial na Pesquisa: Ferramenta, Fraude e Responsabilidade | AcademicAI
- Jorge Guerra Pires
- há 4 dias
- 2 min de leitura

A Inteligência Artificial (IA), especialmente modelos de linguagem como o GPT, tem se tornado cada vez mais presente no ambiente acadêmico. Mas como usar essas ferramentas de forma ética? E qual a diferença entre o uso de IA e a fraude acadêmica? A discussão sobre o tema revela que a ética não está no uso da ferramenta em si, mas em como ela é utilizada.
IA como Ferramenta, Não Como Substituta da Mente Crítica
O uso da IA em tarefas mecânicas na pesquisa é comparado ao uso de softwares matemáticos por biólogos no passado. Assim como o biólogo passou a usar a matemática sem precisar ser um matemático, o pesquisador pode usar a IA para certas partes do trabalho. Por exemplo, as técnicas de processamento de linguagem natural hoje são avançadas para sumarização e resumo de textos longos. Gerar um parágrafo a partir de um texto extenso é uma capacidade bem desenvolvida.
No entanto, o ponto crucial é: a responsabilidade pelo texto e pela pesquisa é sempre do autor, não da ferramenta. Se um pesquisador usa a IA para escrever uma parte que considera "mecânica" ou para obter ideias, mas revisa o trabalho e assume a responsabilidade, não há um problema ético inerente nisso. O uso irresponsável, como copiar e colar um texto gerado pela IA sem sequer ler, é visto como uma atitude irresponsável e "grotesca".
Fraude Acadêmica é Outra Coisa
É fundamental distinguir o uso (mesmo que irresponsável) de IA da fraude acadêmica. Fraudes são ações deliberadas para enganar o processo científico. Exemplos incluem:
•
Falsificar dados ou alterar imagens.
•
Fingir ser outra pessoa ou criar e-mails falsos para se passar por revisores em um processo de peer review.
Essas ações são fraudes graves e não têm relação direta com o uso do GPT ou de outras ferramentas de IA. As consequências para quem comete fraude acadêmica são severas, incluindo perda de reputação, retratação de artigos, perda de emprego e de fomento à pesquisa.
O Perigo da Invenção de Dados pela IA
Um risco significativo ao usar IA, especialmente para tarefas que envolvem dados, é a capacidade que ela tem de inventar informações que parecem reais (alucinar). Foi relatado um caso em que uma IA inventou dados para gerar um gráfico solicitado, e os dados pareciam perfeitamente plausíveis, mesmo sendo fictícios.
Por isso, é recomendado que, ao lidar com dados, o pesquisador utilize a saída diretamente de ferramentas ou bancos de dados confiáveis, em vez de passar esses dados pela IA e pedir para ela fazer alguma análise ou representação. A IA pode alterar os dados, e como a responsabilidade final é do pesquisador, ele seria imputado pelo erro. Isso é particularmente grave em áreas como a saúde, onde um dado incorreto sobre a eficácia de um medicamento, por exemplo, pode ter consequências sérias.
A Responsabilidade é Sua
Em suma, a IA é uma ferramenta poderosa que pode auxiliar na pesquisa acadêmica, especialmente em tarefas como sumarização. No entanto, ela não isenta o pesquisador de sua responsabilidade. O uso ético e a verificação rigorosa das informações geradas pela IA são essenciais para manter a integridade da pesquisa e a reputação do autor. A responsabilidade sempre recai sobre o pesquisador.
Comments