Pesquisa e Inteligência Artificial: desafios, oportunidades e dilemas | AcademicAI
- Jorge Guerra Pires
- há 4 dias
- 3 min de leitura

Nesta conversa, dois pesquisadores discutem a evolução e o impacto dos chatbots e modelos de linguagem grande (LLMs) como o ChatGPT, particularmente no âmbito acadêmico. Eles contrastam os modelos mais antigos, baseados em regras e conhecimento, com os LLMs modernos, que utilizam abordagens probabilísticas. A conversa explora as oportunidades que a IA oferece para pesquisa e produtividade acadêmica, como a aceleração da revisão de literatura e a análise de dados. Uma parte significativa do diálogo aborda os desafios éticos e a resistência inicial na academia em relação ao uso da IA, incluindo a responsabilidade do pesquisador pelo conteúdo gerado e a distinção entre plágio e o uso da IA como ferramenta. Eles concordam que a IA pode ser uma ferramenta poderosa se usada de forma ética, comparando-a a outras ferramentas como o Excel, mas enfatizam que o uso irresponsável pode levar a fraudes e danos à reputação.
Abaixo alguns trechos da conversa.
Direitos autorias e plágio
O vídeo discute os desafios relacionados a direitos autorais e plágio na era da inteligência artificial, especialmente com ferramentas como o ChatGPT. Aborda a questão de quem detém os direitos sobre textos gerados por IA, considerando que essas ferramentas são treinadas com vastos conteúdos possivelmente protegidos por direitos autorais e muitas vezes não citam fontes. É mencionada a controvérsia do "uso justo" de textos para treinamento de IAs e um caso de uso indevido de GPT-2 em um trabalho acadêmico que resultou em sérias consequências para o autor. O narrador compartilha sua perspectiva sobre a resistência ao uso de IA na produção textual e a decisão pessoal de declarar o uso de IA em seus trabalhos, apesar do receio de desvalorização.
Seria possível responsabilizar a IA?
O trecho discute as implicações do uso de Inteligência Artificial (IA) em pesquisa científica, com foco na responsabilidade. A analogia é feita com modelos matemáticos na medicina, onde o médico é o responsável pelo uso do modelo, mesmo que ele cometa um erro. Da mesma forma, ao utilizar modelos de linguagem como o ChatGPT, o pesquisador continua sendo o responsável por quaisquer erros ou informações imprecisas geradas pela ferramenta. A crítica ao uso da IA em pesquisa é vista como esperada, semelhante às críticas enfrentadas por teorias científicas no passado. A questão da autoria e do plágio com relação a textos gerados por IA também é abordada, indicando que, por enquanto, o texto gerado pelo usuário com a ferramenta é considerado de sua autoria, embora a regra esteja em evolução. O uso da IA é visto como uma ferramenta para aumentar a produtividade, o que, por sua vez, tende a elevar o nível de exigência das publicações científicas.
Fraudes e responsabilidades
Este trecho discute o uso ético da inteligência artificial (IA) na pesquisa acadêmica, diferenciando o uso da ferramenta para tarefas mecânicas, como sumarização de texto, da fraude acadêmica intencional. Enfatiza-se que a responsabilidade pelo conteúdo gerado, mesmo com o auxílio de IA, recai inteiramente sobre o autor, destacando que fraude acadêmica, como a falsificação de dados ou a sugestão de revisores falsos, é um problema distinto do uso de IA. Alerta-se sobre os riscos do uso irresponsável, como a colagem de texto sem revisão, e a possibilidade de IAs inventarem dados que parecem reais, reiterando a necessidade de verificação. O texto conclui que o uso responsável e consciente da IA é crucial para evitar erros e manter a integridade científica.
Comments