top of page

Agora você conta com um assistente de leitura, o chatGPT responde suas perguntas sobre a postagem que está lendo. Somente abra o chat abaixo e faça perguntas!

O caso do algoritmo malvado que seleciona bolsistas CNPq: não joguemos a criança fora

Atualizado: 20 de abr. de 2023




 

Este artigo foi melhorado, contextualizado e expandido em Punidos por métricas. Fica o convite a leitura. 📚📚📚


 



"Para se ter uma ideia da gravidade destas distorções, fizemos uma simulação com a fórmula usada pelo CA para classificar quatro matemáticos que ganharam a Medalha Fields, usando dados dos anos imediatamente anteriores à premiação. [nenhum ganharia!]"Fonte


"Além disso, um caso concreto que mostra que o algoritmo pune excelentes cientistas foi o de uma pesquisadora jovem, premiada com o Prêmio SBM em 2019. A honraria distingue o melhor artigo original de pesquisa em Matemática publicado recentemente por um(a) jovem pesquisador(a) residente no Brasil e, apesar do feito, a pesquisadora acaba de perder sua bolsa PQ. [isso poderia ser usado para corrigir o algorimo, nós treinamos os mesmos como treinamos crianças, também concordo que foi um absurdo ] " Fonte







"Nada (e, em particular, nenhum sistema pseudo-científico semi-automatizado de avaliação que envolve números ou dados) pode substituir a avaliação feita por um indivíduo que verdadeiramente entende o que ele/ela está avaliando. Além disso, índices como fatores de impacto claramente não ajudam ou são relevantes no contexto da pesquisa em Matemática."Fonte; cita

"nenhum sistema pseudo-científico semi-automatizado de avaliação que envolve números ou dados"

Essa sentença vai contra o livro, e o trabalho de Kahneman et al, onde se baseia o livro. Minha preocupação, que não tenho informação o suficiente para opinar, a validade do algorítmo. Acredito que se bem treinados e testados, com dados reais, esses algorimos podem superar humanos e acelerar o aceite de artigos e até mesmo bolsas de estudos.


Como exemplo, esses dados de ganhadores da medalha Field foram usados para mostrar os erros do algoritmo, muito bem feito!


Em um cenário saudável, o mesmo poderia ser usado para mostrar o modelo que é isso que queremos achar.

  • Manjul Bhargava: 7.09

  • Maxim Kontsevich: 6.50

  • Maryam Mirzakhani: 6.00

  • Vladimir Voevodsky: 5.56

Nota. em "Weapons of Math Destruction", Cathy O'Neil, fala-se do perigo de algoritmos mal treinados tomando decisões. Talvez esse seja o caso desta situação.


Kahneman et al mostra que mesmo algoritmos simples de regressão podem gerar bons resultados, com poucos parâmetros comparado com a quantidade de informações que humanos geralmente tem acesso.

“In one of the three samples, 77% of the ten thousand randomly weighted linear models did better than the human experts. In the other two samples, 100% of the random models outperformed the humans.” Cass R. Sunstein, Daniel Kahneman, and Olivier Sibony, Fonte

Google Image com preconceito


Seria o Google Image ruim?

Não!

somente foi treinado com dados de humanos, parece-me que em inglês não existe essa associação.




"Bad hair" gera um pouco mais de equilíbrio

Considerações

O texto apresentado descarta totalmente o uso de algoritmos em nome de humanos, pesquisas de Kahneman et al mostram o oposto: humanos são ruidosos e viesados. Ver nosso livro recém-lançado. Eu entendo a causa dos jovens matemáticos, e compartilho a causa. Somente acho que não podemos “jogar a criança fora com a água do banho”. Algoritmos podem vir a substituir humanos no futuro.



 

Discussão com o chatGPT

"Baseado no seu conhecimento, e o estado atual da arte, e o conteúdo da postagem, podemos confiar em algoritmos para decidir em situações onde os erros são caros para as pessoas evolvidas? Qual seriam as principais limitações que ainda não vencemos quando falamos da aplicação desses algoritmos para automatizar decisões?"

Assistente de leitura (Einstein Chatty)(*): Essa é uma pergunta bastante relevante e complexa. Como mencionado na postagem, há estudos que indicam que algoritmos podem superar humanos em algumas decisões, principalmente quando se trata de questões com um grande volume de dados e variáveis a serem consideradas. No entanto, isso não significa que devemos confiar cegamente nos algoritmos e deixar de lado a avaliação humana.


Os algoritmos ainda têm limitações significativas, especialmente quando se trata de situações que envolvem fatores subjetivos e intangíveis. Muitas vezes, as decisões que afetam as pessoas são complexas e precisam levar em conta valores éticos, morais e culturais. Algoritmos podem não ser capazes de absorver esses aspectos da mesma forma que um ser humano treinado.


Além disso, como mencionado na postagem, há o risco de os algoritmos serem mal treinados e desenvolverem vieses que afetam a decisão final. Por isso, é importante ter cuidado com a qualidade dos dados usados para treinar esses algoritmos e garantir a diversidade em sua fonte.


Em resumo, embora existam estudos que sugerem que os algoritmos podem oferecer benefícios significativos em muitas áreas, ainda há limitações a serem superadas antes que possamos confiar plenamente neles para tomar decisões que possam prejudicar as pessoas envolvidas. É importante continuar a pesquisa e aprimorar a tecnologia para avançar nesse campo.


(*) ativo no chat no seu canto á direita

 


 



 




 

Compre uma cópia, no preço mínimo!




 

Próxima postagem: a definir


 

Nossa postagem mais vista virou livro na Amazon!!



 

Uma postagem por semana, aos sábados, fique de olho! 👀👀👀. Prefere olherada 👂👂👂, ouça nosso podcast 🎙️🎙️


Escreva para nosso blog! ✍🏽✍🏽

Gostaria de propor um assunto! Entre em contato!


 

Gostou muito? que tal um cafezinho?



 

Este texto é disponibilizado nos termos da licença Atribuição-CompartilhaIgual 3.0 Não Adaptada (CC BY-SA 3.0) da Creative Commons; pode estar sujeito a condições adicionais. Para mais detalhes, consulte as condições de utilização.


 



 








975 visualizações0 comentário

Comments


Suporte
Apoiar
bottom of page