<script type="text/javascript">
<!--
document.write('<div id="oa_widget"></div>');
document.write('<script type="text/javascript" src="https://www.openaire.eu/index.php?option=com_openaire&view=widget&format=raw&projectId=undefined&type=result"></script>');
-->
</script>
O artigo aborda os desafios éticos e de transparência associados ao uso de Inteligência Artificial (IA) em alinhamento com os princípios da Ciência Aberta, com um foco especial nos modelos generativos, como o ChatGPT e Mistral. Utilizando uma metodologia que combina pesquisa documental e bibliográfica, o estudo examina tanto modelos de IA abertos quanto fechados, analisando como essas tecnologias podem distorcer a integridade científica. O objetivo central é fomentar um debate sobre as implicações dessas distorções e propor mecanismos para mitigar tais efeitos, reforçando a necessidade de modelos transparentes que assegurem a reprodutibilidade científica. Conclui-se que, quando aplicados com rigor ético, os modelos generativos têm o potencial de auxiliar significativamente a Ciência Aberta, promovendo um novo nível de colaboração e inovação no campo científico.
ciência aberta, ética, inteligência artificial, transparência
ciência aberta, ética, inteligência artificial, transparência
citations This is an alternative to the "Influence" indicator, which also reflects the overall/total impact of an article in the research community at large, based on the underlying citation network (diachronically). | 0 | |
popularity This indicator reflects the "current" impact/attention (the "hype") of an article in the research community at large, based on the underlying citation network. | Average | |
influence This indicator reflects the overall/total impact of an article in the research community at large, based on the underlying citation network (diachronically). | Average | |
impulse This indicator reflects the initial momentum of an article directly after its publication, based on the underlying citation network. | Average |