Powered by OpenAIRE graph
Found an issue? Give us feedback
image/svg+xml art designer at PLoS, modified by Wikipedia users Nina, Beao, JakobVoss, and AnonMoos Open Access logo, converted into svg, designed by PLoS. This version with transparent background. http://commons.wikimedia.org/wiki/File:Open_Access_logo_PLoS_white.svg art designer at PLoS, modified by Wikipedia users Nina, Beao, JakobVoss, and AnonMoos http://www.plos.org/ ZENODOarrow_drop_down
image/svg+xml art designer at PLoS, modified by Wikipedia users Nina, Beao, JakobVoss, and AnonMoos Open Access logo, converted into svg, designed by PLoS. This version with transparent background. http://commons.wikimedia.org/wiki/File:Open_Access_logo_PLoS_white.svg art designer at PLoS, modified by Wikipedia users Nina, Beao, JakobVoss, and AnonMoos http://www.plos.org/
ZENODO
Other literature type . 2024
License: CC BY
Data sources: ZENODO
ZENODO
Other literature type . 2024
License: CC BY
Data sources: Datacite
versions View all 2 versions
addClaim

This Research product is the result of merged Research products in OpenAIRE.

You have already added 0 works in your ORCID record related to the merged Research product.

Empfehlung zur Sicherung der guten wissenschaftlichen Praxis beim Umgang mit "Künstlicher Intelligenz"

Recommendations for safeguarding good research practice when using artificial intelligence
Authors: Leibniz Association;

Empfehlung zur Sicherung der guten wissenschaftlichen Praxis beim Umgang mit "Künstlicher Intelligenz"

Abstract

Die Empfehlung der Leibniz-Gemeinschaft dient als Orientierungshilfe für den Umgang mit generativer KI in der wissenschaftlichen Praxis. Sie betont, dass die Regeln guter wissenschaftlicher Praxis uneingeschränkt gelten, auch bei KI-Nutzung. Kernpunkte sind: 1) Wissenschaftlerinnen und Wissenschaftler tragen eine ungeminderte Verantwortung für die wissenschaftliche Integrität auch bei KI-unterstützter Arbeit, 2) KI-Systeme erfüllen nicht die Kriterien für Autorschaft, 3) KI-Nutzung muss transparent offengelegt werden, 4) besondere Vorsicht gilt bei Begutachtungen, 5) rechtliche und ethische Aspekte sind zu beachten. Die Empfehlung fordert die Leibniz-Einrichtungen auf, interne Reflexionsprozesse und Kompetenzaufbau zu fördern, die dezentralen Ombudspersonen in die Umsetzung einzubinden und sich am Fachdiskurs intensiv zu beteiligen. Wissenschaftliche Integrität soll im Kontext zunehmender KI-Nutzung gewahrt, ihre Standards sollen weiterentwickelt werden.

These recommendations from the Leibniz Association provide guidance on using generative AI in research practice. They emphasise that the rules of good research practice apply without limitation, even when using AI. The key points are: 1) researchers still bear full responsibility for research integrity, even when their research is supported by AI, 2) AI systems do not meet the criteria for authorship, 3) the use of AI must be declared transparently, 4) particular care must be taken when conducting reviews and evaluations, 5) legal and ethical aspects must be considered. The recommendations call on the Leibniz institutes to promote internal reflection processes and the development of expertise, to involve the decentralised ombudspersons in their implementation and to play an active role in the professional debate. Research integrity should be preserved in the context of increasing AI use, and research integrity standards should be developed further.

Keywords

Künstliche Intelligenz, gute wissenschaftliche Praxis, Wissenschaftliche Integrität, wissenschaftliches Fehlverhalten

Powered by OpenAIRE graph
Found an issue? Give us feedback
Related to Research communities