Open Science

Wir bemühen uns, die aktuellen Open Science Standards einzuhalten und transparente, reproduzierbare Wissenschaft zu betreiben. Wir beteiligen uns an groß angelegten internationalen Replikationsprojekten wie einem Registered Replication Report zum Ego Depletion Effekt oder Crowdsourcing Initiativen. Nach unserem Verständnis von Wissenschaft sind Replikationsstudien ein wertvoller und wichtiger Teil einer gesunden Wissenschaft. Auch Nullbefunde und fehlgeschlagene Studien sollten Teil des „scientific records“ sein. Ein Großteil unserer Studien sind präregistriert und die Daten sind öffentlich zugänglich.

 

Aktuelles Argument für Open Science – Internationales Publikationsprojekt

Ergebnisse aus dem groß angelegten internationalen Projekt beleben die Debatte über die Generalisierbarkeit wissenschaftlicher Studien erneut und liefern ein weiteres Argument für Open Science.

Ein bedeutender Aspekt von Wissenschaft ist die Generalisierbarkeit von Befunden. Erfolgreiche Replikationen liefern einen Beitrag zur Generalisierbarkeit der Ergebnisse einzelner Studien, gescheiterte Replikationen mindern diese.

Die Ergebnisse der Studien zeigen deutlich, dass einige vormals etablierte Befunde nicht replizierbar sind. Der Verbund wird vom Open Science Center der University Virginia koordiniert. Die Befunde verdeutlichen die Relevanz von Open Science. Diese zunehmend auch in Deutschland wachsende Bewegung setzt sich für Forschungstransparenz ein, u.a. durch die Präregistrierung von Studien sowie die Veröffentlichung von Daten und Analyseskripten.

Mit ihrer Open-Access Erklärung (hier abrufbar) und indem sie sich zu den Prinzipen der Berliner Erklärung über den offenen Zugang zu wissenschaftlichen Informationen bekennt, vertritt die Universität Bamberg wie viele andere Universitäten ebenfalls Transparenz und Offenheit in der Wissenschaft.

Den Text der englischsprachigen Pressemitteilung können Sie hier abrufen.

 

Ausgewählte Publikationen:

Ebersole, C. R., Mathur, M. B., … Schütz, A., …, & Nosek, B. A. (2020). Many Labs 5: Testing pre-data collection peer review as an intervention to increase replicability. Advances in Methods and Practices in Psychological Science.

Landy, J. F., Jia, M., Ding, I. L., Viaganola, D., Tierney, W., … Schütz, A., … Uhlmann, E. L. (2020). Crowdsourcing hypothesis tests: Making transparent how design choices shape research results. Psychological Bulletin. doi: 10.1037/bul0000220

Röseler, L., Schütz, A., & Starker, U. (2019). Cognitive ability does not and cannot correlate with susceptibility to anchoring effects. Advance online publication.  doi: 10.31234/osf.io/bnsx2