Open Science

Franz Eder

Institut für Politikwissenschaft | Universität Innsbruck

Definition

Ramachandran, Bugbee, und Murphy (2021)

Open Science als “collaborative culture enabled by technology that empowers the open sharing of data, information, and knowledge within the scientific community and the wider public to accelerate scientific research and understanding.”

Abbildung 1: Die unterschiedlichen Facetten von Open Science (Quelle: https://www.earthdata.nasa.gov/)

Treiber der OS-Bewegung

Wesensmerkmale von Wissenschaft nach Merton (1973)

  1. Universalismus
  2. “common ownership of goods”
  3. Selbstlosigkeit/Uneigennützigkeit (“disinterestedness”)
  4. “organized criticism”

technische Entwicklungen

  1. Internet ermöglicht Zusammenarbeit (Bullinger 2003, p.1)
  2. Rechenleistung von Computern ermöglicht neue Fragestellungen (Lazer 2009; Grimmer 2015; Liu und Guo 2016; Salganik 2018, p.3; Qui, May Chan, und Chan 2018)
  3. “big data” (Jagadish 2015) und “crisis of largeness” (English und Underwood 2016, p. 279)
  4. computational methods (Van Atteveldt, Althaus, und Wessler 2021, p. 291; Purcell 2019; Lazer 2009, p. 722; Bourne, Lorsch, und Green 2015, p. S16; English und Underwood 2016; Jagadish 2015)
  5. kollaboratives Arbeiten in Forschungsteams (Holmes 2016; Neupane 2016; Korku Avenyo 2016; Wagner, Whetsell, und Leydesdorff 2017)

ethische Aspekte

  1. wissenschaftliche Publikationen als Geschäftsmodell (Van Noorden 2013)

  2. Replikationskrisen (Ioannidis 2005; Prinz, Schlange, und Asadullah 2011; Open Science Collaboration 2015; Anderson und Maxwell 2017; Lilienfeld 2017; Camerer u. a. 2016, 2018; Graham u. a. 2023; Janz und Freese 2021, p. 305)

Vorteile von OS

  1. mehr Inklusion (Rinke und Wuttke 2021, pp. 281-282)
  2. Wissensgewinnung (BOAI 2002; Edwards 2016, p. S70)
  3. mehr Qualität (Engzell und Rohrer 2021, p. 300; Lupia 2021, p. 301)
  4. mehr Transparenz und Legitimation (Rinke und Wuttke 2021, p. 281; Lupia 2021, p. 302)

Forderungen von OS

  1. “open access by default” (EOSC 2017, p. 1)
  2. OA Publikationsorgane (BOAI 2002)
  3. OA Data (EOSC 2017, p. 1; Wilkinson u. a. 2016, p. 1; Stratmann 2003, p. 2; The Declaration on Research Assessment 2012)
  4. OA Anreizsysteme (EOSC 2017, p. 1; Stall 2019, p. 29)
  5. OA als Teil von Curricula (EOSC 2017, p. i)
  6. Forschungsdatenrepositorien und DMPs (EOSC 2017, p. 1; Van Atteveldt, Althaus, und Wessler 2021, p. 192)
  7. FAIR-Prinzipien (Wilkinson u. a. 2016)
Tabelle 1: FAIR-Prinzipien nach Wilkinson u. a. (2016)
FAIR-Prinzipien Forschungsdaten sollten so abgespeichert werden, dass sie
Findable (auffindbar) sind, indem sie unter anderem mit DOIs[^7] versehen und mit umfangreichen Metadaten kommentiert werden.
Accessible (zugänglich) sind, indem standardisierte, freie und offene Protokolle zur Anwendung kommen und die Metadaten auch dann noch zur Verfügung stehen, wenn es die Daten selber nicht mehr geben sollte.
Interoperable (kompatibel) sind, indem eine allgemein gültige Sprache für deren Beschreibung verwendet wird und sie Querverweise zu anderen Daten enthalten.
Reusable (wiederverwendbar) sind, indem die Daten ausreichend beschrieben und dokumentiert werden, damit sie jederzeit von anderen verwendet werden können.

Ziel von FAIR nach Wilkinson u. a. (2016, p.3)

The goal is for scholarly digital objects of all kinds to become ‘first class citizens’ in the scientific publication ecosystem, where the quality of the publication – and more importantly, the impact of the publication -— is a function of its ability to be accurately and appropriately found, reused, and cited over time, by all stakeholders, both human and mechanical.

Tabelle 2: Sieben Schritte der Transparenz für statistische Datenanalyse nach Dafoe (2014, p. 64)
Schritt Erläuterung
1. Programmieren mittels Code Die Datenerhebung, -bearbeitung und -auswertung sollte mittels Code erfolgen, um nachvollziehbar gemacht werden zu können.
2. Sauberes Programmieren Der Code sollte einfach gestaltet und klar kommentiert und dokumentiert werden. Vor der Finalisierung eines Papers sollte der Code noch einmal zur Gänze ausgeführt werden.
3. Analyse auf Grundlage von Rohdaten Die Analyse sollte stets schon bei den Rohdaten beginnen und dokumentiert werden und nicht erst ab dem Masterdatensatz.
4. Variablen Alle Variablen eines Datensatzes sollten mit eindeutigen und verständlichen Bezeichnungen versehen und dokumentiert werden.
Schritt Erläuterung
5. empirische Behauptungen Jede empirische Behauptung in einem Paper muss dokumentiert und damit überprüfbar gemacht werden.
6. Archivierung von Daten Die finalen Daten im weitesten Sinne (also auch die Dokumentation und der zu den Daten gehörende Code) müssen sicher in einem Repositorium archiviert werden.
7. Koautor:innen Auch Koautor:innen sollten nach den gleichen Standards arbeiten und dazu animiert werden, diese Schritte kollaborativ umzusetzen.

Literatur

Alvarez, R. Michael, und Simon Heuberger. 2022. „How (Not) to Reproduce: Practical Considerations to Improve Research Transparency in Political Science“. PS: Political Science & Politics 55 (1): 149–54. https://doi.org/10.1017/S1049096521001062.
Anderson, Samantha F., und Scott E. Maxwell. 2017. „Addressing the "Replication Crisis": Using Original Studies to Design Replication Studies with Appropriate Statistical Power“. Multivariate Behavioral Research 52 (3): 305–24. https://doi.org/10.1080/00273171.2017.1289361.
BOAI. 2002. Budapest Open Access Initiative. Budapest: budapestopenaccessinitiative.org. https://www.budapestopenaccessinitiative.org/read/.
Bourne, Philip E., Jon R. Lorsch, und Eric D. Green. 2015. „Sustaining the big-data ecosystem“. Nature 527: S16–17. https://doi.org/10.1038/527S16a.
Bullinger, Hans-Jörg et al. 2003. Berliner Erklärung über den offenen Zugang zu wissenschaftlichem Wissen. Https://openaccess.mpg.de/68053/Berliner_Erklaerung_dt_Version_07-2006.pdf (Zugriffsdatum: 20.02.2019). Berlin: Max-Planck-Gesellschaft.
Camerer, Colin F., Anna Dreber, Eskil Forsell, Teck-Hua Ho, Jürgen Huber, Magnus Johannesson, Michael Kirchler, u. a. 2016. „Evaluating replicability of laboratory experiments in economics“. Science 351 (6280): 1433–36. https://doi.org/10.1126/science.aaf0918.
Camerer, Colin F., Anna Dreber, Felix Holzmeister, Teck-Hua Ho, Jürgen Huber, Magnus Johannesson, Michael Kirchler, u. a. 2018. „Evaluating the replicability of social science experiments in Nature and Science between 2010 and 2015“. Nature Human Behaviour 2 (9): 637–44. https://doi.org/10.1038/s41562-018-0399-z.
Dafoe, Allan. 2014. „Science Deserves Better: The Imperative to Share Complete Replication Files“. PS: Political Science & Politics 47 (1): 60–66. https://doi.org/10.1017/S104909651300173X.
Edwards, Aled. 2016. „Perspective: Science is still too closed“. Nature 533 (7602): S70–70. https://doi.org/10.1038/533S70a.
English, James F., und Ted Underwood. 2016. „Shifting Scales: Between Literature and Social Science“. Modern Language Quarterly 77 (3): 277–95. https://doi.org/10.1215/00267929-3570612.
Engzell, Per, und Julia M. Rohrer. 2021. „Improving Social Science: Lessons from the Open Science Movement“. PS: Political Science & Politics 54 (2): 297–300. https://doi.org/DOI: 10.1017/S1049096520000967.
EOSC. 2017. EOSC Declaration. Brussels: European Open Science Cloud. https://eosc-portal.eu/sites/default/files/eosc_declaration.pdf.
Graham, Matthew H., Gregory A. Huber, Neil Malhotra, und Cecilia Hyunjung Mo. 2023. „Irrelevant Events and Voting Behavior: Replications Using Principles from Open Science“. The Journal of Politics 85 (1): 296–303. https://doi.org/10.1086/714761.
Grimmer, Justin. 2015. „We Are All Social Scientists Now: How Big Data, Machine Learning, and Causal Inference Work Together“. PS: Political Science & Politics 48 (1): 80–83. https://doi.org/10.1017/S104909651400178.
Holmes, David. 2016. „A New Chapter in Innovation“. Nature 533: S54–55. https://doi.org/10.1038/533S54a.
Ioannidis, John P. 2005. „Why Most Published Research Findings Are False“. PLOS Medicine 2 (8): 0696–0701. https://doi.org/10.1371/journal.pmed.0020124.
Jagadish, H. V. 2015. „Big Data and Science: Myths and Reality“. Big Data Research 2 (2): 49–52. https://doi.org/10.1016/j.bdr.2015.01.005.
Janz, Nicole, und Jeremy Freese. 2021. „Replicate Others as You Would Like to Be Replicated Yourself“. PS: Political Science & Politics 54 (2): 305–8. https://doi.org/10.1017/S1049096520000943.
King, Gary. 1995. „Replication, Replication“. PS: Political Science /& Politics 28 (3): 444–52. https://doi.org/10.2307/420301.
Korku Avenyo, Elvis et al. 2016. „A more developmental approach to science“. In UNESCO Science Report: Towards 2030, herausgegeben von Flavia Schlegel, 57–83. Paris: United Nations Educational, Scientific; Cultural Organization.
Lazer, David et al. 2009. „Computational Social Science“. Science 323 (5915): 721–22. https://doi.org/10.1126/science.1167742.
Lilienfeld, Scott O. 2017. „Psychology’s Replication Crisis and the Grant Culture: Righting the Ship“. Perspectives on Psychological Science 12 (4): 660–64. https://doi.org/10.1177/1745691616687745.
Liu, Hexuan, und Guang Guo. 2016. „Opportunities and challenges of big data for the social sciences: The case of genomic data“. Social Science Research 59: 13–22. https://doi.org/10.1016/j.ssresearch.2016.04.016.
Lupia, Arthur. 2021. „Practical and Ethical Reasons for Pursuing a More Open Science“. PS: Political Science & Politics 54 (2): 301–4. https://doi.org/DOI: 10.1017/S1049096520000979.
Maxwell, Scott E., Michael Y. Lau, und George S. Howard. 2018. „Is Psychology Suffering From a Replication Crisis? What Does ’Failure to Replicate’ Really Mean?“ American Psychologist 70 (6): 487–98. https://doi.org/10.1037/a0039400.
Merton, Rober K. 1973. „The Normative Structure of Science“. In The Sociology of Science: Theoretical and Empirical Investigations, herausgegeben von Norman W. Storer, 267–78. Chicago und London: The University of Chicago Press.
Neupane, Bhanu. 2016. „A more developmental approach to science“. In UNESCO Science Report: Towards 2030, herausgegeben von Flavia Schlegel, 6–8. Paris: United Nations Educational, Scientific; Cultural Organization.
Open Science Collaboration. 2015. „Estimating the reproducibility of psychological science“. Science 349 (6251): 943. https://doi.org/10.1126/science.aac4716.
Prinz, Florian, Thomas Schlange, und Khusru Asadullah. 2011. „Believe it or not: how much can we rely on published data on potential drug targets?“ Nature Reviews 10 (712). https://doi.org/10.1038/nrd3439-c1.
Purcell, Andrew. 2019. Big data in the humanities and social sciences. Https://sciencenode.org/feature/big-data-humanities-and-social-sciences.php (Zugriffsdatum: 20.20.2019).
Qui, Lin, Sarah Hian May Chan, und David Chan. 2018. „Big data in social and psychological science: theoretical and methodological issues“. Journal of Computational Social Science 1 (1): 59–66. https://doi.org/10.1007/s42001-017-0013-6.
Ramachandran, Rahul, Kaylin Bugbee, und Kevin Murphy. 2021. „From Open Data to Open Science“. Earth and Space Science 8 (5): e2020EA001562. https://doi.org/10.1029/2020EA001562.
Rinke, Eike Mark, und Alexander Wuttke. 2021. „Open Minds, Open Methods: Transparency and Inclusion in Pursuit of Better Scholarship“. PS: Political Science & Politics 54 (2): 281–84. https://doi.org/10.1017/S1049096520001729.
Rohlfing, Ingo, Lea Königshofen, Susanne Krenzer, Jan Schwalbach, und Ayjeren Bekmuratovna R. 2021. „A Reproduction Analysis of 106 Articles Using Qualitative Comparative Analysis, 2016–2018“. PS: Political Science & Politics 54 (2): 292–96. https://doi.org/DOI: 10.1017/S1049096520001717.
Salganik, Matthew J. 2018. Bit By Bit: Social Research in the Digital Age. Princeton & Oxford: Princeton University Press.
Schooler, Jonathan W. 2014. „Metascience could rescue the ‚replication crisis‘. Nature 515 (7525): 9. https://doi.org/10.1038/515009a.
Shrout, Patrick E., und Joseph L. Rodgers. 2018. „Psychology, Science, and Knowledge Construction: Broadening Perspectives from the Replication Crisis“. Annual Review of Psychology 69 (1): 487–510. https://doi.org/10.1146/annurev-psych-122216-011845.
Stall, Shelley. 2019. „Make all scientific data FAIR“. Nature 570: 27–29.
Stratmann, Martin. 2003. Berlin Declaration on Open Access to Knowledge in the Sciences and Humanities. Berlin: Max-Planck-Gesellschaft. https://openaccess.mpg.de/Berlin-Declaration.
The Declaration on Research Assessment. 2012. San Francisco Declaration on Research Assessment. San Francisco: DORA. https://sfdora.org/read/.
Van Atteveldt, Wouter, Scott Althaus, und Hartmut Wessler. 2021. „The Trouble with Sharing Your Privates: Pursuing Ethical Open Science and Collaborative Research across National Jurisdictions Using Sensitive Data“. Political Communication 38 (1-2): 192–98. https://doi.org/10.1080/10584609.2020.1744780.
Van Noorden, Richard. 2013. „Open access: The true cost of science publishing“. Nature 495 (7442): 426–29. https://doi.org/10.1038/495426a.
Wagner, Caroline S., Travis A. Whetsell, und Loet Leydesdorff. 2017. „Growth of international collaboration in science: revisiting six specialities“. Scientometrics 110 (3): 1633–52. https://doi.org/10.1007/s11192-016-2230-9.
Wilkinson, Mark D., Michel Dumontier, IJsbrand Jan Aalbersberg, Gabrielle Appleton, Myles Axton, Arie Baak, Niklas Blomberg, u. a. 2016. „The FAIR Guiding Principles for scientific data management and stewardship“. Scientific Data 3 (160018): 1–9. https://doi.org/10.1038/sdata.2016.18.