PRODEMINFO - Protecting the Democratic Information Space in Europe
PRODEMINFO ist ein Advanced Grant des Europäischen Forschungsrats (ERC), das darauf abzielt, ein besseres Verständnis für die Wahrnehmung der Wahrheit in einem Zeitalter voller Fake News und Verschwörungstheorien zu gewinnen. Das Projekt ist eine Kooperation zwischen der University of Bristol, der Universität Konstanz und der Universität Potsdam und zuvor der Technischen Universität Graz. Die Projektlaufzeit beträgt 5 Jahre, von Oktober 2021 bis September 2026.
Dieses Projekt wurde vom Europäischen Forschungsrat im Rahmen des Forschungs- und Innovationsprogramms "Horizont 2020" der Europäischen Union gefördert (Finanzhilfevereinbarung Nr. 101020961).
Projektbeschreibung
Die Demokratie ist bedroht. Populistische Bewegungen - hauptsächlich, aber nicht ausschließlich auf der politischen Rechten - haben "das Volk" gegen eine vermeintliche "Elite" ausgespielt, die auf unterschiedliche Weise konstruiert ist und die Justiz, Mainstream-Medien, Politiker, Experten und Akademiker umfasst. PRODEMINFO baut auf der Erkenntnis auf, dass sachliche Ungenauigkeit eher ein politischer Vorteil als eine Belastung sein kann: Populistische Politiker können offensichtliche Unwahrheiten behaupten, um zu signalisieren, dass sie die Ehrlichkeitsnorm des "Establishments" missachten, und sich so als authentische Verfechter des "Volkes" ausgeben. Die Umbenennung von Ungenauigkeit in Authentizität spiegelt einen tiefgreifenden Wandel in der zugrunde liegenden Ontologie der Wahrheit wider: Während die liberale Demokratie an eine realistische Ontologie der Wahrheit und einen gemeinsamen Bestand an anerkanntem Wissen gebunden ist, ist die populistische Ontologie der Wahrheit völlig konstruktivistisch und subjektiv. Es ist von entscheidender Bedeutung, diesen ontologischen Wandel zu verstehen, zu dokumentieren und sich dann mit ihm auseinanderzusetzen, da er die Art und Weise, wie man Fehlinformationen entgegentritt, drastisch verändert - es hat wenig Sinn, Unwahrheiten zu korrigieren, wenn Fakten nicht als relevantes Attribut des öffentlichen Diskurses angesehen werden. PRODEMINFO wird Instrumente zum Schutz der Demokratie in Europa entwickeln, indem es einen strategischen Bogen von der Bedrohung durch die aufrührerische populistische Ontologie der Wahrheit zur Entwicklung von Schutzlösungen spannt, die online in großem Maßstab eingesetzt werden können.
Die Ziele von PRODEMINFO sind (1) das Verständnis der gegenwärtigen Fehlinformation in Europa und wie sie mit der stillschweigenden Ontologie der Menschen über die Wahrheit zusammenhängt; (2) die Entwicklung von Gegenbotschaften auf der Grundlage der Impftheorie, die auf die unterschiedlichen Ontologien der Menschen reagieren (z. B. auf die Authentizität und nicht auf die Richtigkeit politischer Äußerungen); und (3) die Erprobung solcher Gegenbotschaften in sozialen Medien. PRODEMINFO wird diese Ziele verfolgen, indem es kontrollierte Verhaltens- und kognitive Experimente mit "Big Data"-Analysen sozialer Medien, Simulationsmodellierung von Online-Verhalten und Textmodellierung großer Korpora kombiniert.
Externer Beirat
- Kristina Lerman, Research Professor of Computer Science, University of Southern California
- Ralph Hertwig, Director, Center for Adaptive Rationality, Max-Planck-Institut für Bildungsforschung, Berlin
- Nina Witoszek, Senior Researcher, Centre for Development and the Environment, University of Oslo
Ethikberater
- Jeroen van den Hoven, Professor of Ethics and Technology, TU Delft
- Mark Alfano, Associate Professor, Department of Philosophy, Macquarie University
Aktuelle Publikationen
Capewell, G., Maertens, R., Remshard, M., van der Linden, S., Compton, J., Lewandowsky, S., & Roozenbeek, J. (2024). Misinformation interventions decay rapidly without an immediate posttest. Journal of Applied Social Psychology. DOI: 10.1111/jasp.13049.
Ecker, U., Roozenbeek, J., van der Linden, S., Tay, L. Q., Cook, J., Oreskes, N., & Lewandowsky, S. (2024). Misinformation poses a bigger threat to democracy than you might think. Nature, 630, 29–32. DOI: 10.1038/d41586-024-01587-3.
Kozyreva, A., Lorenz-Spreen, P., Herzog, S. M., Ecker, U. K. H., Lewandowsky, S., Hertwig, R., Ali, A., Bak-Coleman, J., Barzilai, S., Basol, M., Berinsky, A. J., Betsch, C., Cook, J., Fazio, L. K., Geers, M., Guess, A. M., Huang, H., Larreguy, H., Maertens, R., Panizza, F., Pennycook, G., Rand, D. G., Rathje, S., Reifler, J., Schmid, P, Smith, M., Swire-Thompson, B., & Szewach, P., van der Linden, S., & Wineburg, S. (2024). Toolbox of individual-level interventions against online misinformation. Nature Human Behaviour. DOI: 10.1038/s41562-024-01881-0.
Lewandowsky, S., Garcia, D., Simchon, A., & Carrella, F. (2024). When liars are considered honest. Trends in Cognitive Sciences. DOI: 10.1016/j.tics.2024.03.005.
Simchon, A., Edwards, M., & Lewandowsky, S. (2024). The persuasive effects of political microtargeting in the age of generative AI. PNAS Nexus. DOI: 10.1093/pnasnexus/pgae035.
Tay, L. Q., Lewandowsky, S., Hurlstone, M. J., Kurz, T., & Ecker, U. K. H. (2024). Thinking clearly about misinformation. Communications Psychology, 2. DOI: 10.1038/s44271-023-00054-5.