Konferenzbericht: Social Media Access Days

27. März 2026
von Philippe Genêt, Katrin Heuer, Kristina Petzold, Helene Schlicht, Britta Woldering

Die Frage, wie wir Daten aus sozialen Medien nachhaltig sichern und für Forschung zugänglich machen, gehört zu den zentralen Herausforderungen unserer Zeit. Soziale Medien sind längst nicht nur Kommunikationsräume, sondern zentrale Quellen für Wissenschaft und Zeitgeschichte. Ihre Archivierung und Zugänglichmachung ist daher eine gemeinsame Aufgabe von Forschung und Gedächtnisinstitutionen. Die Social Media Access Days stehen für genau diesen Schulterschluss – und für die Überzeugung, dass wir die Herausforderungen nur gemeinsam bewältigen können.

Auf Initiative von Vertreterinnen und Vertretern von GESIS, der Digitalen forensischen Linguistik der Ruhr-Uni Bochum, der Nationalen Forschungsdaten-Infrastrukturen BERD@NFDI, NFDI4DataScience, Text+ und der Deutschen Nationalbibliothek fanden vom 17.-19. März 2026 die Social Media Access Days in der Deutschen Nationalbibliothek in Frankfurt am Main statt. Sie waren eine Folgeveranstaltung der „Twitter-Tagung“ von 2024, die damals unter dem Eindruck der Übernahme von Twitter durch Elon Musk und den bekannten disruptiven Veränderungen stand.

Die Social Media Access Days brachten drei Tage lang Forschende, Infrastruktureinrichtungen, Bibliotheken und Archive zusammen, um Fragen der Sammlung, Archivierung, Erschließung und des nachhaltigen Zugangs zu den gesammelten Daten gemeinsam zu diskutieren und Erfahrungen auszutauschen. Im Fokus standen unter anderem neue Ansätze zur Archivierung dynamischer Daten und Möglichkeiten der Nachnutzung vorhandener Korpora, rechtliche und ethische Aspekte, Erfahrungen mit den Möglichkeiten, die der Digital Services Act bietet und überhaupt Perspektiven für den Zugang zu Plattformdaten nach der „APIcalypse“.

Am ersten Tag fand der halbtägige Pre-Conference-Workshop „GESIS Methods Hub Social Media Datasprint“ statt, in welchem die Teilnehmenden vorhandene Social-Media-Datensets mit Tools erkunden und analysieren konnten, die der GESIS Methods Hub zur Verfügung stellt.

Einführungsrede auf der Bühne. Einige Teilnehmende der Tagung sind von hinten zu sehen.
Katrin Weller (GESIS) begrüßt die Teilnehmenden. Foto: DNB, Cora Dolgener, CC-BY-SA 3.0 DE

Der erste Konferenztag fand in deutscher Sprache statt und widmete sich der Nachnutzung vorhandener Daten und Korpora sowie neuer Archivierungsansätze. Nach der Begrüßung durch den Generaldirektor der Deutschen Nationalbibliothek Frank Scholze und der Abteilungsleiterin der Data Services for the Social Sciences der GESIS Katrin Weller startete die erste Session mit einem Vortrag von Pascal Siegers (GESIS) zu „AVERA – eine „Community-Datentreuhand“ zur Unterstützung der kollaborativen Nutzung von Accountverzeichnissen in der politischen Online-Kommunikationsforschung“. AVERA ist ein Akteur*innenverzeichnis zur Erforschung der Verbreitung digitaler rechtsextremer und -radikaler Aktivitäten, Radikalisierungsprozesse, Narrative und Diskurse. Akteurszentrierte Forschungsdesigns spielen in der politischen Online-Kommunikationsforschung eine zentrale Rolle bei der Datenerhebung, für die Account- und Kanalverzeichnisse erstellt, aufgrund ihrer sensiblen Natur aber nicht geteilt werden, was zu Mehrfacharbeit führt. Um hierfür Abhilfe zu schaffen, baut AVERA auf Basis des Konzepts einer Community-Datentreuhand (CDT) einen Rahmen für die kollaborative Erstellung, Pflege und Nutzung von Accountverzeichnissen mit den Prinzipien partizipativer Governance, Reziprozität und gemeinschaftlicher Verantwortung auf. Das Konzept einer CDT kann langfristig ein Vorbild für eine Transformation im Forschungsdatenmanagement sein: Weg von monopolistischer Kontrolle der Datenzugänge, hin zu kollektiver Verantwortung für wissenschaftliche Datenökosysteme.

Im zweiten Vortrag präsentierten Marco Wähner (CAIS) und Jan Dennis Gumz (FOKUS) ihre Samplingstrategie und Sammlung von Wikipedia-Daten für eine Untersuchung der Bedeutung von Wikipedia-Artikeln als Informationsquelle im politischen Diskurs im Zusammenhang mit der vorgezogenen Bundestagswahl 2025. Ausgehend vom Anfangsknoten „Bundestagswahl 2025“ wurden für den Zeitraum 6.11.2024 (Koalitionsbruch) bis 23.02.2025 (Bundestagswahl) alle Artikel bis zur Tiefe des zweiten Knotens mittels Wikipedia-API erhoben. Als Vergleichskorpus wurden die entsprechenden Beiträge eines gleich langen Zeitraums von 109 Tagen vor dem 6.11.2024 erhoben, um einen Eindruck von Editierungsvorgängen und neuen Artikeln zu bekommen. Die ersten Auswertungsergebnisse verdeutlichen, wie sich eine Teilmenge der Artikel auf Wikipedia im Bezug zu einem Event verändert.

Im dritten Vortrag stellte Katharina Maubach (Digital Media & Computational Methods, Uni Münster) Datenformate zur Archivierung von Social-Media-Daten vor, die unterschiedliche Schichten der Sichtbarkeit bei der Veröffentlichung ermöglichen. Aus forschungspraktischer Perspektive wäre es sinnvoll, bestehende Datensätze im Rahmen von Sekundäranalysen zu nutzen statt neue Erhebungen durchzuführen. Bei der Bereitstellung vorhandener Daten sind jedoch rechtliche und ethische Aspekte zu berücksichtigen. Im Rahmen verschiedener Projekte wurde ein einfaches Minimalformat entwickelt, das es erlaubt, die Daten nach unterschiedlichen rechtlichen und ethischen Kriterien zu gruppieren und so abgestufte Schichten der Sichtbarkeit zu ermöglichen.

In der zweiten Session wurden neue Archivierungsansätze vorgestellt. Den Anfang machten Mia Berg (Public History, Uni Hamburg) und Oliver Vettermann (FIZ Karlsruhe) mit „The Life of a Scraper – Best Practices aus der Forschung mit und ohne Social Media APIs“. In ihrem Beitrag beschrieben sie die rechtlichen und ethischen Herausforderungen in der Geschichtswissenschaft bei der Arbeit mit Quellen, die in dynamischen, kommerziellen und zugangsbeschränkten Umgebungen entstehen. Sowohl der Datenzugang über APIs als auch über Scraping birgt rechtliche Fallstricke, die es zu beachten gilt. Am Beispiel von TikTok zeigten sie exemplarisch auf, wie Social-Media-Inhalte als Quellen pragmatisch erschlossen und zugleich die Bedingungen ihrer Erhebung sowie inhärente Verzerrungen kritisch reflektiert werden können.

Catharina Ochsner (IBI, HU Berlin) präsentierte im fünften Vortrag das Projekt Infra Wiss Blogs, das Wissenschaftsblogger*innen und Informationsinfrastruktureinrichtungen dabei unterstützt, Lösungen zur dauerhaften Sicherung wissenschaftlicher Blogs in Deutschland zu entwickeln. Blogs sind legitime Bestandteile des akademischen Diskurses und eine relevante Publikationsform zur Verbreitung von Forschungsergebnissen. Im Projekt wurde eine umfassende Bestandsaufnahme deutscher Wissenschaftsblogs nach Fachbereich, Aktivität, institutioneller Anbindung und Sprache erstellt und die Notwendigkeit einer verstärkten Integration in Informationsinfrastrukturen aufgezeigt, um ihre langfristige Zugänglichkeit sicherzustellen.

Der sechste Vortrag von Gabriel Viehhauser und Carl Friedrich Haak (Digitale Philologie, Uni Wien) befasste sich mit Social-Media-Literatur an der Schnittstelle zwischen Archiv und Literaturwissenschaft und zeigte Perspektiven einer graphdatenbasierten und akteurszentrierten Datenmodellierung auf. Social-Media-Literatur enthält zahlreiche multimodale Bezüge, ist an ein tendenziell flüchtiges Medium gebunden und in vielfältige Querbezüge verwoben. Damit lässt sich Social-Media-Literatur weniger als statisches Objekt beschreiben, sondern ist eine performative Verlaufsform, die sich im Code nur oberflächlich abbilden lässt. Bislang fehlt es sowohl an Datenmodellen als auch an Auswertungsroutinen, die der Archivierung und den Bedarfen der literaturwissenschaftlichen Forschung dieser Literaturform gerecht werden.  Anhand eines konkreten Beispiels der Twitter-Literatur von Clemens J. Setz schlagen die beiden Referenten ein Graphdatenmodell vor, um Social-Media-Literatur in ihrer multimodalen und kontextuellen Einbettung abzubilden. Dieses soll durch einen akteurszentrierten Ansatz ergänzt werden, der den vielfältigen Aspekten der Performanz von Social-Media-Literatur gerecht werden soll.

Den Abschluss des ersten Tages bildete der Vortrag von Kristina Petzold (Deutsche Nationalbibliothek) über das Projekt Digital Cultural Heritage of Our Time (DiCHOT) als Handlungssystem für musikbezogenen User Generated Content (UGC) zwischen Archivierung und Vermittlung. DiCHOT begreift musikbezogenen UGC als exemplarischen Forschungsgegenstand, kulturelles Artefakt und Infrastrukturobjekt zugleich. Im Projekt wird der Frage nachgegangen, was von diesen ephemeren Alltagskulturen für künftige Generationen gesammelt und aufbewahrt werden sollte. Es soll ein zirkuläres Wissens- und Handlungssystem aufgebaut werden, das Sammlung und Vermittlung von Anfang an verzahnt. Aufbauend auf der Sammlung von UGC sollen digitale Lehreinheiten an Schulen Jugendliche für den kulturellen Wert digitaler Alltagspraktiken sensibilisieren, Beteiligung an der Sammlungsauswahl ermöglichen sowie auf kritische Aspekte der Webkultur aufmerksam machen.

Die Keynote und dritte Session der Tagung hielt Axel Bruns (Queensland University of Technology) unter dem Titel „Nearly a Decade after the APIcalypse: Where are we now on Social Media Access?“. In seinem Vortrag beleuchtete er vier mögliche Reaktionen der Forschenden auf die erheblichen Einschränkungen der Zugänge zu den Application Programming Interfaces (APIs) der großen Social-Media-Plattformen. Erstens: die Forschung in diesem Bereich zugunsten anderer Themenfelder aufzugeben. Obwohl diese individuelle Entscheidung verständlich sei, betonte Bruns, dass sie kollektiv nicht tragbar ist – schließlich erfüllen Forschende eine wichtige kritische Funktion, indem sie Transparenz über Prozesse und Entwicklungen in den Plattformen schaffen. Zweitens: der aktive Einsatz für eine Änderung der restriktiven Plattform-Politiken. Drittens: die Forschung unter den neuen, eingeschränkten Bedingungen fortzusetzen. Hier verwies Bruns auf Beispiele wie die Meta Content Library und den Content Library API, die zwar gewisse Forschungsmöglichkeiten eröffnen, jedoch durch langfristige und komplizierte Genehmigungsverfahren sowie eine nicht benutzerfreundliche Gestaltung eingeschränkt sind. In diesem Zusammenhang hob er die Bedeutung von Kooperation und den Austausch von Tools und Daten innerhalb der wissenschaftlichen Gemeinschaft hervor – wie beispielsweise bei Projekten wie communalytic oder polidashboard. Als vierte Option skizzierte er die Exploration und Anwendung neuer Zugangswege zu Daten, etwa durch Scraping oder die Sammlung von Daten durch freiwillige Spenden von Plattformnutzenden oder Forschenden.

Die vierte Session der Tagung wurde von Ofra Klein (Erasmus Universität Rotterdam) zum Thema „Challenges of Cross-Plattform Analysis of Far-Right Mobilization“ eingeleitet. Die Verwendung von sozialen Medien spielt in den Bewegungen und in der Mobilisierung der extremen Rechten eine große Rolle. Haben sich deren Aktivitäten vor 10 Jahren noch auf wenige Gruppen und Social-Media-Plattformen beschränkt, zeichnet sich heute ein anderes Bild: statt Bewegungen treten nun vor allem Individuen in den digitalen Räumen auf. Zudem sind Rechtsextremisten auf einer Vielzahl von Social-Media-Plattformen aktiv, welche ihre Reichweite und Vernetzung vergrößern. Kodierte Sprache, Verschlossenheit sowie das Agieren im Verborgenen erschweren darüber hinaus die Identifikation rechter Netzwerke. Neben den methodischen, ethischen und rechtlichen Hürden beim Zugang zu und der Nutzung rechtsextremer Inhalte in der wissenschaftlichen Forschung plädiert Klein für eine enge Zusammenarbeit mit Behörden sowie auf Sammlungen von Forschungsdaten und Datenspenden zurückzugreifen.

Robert Jäschke (Humboldt-Universität Berlin) stellte in seinem Vortrag das Projekt zum Thema „A corpus of monthly n-grams generated from more than two billion english tweets“ vor. Da das direkte Teilen von Social-Media-Datensets aus rechtlichen Gründen nicht gestattet ist, wurde am Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin in Zusammenarbeit mit GESIS ein alternatives Datenset entwickelt. Dieses basiert auf TweetsKB und stellt abgeleitete Textformate in Form von n-grams bereit. Das Korpus umfasst 1-, 2- und 3-grams, die aus über zwei Milliarden englischsprachigen Tweets aus den Jahren 2013 bis 2023 generiert wurden. Im Vortrag erläuterte Jäschke das methodische Vorgehen bei der Erstellung des Korpus, zeigte beispielhafte Analyseergebnisse und diskutierte die Grenzen der Datenbasis. Darüber hinaus wies er auf die öffentliche Zugänglichkeit des Datensatzes über Zenodo hin.

Die fünfte Session widmete sich intensiver dem Themenfeld der rechtlichen Möglichkeitsbedingungen und Einschränkungen von Social-Media-Forschung. Im ersten Vortrag der Session diskutieren LK Seiling und Sophia Graf (Weizenbaum Institute) die durch den Digital Services Act der Europäischen Kommission geschaffenen Rahmenbedingungen für die Erforschung von Very Large Online Platforms and Search Enginges (VLOPSEs). Sie haben im Rahmen des Projekts DSA40 Data Access Collaboratory einen Data Access Tracker konzipiert, in dem Forschende ihre Erfahrungen mit Anfragen nach DSA-basiertem Zugang hinterlegen können, sodass sich ein umfassenderes Bild darüber ergibt, wie VLOPSEs mit den Anfragen von Forschenden umgehen – von der Beantragungspraxis bis hin zur Form des Datenzugangs. So lässt sich z. B. beobachten, dass TikTok ca. drei Viertel der Forschungsanfragen genehmigt, während X Anfragen ungefähr im gleichen Verhältnis ablehnt. Auch der Beantragungsprozess bei den einzelnen Plattformen, Erfahrungen mit den Möglichkeiten des Datenzugangs sowie die Ablehnungsgründe wurden näher betrachtet. Forschende, die Anfragen nach DSA stellen, sind weiterhin zur Mitarbeit am Data Access Tracker eingeladen.

Beatrice Canelli (University of London) warf in ihrem Beitrag „You shall not… Archive“ ein Licht auf die Social Media Archivierungsbemühungen von Informationsinfrastruktureinrichtungen wie bspw. der LoC, der BNF oder der DNB und zeigte auf, wie diese durch AGB-Änderungen von Plattformen teilweise verunmöglicht wurden. Es besteht ein grundlegendes Spannungsfeld zwischen Plattforminteressen und Archvierungsbemühungen, da Plattformen ihr Geschäftsmodell schützen, aber auch sicherstellen wollen, dass sensible Nutzerdaten geschützt bleiben. Als Beispiele zog sie die bislang am häufigsten archivierten Plattformen Facebook und Twitter/X heran, deren geänderte AGB – im Falle von Facebook nach dem Cambridge-Analytica-Skandal, im Falle von Twitter/X nach der Übernahme durch Elon Musk – eine Archivierung nahezu verunmöglichen, weswegen viele Infrastruktureinrichtungen ihre Bemühungen einstellen oder pausieren mussten.

Mit einer ganz anderen Dimension rechtlicher Regularien, nämlich den AGB von Plattformen und ihren Veränderungen über die Zeit beschäftigen sich im letzten Beitrag der Session Jan Schwalbach und Oliver Watteler (GESIS). Sie diskutieren AGB – insbesondere die Regularien rund um die Weitergabe von Daten – als wichtige Forschungsdaten insofern, als dass diese regeln, welchen Restriktionen Forschende bei der Datensammlung und -weitergabe unterliegen. I. A. sind die zum Zeitpunkt der Datensammlung gültigen AGB anzuwenden. Gleichzeitig sind AGB aber sehr ephemer, nach Anpassungen kaum rekonstruierbar und werden bisher nicht archiviert. Mithilfe des Internet Archive haben sie die AGB von Twitter/X von 2006-2023 gesammelt und mithilfe qualitativer und quantitativer Methoden analysiert, wie sich die AGB allgemein sowie die Regularien zur Datenweitergabe innerhalb der AGB änderten.

Zum Abschluss des zweiten Tages konnten die Teilnehmenden in dem praxisorientierten Workshop „How to Prepare a DSC Reasoned Request Under the Digital Services Act (DSA) to Access Non-Public Data from Very Large Online Platforms (VLOPs)” Fragen rund um den DSA diskutieren und erste Erfahrungen austauschen. Der DSA eröffnet Forschenden seit 2023 u.a. die Möglichkeit, auf Basis eines „begründeten Verlangens“ („reasoned request“) Social Media Daten von sehr großen Online-Plattformen zu nutzen bzw. anzufordern, wenn diese der Erforschung systemischer Risiken („systemic risks“) in der EU dienen. Olivier Y. Rouquette (GESIS) und Paulo Almeida (Laboratory of Instrumentation and Experimental Particle Physics, Portugal) leiteten die angeregte Diskussion, in der u. a. die Auslegung der verschiedenen Kriterien, die konkreten Abläufe im Beantragungsverfahren (u. a. die Zusammenarbeit mit dem Digital Services Coordinator) und die praktischen Implikationen für Forschungsprojekte (z. B. weniger explorativ arbeiten zu können) eruiert wurden. Der Workshop schloss mit der Devise „Better together“ bzw. dem Vorsatz, die für einzelne Forschende herausfordernde Auseinandersetzung mit dem DSA am besten gemeinschaftlich – durch das Teilen von Ressourcen/Erfahrungen und über Knotenpunkte wie GESIS oder das DSA40 Data Access Collaboratory – meistern zu wollen.

Den letzten Konferenztag eröffneten vier Vorträge, die sich mit dem Sammeln von Social-Media-Daten und der Korpusbildung beschäftigten. Zunächst stellte Alexander König vom CLARIN ERIC einen Vorschlag für einen Metadatenstandard vor, mit dem Social‑Media‑Daten FAIR‑konform bereitgestellt werden können. Auf Basis bestehender Schemata wie z. B. LC‑meta oder UNIC soll er ermöglichen, die Besonderheiten von Computer‑Mediated Communication zu berücksichtigen: Autor*innen/Benutzer*innen, Erhebungsprozess und insbesondere die Plattform selbst. Hier wird zwischen drei Bereichen unterschieden: Die Benutzeroberfläche (Layout, Lokalisierung, Restriktionen), der Interaktionstyp (synchron/asynchron, Modalität, Beziehungsformen wie Follower vs. Freunde) und allgemeine Plattform‑Features (Content-Moderation, Zugangs- bzw. Alters- und Ländereinschränkungen). Eine Versionierung soll zudem die häufigen Veränderungen von Plattformen nachvollziehbar und referenzierbar machen.

Anschließend präsentierte Veronika Batzdorfer (Karlsruher Institut für Technologie) ihre Forschung über das Grokipedia-Projekt, ein von Elon Musk und seiner Plattform X lanciertes „alternatives“ Online-Lexikon zu Wikipedia. Sie untersucht die semantische Verschiebung zwischen verschiedenen Versionen von Grokipedia, die durch große Sprachmodelle generiert wurden. Gemessen hat sie die semantische Verschiebung für die Einträge zu den 1.000 größten Städten in den USA und Deutschland – durch die Verwendung von Satz-Embeddings in einem hochdimensionalen Raum und Artikelvergleiche. Batzdorfer stellte eine starke Verschiebung fest, die in unterschiedliche Richtungen weist, je nachdem, ob Wikipedia formal in den Grokipedia-Artikeln zitiert wurde oder nicht. Längere Artikel produzieren mehr Verschiebung zwischen Wikipedia und Grokipedia, während die Aktualisierung der Grokipedia-Plattform von Version 0.1 zu 0.2 die Verschiebung reduzierte. Wenn Artikel politische Themen behandelten, war der Effekt wesentlich größer als bei anderen Themen. Diese ersten Ergebnisse unterstreichen die Relevanz der semantischen Verschiebung insbesondere für Online-Lexika, die generative KI-Technologien für die Erzeugung dynamischen Inhalts verwenden.

Anschließend berichtete Ramin Soleymani (Barcelona Supercomputing Center) über seine Erfahrungen mit Anfragen nach DSA Artikel 40 (12), also die Verfügbarmachung öffentlicher Social-Media-Daten, an VLOPs wie TikTok, YouTube, X und Instagram. Er schilderte, wie unterschiedlich komplex – falls überhaupt vorhanden – die entsprechenden Kontaktformulare gestaltet sind und wann Rückmeldungen der Plattformen erfolgt sind. So variabel die Antwortzeiten (von zwei Tagen bis zu mehreren Monaten), so verschieden war auch die Qualität der Daten, die von den Plattformen ausgeliefert wurden. Zusammenfassend scheint die Regelung noch reichlich Spielraum für die Plattformen zu bieten, um sich durch zeitliche Verschleppung, detaillierte Nachfragen oder die Bereitstellung unzureichender APIs einer schnellen und umfassenden Datenbereitstellung zu entziehen.

Zum Abschluss der Session präsentierte Susmita Gangopadhyay (GESIS) das TeleScope-Datenset, die größte öffentlich verfügbare, mehrsprachige, longitudinale und kontinuierliche Sammlung von Telegram-Daten. Der Instant-Messaging-Dienst ist – nach dem Wegfall von X als einfach zugänglicher Quelle – aufgrund seiner wachsenden Nutzerbasis, Privatsphäre und einzigartigen sozialen Netzwerkfunktionen wie Kanälen für öffentliche und private Diskussionen in den Fokus gerückt. Das TeleScope-Datenset dient dazu, die Herausforderungen bei der Datensammlung auf Telegram zu überwinden. Das Datenset umfasst Metadaten von 534.137 Kanälen und Nachrichtenmetadaten aus 71.048 öffentlichen Kanälen, was rund 120 Millionen durchsuchter Nachrichten entspricht. Das Datenset bietet zudem Anreicherungen auf Kanal- und Nachrichtenebene und stellt so eine transparente und skalierbare Grundlage für die Untersuchung öffentlicher Diskussionen, Informationsdiffusion und Community-Dynamiken auf Telegram dar.

Die letzte Session der Tagung befasste sich mit den „Systemic Risks“, die in den Regelungen des Digital Services Act eine zentrale Rolle spielen. Hanna Gaweł (Universität Krakau) stellte das Projekt „Archiving Hacktivism“ vor, das einen Workflow für die Sammlung und Beschreibung von hacktivistischem Material (z. B. Defacement-Screenshots, geleakten Manifesten, Memes und Protestvideos) entwickelt. Diese Artefakte sind politisch sensibel, rechtlich unsicher und oft kurzlebig, aber sie sind essentiell für die Erforschung von digitalen Öffentlichkeiten und deren Protestformen. Der fünfstufige Workflow sieht den Ingest, eine Erfassung des Inhalts, Erstellung von Derivaten, Anreicherung von Metadaten und die Einstufung der Zugangsrechte vor. Insbesondere durch die Erzeugung von Derivat-Artefakten kann das rechtliche und ethische Risiko effektiv reduziert werden, während der analytische Wert erhalten bleibt. Die Verwendung von Sprachmodellen zur Metadaten-Generierung zeigt auch positive Ergebnisse – essenziell bleibt jedoch die menschliche Validierung.

Zu guter Letzt präsentierte Giada Marino (Università di Urbino Carlo Bo) in ihrem Vortrag „Systemic Risks and Data Access in Online Marketplace Under the Digital Services Act“ ihre Arbeit, bei der sie in Zusammenarbeit mit dem Joint Research Centre der Europäischen Kommission vier große Plattformen (Amazon, Facebook Marketplace, Temu und AliExpress) auf systemische Risiken untersuchte und sich dabei auf betrügerische Praktiken und Gefahren für Minderjährige konzentrierte. Sie schilderte die Herausforderungen des Datenzugangs unter dem DSA und stellte die erheblichen Unterschiede in der Zugänglichkeit für Forschende auf den vier Plattformen heraus.

Die Social Media Access Days gaben einen umfassenden Einblick in die Fragen und Problemstellungen, aber auch Ideen und Lösungsansätze für die Sammlung und Archivierung, Erschließung und Bereitstellung von Social-Media-Daten. Dreh- und Angelpunkt sind immer wieder die sich häufig ändernden Zugangsmöglichkeiten und Nutzungsbedingungen der Plattformen und ihrer Daten. In diesem Kontext wurden erste Erfahrungen mit den Möglichkeiten, aber auch Grenzen, die der Digital Services Act bietet, ausgetauscht. Gleichzeitig wurden viele offene Fragen, lose Enden und Hürden in der Socia-Media-Forschung sowie -Archivierung diskutiert, die Forschende und Infrastruktureinrichtungen auch in Zukunft beschäftigen werden. Insgesamt boten die Social Media Access Days einen guten Rahmen für einen intensiven persönlichen Austausch, und die Teilnehmenden äußerten den Wunsch, die Konferenz als regelmäßige Veranstaltung zu etablieren, um den produktiven Austausch fortsetzen, vor allem aber gemeinsam an den sich stellenden Herausforderungen weiterarbeiten zu können. Denn wirksame Zusammenarbeit, so zeigte die Tagung, ist essentiell, um dieses gesellschaftspolitisch hochrelevante Forschungsfeld weiterentwickeln zu können.

*Nachweis Beitragsbild auf der Startseite:Cora Dolgener

Schreibe einen Kommentar

Kommentare werden erst veröffentlicht, nachdem sie von uns geprüft wurden.
Deine E-Mail-Adresse wird nicht veröffentlicht.

Über uns

Die Deutsche Nationalbibliothek ist die zentrale Archivbibliothek Deutschlands.

Wir sammeln, dokumentieren und archivieren alle Medienwerke, die seit 1913 in und über Deutschland oder in deutscher Sprache veröffentlicht werden.

Ob Bücher, Zeitschriften, CDs, Schallplatten, Karten oder Online-Publikationen – wir sammeln ohne Wertung, im Original und lückenlos.

Mehr auf dnb.de

Schlagwörter

Blog-Newsletter

In regelmäßigen Abständen erhalten Sie von uns ausgewählte Beiträge per E-Mail.

Mit dem Bestellen unseres Blog-Newsletters erkennen Sie unsere Datenschutzerklärung an.

  • ISSN 2751-3238