Veranstaltungsprogramm

Eine Übersicht aller Sessions/Sitzungen dieser Tagung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen. Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.

 
 
Sitzungsübersicht
Sitzung
SekWuT1: Sektion Wissenschafts- und Technikforschung: Digitale Daten und neue Methoden: Chancen und Herausforderungen für die Soziologie
Zeit:
Freitag, 18.09.2020:
13:30 - 16:30

Chair der Sitzung: Martina Franzen, Kulturwissenschaftliches Institut Essen
Chair der Sitzung: Cornelius Schubert, Universität Siegen
Chair der Sitzung: Jan-Felix Schrape, Universität Stuttgart
Ort: digital
Den Link zur digitalen Sitzung finden Sie nach Anmeldung zum Kongress bei Eventbrite.

Zeige Hilfe zu 'Vergrößern oder verkleinern Sie den Text der Zusammenfassung' an
Präsentationen

Datenqualität und Selektivitäten digitaler Daten. Alte und neue digitale und analoge Datensorten im Vergleich

Nina Baur1, Peter Graeff2

1Technische Universität Berlin, Deutschland; 2Universität Kiel, Deutschland

Der Begriff „digitale Daten“ ist unpräzise, weil in den Sozialwissenschaften spätestens seit den 1960ern Daten nicht nur digital erhoben, verarbeitet und analysiert wurden, sondern in der Forschungspraxis auch oft parallel analoge und digitale Daten erhoben wurden. Am Beispiel der quantitativen Sozialforschung schärft der Beitrag den Begriff der „digitalen Daten“ durch die Unterscheidung zwischen forschungsinduzierten, klassischen und neuartigen prozessproduzierten Daten („Big Data“). Auf dieser Basis zeigen wir, dass klassische Modelle der empirischen Sozialforschung zur Beurteilung der Datenqualität und Selektivitäten von prozessproduzierten Daten – wie etwa das sogenannte Bick-Müller-Modell – auch auf neuartige prozessproduzierte Daten übertragen können, deren Besonderheit es ist, dass sie meist im Kontext des Web 2.0 entstehen und i.d.R. ausschließlich digital sind. Mit Hilfe des Bick-Müller-Modells lassen sich die spezifischen Stärken und Schwächen von neuartigen prozessproduzierten Daten aufzeigen. Allgemein lässt sich festhalten, dass Web 2.0-Daten blinde Flecken aufweisen, insofern dass sowohl im nationalstaatlichen Rahmen, als auch im globalen Kontext große Teile der Bevölkerung keinerlei digitale Spuren hinterlassen. Diese digitalen Ausschlüsse folgen weitgehend herkömmlichen Mustern sozialer Ungleichheit: Im Gegensatz zu jungen, hochgebildeten Männern aus der oberen Mittelschicht in Großstädten des globalen Nordens hinterlassen ältere, geringgebildete Arbeiterfrauen aus dem ländlichen Afrika praktisch keinerlei digitale Spuren. Verwendet man Web 2.0-Daten in der Forschung, besteht damit die Gefahr, dass keinerlei, unvollständige oder verzerrte Informationen über die Personenkreise, die am stärksten sozial benachteiligt werden, gewonnen werden. Weiterhin kommt es zu einer Machtverschiebung hinsichtlich Dateneigentümerschaft vom Staat und der Bevölkerung hin zu multinationalen Konzernen. Dies heißt aber nicht, dass Web 2.0-Daten nicht für die Forschung geeignet sind. Vielmehr werden durch die Anwendung des Bick-Müller-Modells verschiedene analoge und digitale Datensorten miteinander vergleichbar, was wichtig ist, weil – wie die Analyse zeigt – sich nicht allgemein, sondern nur in Bezug auf eine spezifische Forschungsfrage zeigen lässt, welche Daten besser, weniger oder gar nicht geeignet sind.



Das Digitale und seine Ethnografie(n). Theoretische und methodologische Überlegungen zum ethnografischen Forschungsstil im algorithmisierten Zeitalter

Dahm Sebastian1, Simon Egbert2

1Universität Bielefeld; 2Technische Universität Berlin

„Digital Methods“ erleben in den letzten Jahren Hochkonjunktur in der (qualitativen) Methodendiskussion. Diagnostiziert werden hierbei durch die Digitalisierung angestoßene, fundamentale Veränderungen sozialer Phänomene, auf welche die Soziologie in theoretischer, aber vor allem auch in method(olog)ischer Hinsicht zu reagieren habe. Häufig ist hierbei eine Digitalisierung soziologischer Methoden selbst impliziert, was sich bereits an einschlägigen Buchtiteln ablesen lässt: „Digital Sociology“ (Norres 2017, Lupton 2014) scheint das Gebot der Stunde zu sein. Diese method(olog)ische Diskussion wird insbesondere auch mit Bezug auf ethnografische Methoden geführt. Unter den Labeln „Virtual Ethnography“ (Hine 2000), „Netnography“ (Kozinets 2010), „Webnografie“ (Strübing 2006), „Digital Ethnography“ (Pink et al. 2016) werden die Chancen und Grenzen ethnografischer Forschung, freilich unter unterschiedlichen Vorzeichen, im Zeitalter der Digitalisierung diskutiert. Dabei fällt auf, dass die Erforschung von Online-Praktiken ebenso im Fokus steht wie die Nutzung von digitalen Medien bzw. Geräten. Ansätze zu einer ethnografischen Analyse von Algorithmen bzw. algorithmischen Praktiken im engeren Sinne fehlen derzeit indes noch weitgehend (z. B. Seaver 2017). Basierend auf einer kritischen Lektüre der existierenden Literatur zum Thema ‚digital ethnography‘ und ausgehend von einer tragfähigen, genuin soziologischen Definition des Digitalen (Heintz 1993; Nassehi 2019) sowie anschlussfähigen empirischen Ansätzen (Rammert/Schubert 2006), soll unser Beitrag ein Diskussionsangebot zur ethnografischen Erfassung von Algorithmen bieten. Dabei schlagen wir eine analytische Trennung zwischen dem Digitalen als Gegenstand und dem Digitalen als methodischer Ressource vor. Die Entscheidung für oder gegen digitalisierte ethnografische Methoden wird somit nicht zuletzt zu einer Bestimmung des Verhältnisses von Gegenstandsangemessenheit (Garfinkel/Wieder 1992) und Methodenpragmatismus (Hammersley/Atkinson 2019, Breidenstein et al. 2013). Unser Ziel ist damit, eine trennscharfe Definition „digitaler Ethnografie“ im engeren Sinne vorzustellen; also einer Ethnographie, die das Digitale selbst in den Blick nimmt und sich dadurch von mittlerweile etablierten Formen ethnographischer Onlineforschung abhebt.



Zur Bedeutung von Eigenlogiken der soziotechnischen Konstellationen von Social Media‐ Plattformen bei CSS‐Analysen

Roger Häußling, Sascha Zantis

RWTH Aachen, Deutschland

Social Media‐Plattformen stellen weniger ein Abbild der Wirklichkeit dar, sie bilden vielmehr soziotechnische Konstellationen mit je spezifischen Eigenlogiken. Wie auch Marres (2017) betont, sollte eine Digitale Soziologie von einer solchen techniksoziologischen Einsicht getragen sein und mithin auch auf Theorien und Konzepte der Science and Technology Studies zurückgreifen, um diesen Eigenlogiken gebührend Rechnung tragen zu können. Ein solches Forschungsdesign wollen wir zur Diskussion stellen. Konkret haben wir den Twitter‐Hashtag #Merkelmussweg netzwerk- und inhaltsanalytisch beforscht. Hierbei sind wir zuerst techniksoziologisch von den spezifischen Besonderheiten der Plattform ausgegangen und haben entsprechend Daten bearbeitet und Methoden angepasst, um diese Besonderheiten einzufangen, bevor dann mithilfe von Data Science‐Methoden erste Analysen vorgenommen werden konnten, auf deren Basis die nächsten Schritte evaluiert wurden. So bildet beispielsweise bei Twitter die Zeichenlimitation der Tweets eine Herausforderung für die im Anschluss stattfindende Inhaltsanalyse nach Mayring, die für gewöhnlich von umfassenderen Textkorpora ausgeht. Entsprechend haben wir u.a. mit digitalen Methoden aus dem Bereich des Natural Language Processing Korpora aufbereitet, indem wir ähnliche Tweets automatisiert gematcht und gemeinsam analysiert und klassifiziert haben. Hierin drückt sich ein Verständnis von Daten und Methoden als Schnittstellen aus (vgl. Häußling 2020), die Verbindungen zwischen dem Untersuchungsgegenstand, Forschungsfragen, Instrumenten und wissenschaftlichen Konzepten versuchshaft herstellen. Die digitale Sphäre ermöglicht weitaus experimentellere Forschungssettings als wir es von der klassischen empirischen Sozialforschung gewöhnt sind und gleichzeitig wird die Trennung zwischen Forschung und ihrem Gegenstand durchlässiger. Insbesondere kommt es zu einem iterativen Durchlaufen von induktiven, abduktiven und deduktiven Analyseverfahren (vgl. auch Kitchin 2014; McFarland/ Lewis/ Goldberg 2016).

In dem Beitrag wollen wir anhand des o.g. Twitter‐Beispiels aufzeigen, welcher Gewinn für die Computational Social Science bzw. die Digital Sociology besteht, wenn sie in grundlegender Weise techniksoziologische Analysen der soziotechnischen Konstellationen ihres Untersuchungsgegenstands und der verwendeten Methoden mit einbezieht.



Metadaten aus Maschinen. Zur Rekonstruktion mehrfach gedeuteter „Deuter“.

Karoline Krenn, Jens Tiemann

Fraunhofer FOKUS Berlin, Deutschland

Metadaten sind der Schlüssel zur Nutzung und Deutung von Daten. Ihre Bedeutung für die Wissensrepräsentation wird umso wichtiger als fortwährend mehr Daten frei zugänglich werden (beispielsweise in Open Data Portalen) oder als Nebenprodukt digitaler Infrastrukturen entstehen (beispielsweise in Smart Cities). Die hoch angepriesenen Mehrwerte von Daten für die sinnadäquate Nachnutzung lassen sich nur dann umsetzen, wenn Datenqualität und Validität sichergestellt sind und ausreichende Informationen über die Daten selbst vorliegen.

Wo und wie treten Metadaten in Erscheinung? Metadaten sind ein Begleitphänomen bei der Verarbeitung von Daten in technischen Systemen („Maschinen“). Metadaten sind ferner ein zentrales Element bei der Datenaufbereitung innerhalb von Systemen, in denen Daten für ihre weitere Nutzung abgelegt werden. Und Metadaten sind aus einer Verwertungsperspektive relevant für die zentralen Selektionsprozesse von Daten, in Wissenschaft und Forschung ebenso wie in praktischen Anwendungen. In allen drei Zusammenhängen sind Metadaten auch ein soziotechnisches Phänomen, also das Ergebnis soziotechnischer Interaktionen, die festlegen, was im Weiteren als ein (Meta-)Datum Geltung hat. Mit weitreichenden Folgen: Metadaten zu erzeugen und zu nutzen heißt immer auch Daten zu deuten und Deutungen zu materialisieren. Die Rekonstruktion dieser Deutungen mit Blick auf die Kontexte ihrer Entstehung, wie sie von einer sozialwissenschaftlichen Datenkunde schon lange gefordert wird, ist eine Möglichkeit die Validität von (Meta-)Daten zu bestimmen.

Der Beitrag fokussiert die Entstehung und Deutung von Metadaten in technischen Systemen. Obwohl maschinell erzeugten Daten landläufig eine besondere Neutralität zugeschrieben wird, zeigt ein genauerer Blick auf konkrete Anwendungen jedoch, dass die Heterogenität der Entstehungskontexte von Daten eine enorme Herausforderung für die Datenqualität darstellt. Insbesondere im Internet der Dinge (z. B. in dezentralen community-basierten Projekten) wird die Bedeutung von Domänenwissen zur Deutung von Metadaten sichtbar (Krenn/Tiemann 2020).

In unserem Beitrag wollen wir entlang konkreter Fallbeispiele mit einem Blick auf Metadaten deutlich machen, wie eine interdisziplinäre Verschränkung soziologischen Methodenverständnisses mit technischer Expertise zur Sortierung der Probleminventare digitaler Daten beitragen kann.



“Big Literature”. Möglichkeiten und Grenzen einer partiell automatisierten hermeneutischen Textanalyse am Beispiel der politischen Problematisierungen innerhalb von STS Publikationen

Arno Simons1, Ingmar Lippert2, Tahani Nadim2

1DZHW, Berlin; 2Museum für Naturkunde Berlin

Durch Digitalisierung und Datafizierung steht die Soziologie einerseits vor der Herausforderung, diese Phänomene verstehend zu erklären und kritisch zu verorten. Andererseits hat sie die Chance, selbst von wachsenden Datenmengen und neuen Methoden zu profitieren. Letzteres erfordert jedoch eine kritische Auseinandersetzung mit den Potentialen und Grenzen von “Big Data” und entsprechenden Methoden. Während der empirischen Sozialforschung für die Analyse von klassisch-quantitativen Daten bereits ein ausgeklügeltes Instrumentarium zur Verfügung steht, welches allerdings auf neue Fragen zu Reliabilität, Repräsentativität und Forschungsethik reagieren muss, stellen große Textdaten eine gänzlich neue Herausforderung dar. Zwar ist Text seit den Anfängen der Soziologie eine ihrer fundamentalen Datenkategorien. Gleichzeitig wurden Texte, abgesehen von ihren Metadaten, bisher fast ausschließlich qualitativ analysiert. Eine automatisierte Aufschlüsselung des hermeneutischen Inhaltes von Texten erscheint noch heute vielen soziologisch Forschenden undenkbar. Dabei hat sich insbesondere in den letzten fünf Jahren das Feld der automatisierten Textanalyse rasant entwickelt. Google, Facebook und Co haben künstliche neuronale Netzwerke geschaffen, die ein automatisiertes "Sprachverstehen" zumindest in Ansätzen ermöglichen, und deren Potenzial für die empirische Sozialforschung noch nicht ausgelotet wurde. Am Beispiel eines laufenden Projektes zur Untersuchung von politischen Problematisierungen in der STS-Literatur möchten wir diskutieren, wie die Soziologie von diesen Tools Gebrauch machen kann, um große Textdaten mittels “Distant Reading” hermeneutisch zu analysieren. Wir stellen unsere, nicht unkritischen, Erfahrungen mit zwei Arten von Zugängen vor: strukturentdeckende und strukturprüfende Verfahren. Mit diesen Zugängen problematisieren wir erste Überlegungen zum Verhältnis von maschinellem Sprachverstehen und soziologischer Theorie bzw Sprachphilosophie. Wir diskutieren, inwieweit die neuen Verfahren als Operationalisierungsversuche von Sprachtheorien zu deuten sind und welche Anwendungsmöglichkeiten sich ableiten lassen. Insbesondere untersuchen wir in unserem Projekt, inwieweit sich Foucaults Konzept der “Aussage” (im Unterschied zur “Äußerung”) mittels moderner Textvektoren operationalisieren und messen lässt, bzw wo dabei die Grenzen liegen.



Wider den epistemischen Datenabsolutismus: Ein Plädoyer für Open Data & Trusted Third Parties

Carsten Ochs1, Katharina Kinder-Kurlanda2

1Universität Kassel, Deutschland; 2GESIS Datenarchiv für Sozialwissenschaften

Der hoffnungsvolle Vernetzungsdiskurs der 1990er Jahre um die emanzipatorischen, egalisierenden, demokratieförderlichen Potentiale des Internet ist in der letzten Dekade zunehmender Ernüchterung gewichen. Shoshana Zuboff (2018) etwa sieht im Gefolge des „Überwachungskapitalismus“ ein neo-absolutistisches Regime der Wissensteilung im Entstehen begriffen, das eine Destabilisierung der demokratisch erreichten Ausbalancierung epistemischer Machtpotentiale hervorrufe. Die alte Machtfrage stelle sich wieder einmal neu: Who knows? Who decides who knows? Who decides who decides who knows? Die Antwort laute: jene, die über die Daten verfügen. Und in der Tat: Von Obamas datafizierten Wahlkämpfen bis zu Facebooks ‚Cambridge Analytica-Skandal‘ verweisen zahlreiche empirische Fälle auf die gesellschaftsstrukturelle Tragweite der epistemischen Machtverschiebungen – Methoden- münden in Machtfragen.

Der Ausgang dieser Konflikte um Datenverfügung, Wissensproduktion und den ‚Wert‘ des generierten Wissens in versch. Kontexten (akademisch, sub/disziplinär) ist jedoch ungewiss. Wir wollen daher zeigen, wie sich konkrete datenökonomische Konfigurationen vor dem Hintergrund des Spannungsfeldes zwischen emanzipatorisch-demokratisierendem Potential digitaler Verhaltensdaten einerseits und deren datenabsolutistischer Schattenseite andererseits entfalten. Vier Analyse-Schritte werden dazu unternommen: 1. wird die historische Parallele zwischen den absolutistischen arcana imperii und zeitgenössischer Datenökonomie durch Verknüpfung der Diagnosen Zuboffs mit der Arbeit von Norbert Elias aufgezeigt. 2. wird der datenökonomische Absolutismus anhand der Betrachtung zeitgenössischer behavioral engineering-Verfahren bestimmt. 3. wird mithilfe eines Fallbeispiels – der Archivierung von (proprietären) Twitter-Daten durch das (öffentliche) GESIS Datenarchiv für Sozialwissenschaften – dargestellt, wie Datenökonomien herkömmliche ‚gute wissenschaftliche Praxis‘ herausfordern und neue Strategien zur Herstellung von Forschungstransparenz fordern. 4. erfolgt ein Plädoyer für die Etablierung öffentlicher Datenarchive als Trusted 3rd Parties, sowie für öffentliche Kontroversen um die Regeln, an denen sich solche Archive orientieren sollen. So soll schließlich gezeigt werden, dass die Frage guter wissenschaftliche Datenpraxis nicht nur Methoden, sondern auch Gesellschaftsformate zur Disposition stellt.



 
Impressum · Kontaktadresse:
Datenschutzerklärung · Veranstaltung: DGS 2020
Conference Software - ConfTool Pro 2.6.135
© 2001 - 2020 by Dr. H. Weinreich, Hamburg, Germany