Veranstaltungsprogramm

Eine Übersicht aller Sessions/Sitzungen dieser Tagung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen. Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.

 
Sitzungsübersicht
Session
Ad Hoc 108: Ad-Hoc-Gruppe - Grenzen der Quantifizierung in der Datengesellschaft
Zeit:
Freitag, 28.09.2018:
9:00 - 11:45

Chair der Sitzung: Jan-Felix Schrape
Chair der Sitzung: Michael Eggert
Ort: T 0.134
Sitzplätze: 48 Weitere Informationen finden unter folgenden webadressen: Ausstattung: https://ecampus.uni-goettingen.de/sb/rds?state=verpublish&status=init&vmfile=no&moduleCall=webInfo&publishConfFile=webInfoRaum&publishSubDir=raum&keep=y&raum.rgid=8364 Barrierefreiheit: https://www.uni-goettingen.de/de/raumglossar/474082.html#ZHG:%20Zentrales%20H%C3%B6rsaalgeb%C3%A4ude

Zeige Hilfe zu 'Vergrößern oder verkleinern Sie den Text der Zusammenfassung' an
Präsentationen

Einleitung: Grenzen der Quantifizierung in der Datengesellschaft

Jan-Felix Schrape1, Michael Eggert2

1Universität Stuttgart, Deutschland; 2RWTH Aachen, Deutschland

Mit der zunehmenden informationstechnischen Durchdringung der Gesellschaft geht eine Fokussierung auf eindeutig benennbare Kennziffern und Indizes einher. Sowohl individuelle als auch kollektive Entscheidungsprozesse gründen immer häufiger auf digital erhobenen und algorithmisch evaluierten Daten – von der Organisation des Alltagslebens, über Personalentscheidungen bis hin zu politischen Steuerungsbemühungen.

Obgleich aber die entsprechenden Auswertungstechnologien stetig elaborierter werden, stößt der Prozess des exakten Erfassens gesellschaftlicher Wirklichkeit an praktische und kognitive Grenzen: Zum einen geht mit jeder Übertragung physischer und sozialer Realitäten in numerische und damit diskrete Darstellungen schon prozessbedingt ein Informationsverlust einher, wodurch die verfügbare Datenbasis gerade in unerwarteten Entscheidungssituationen schnell fragmentarisch erscheinen kann. Zum anderen bestimmen das Vorwissen und die angelegte Beobachtungsperspektive auf essentielle Weise mit, was in Auswertungen sichtbar wird und was unsichtbar bleibt – ebenso wie jegliche Daten ihre gesellschaftliche Relevanz erst durch kontextbezogene Interpretation erhalten.

Vor diesem Hintergrund wollen wir in dieser Ad-hoc-Gruppe entlang empirischer und theoretischer Beiträge diskutieren, auf welchen gesellschaftlichen Feldern gegenwärtig algorithmisch vermittelten Zahlenwerten quasi-objektive Gültigkeit zugesprochen wird und wie dadurch eine vermeintlich sichere Entscheidungsbasis hergestellt wird; bis zu welchem Grad qualitative Urteilsbildung durch quantitative Datenprozesse ergänzt oder substituiert wird – und inwieweit die Datenquellen bzw. Auswertungstechniken sowie ihre sozioökonomischen Kontexte dabei Reflexion erfahren; auf welchen Beobachtungsfeldern sich eine offenkundige Diskrepanz zwischen gesellschaftlicher Wirklichkeit und ihrer numerischen Repräsentation feststellen lässt; wo die Grenzen der Quantifizierung in der Datengesellschaft liegen und inwiefern Sozialwissenschaftler/innen mit ihren methodischen sowie theoretischen Instrumentarien dazu beitragen können, diese Grenzen aufzuzeigen.


Wie die Daten der amtlichen Statistik den Alltag beeinflussen

Hans-Ullrich Mühlenfeld

IT.NRW, Deutschland

Anhand ausgewählter Beispiele soll gezeigt werden, wie die amtliche Statistik einen direkten Einfluss auf das alltägliche Leben haben kann. Mit direkt ist unmittelbar gemeint. Beispiele hier sind die Einkommens- und Verbrauchsstichprobe (EVS), die Bevölkerungsstatistiken und einhergehend die Statistiken für den kommunalen Finanzausgleich sowie die Preiserhebungsstatistik.

- Die EVS erhebt das Verbrauchsverhalten sowie die Lebensbedingungen von ca. 60.000 freiwillig teilnehmenden. Erhoben wird z.B. der Kauf von Schnürsenkeln genauso wie der Besitz von Aktienfonds. Mit ca. 500 Merkmalen ist die EVS umfangreich und flexibel analysierbar. Weniger bekannt ist, dass sich die Berechnung von Grundsicherungsleistungen für erwerbsfähige Leistungsberechtigte nach dem SGB II (sog. Hartz IV Sätze) an den Ergebnissen der EVS orientieren. Die errechneten Schwellen ergeben sich aus dem §1 des Regelbedarf Ermittlungsgesetzes, in dem explizit die Nutzung der EVS als Grundlage genannt ist.

- Die Preiserhebungsstatistik beobachtet mittels Preiserheberinnen und Preiserheber Preise im Einzelhandel und bei Dienstleistenden. Es gibt einen Warenkorb mit ca. 600 Gütern sowie Dienstleistungen und ca. 300.000 Einzelpreisen, von denen ausgegangen wird, dass durchschnittliche Haushalte diese verbrauchen. Hierzu gehören Lebensmittel, Strom, Kraftstoffe, Möbel etc. Ziel ist die Berechnung des sog. Verbraucherpreisindex, besser bekannt als Inflationsrate. Zunehmend orientieren sich z.B. Mietverträge an der Inflationsrate und damit unmittelbar an den Ergebnissen der Preiserhebungsstatistik.

- Die Bevölkerungsstatistiken (Zensus / Bevölkerungsfortschreibung) sowie die Beherbergungsstatistiken tragen u.a. zum kommunalen Finanzausgleich in NRW bei (vgl. Gemeindefinanzierungsgesetz 2018). Dies betrifft jeden Einzelnen insoweit, dass die Zuweisungen für eine Kommune sich an deren Einwohnerinnen- und Einwohnerzahl orientieren. Da die Kosten für die kommunale Versorgungsinfrastruktur (z.B. Kanalisation) durch alle Einwohnerinnen und Einwohner u.a. durch die Erhebung der Grundsteuer gezahlt wird, hat die Zahl der Einwohnerinnen und Einwohner einen Einfluss hierauf, da jede Kommune den Hebesatz selbst festlegen kann. Derzeit schwanken die Hebesätze zwischen 250% und 1800%.


Die algorithmische Konstruktion der sozialen Wirklichkeit

Alina Vogelgesang

RWTH Aachen, Deutschland

Auch wenn wir in einer Welt leben, die nicht vollständig durch Technologie bestimmt wird, sind doch die meisten Lebensbereiche stark durch algorithmische Prozesse beeinflusst. Entlang des Konzept der Wissenssoziologie von Peter L. Berger und Thomas Luckmann (1980), in Verbindung mit der Techniksoziologie mit dem Fokus auf Smartphonenutzung, lässt sich nachvollziehen, in welcher Weise Algorithmen die gesellschaftliche Wirklichkeit mitgestalten:

Der Wunsch menschliche Erfahrungen zu objektivieren, findet sich z.B. im Selftracking wieder, da hier die Möglichkeit besteht, sich selbst im Verhältnis zur Gesellschaft zu betrachten. Darin offenbart sich die Wirklichkeit einerseits objektiv, durch den numerischen Vergleich zu anderen und andererseits auch subjektiv, da man sich selbst in den Zahlen gespiegelt findet. Dieser Vorgang vermittelt die Idee, dass Nutzer*innen valide und urteilsfreie Daten über sich erhalten, die es ihnen ermöglichen, sich in ein neutrales Ranking einzuordnen. Wenn wir jedoch die Erhebung, Bereinigung und Nutzung von Daten näher betrachten, stellen wir fest, dass an vielen Schnittstellen Personen involviert sind: Kommen Algorithmen zum Einsatz, sortieren, priorisieren, entscheiden und klassifizieren sie Orte, Ideen, Personen und Objekte. Da diese Entscheidungen auf Basis von bestehenden Annahmen und Einschätzungen über die gesellschaftliche Realität getroffen werden, sind menschliche Entscheidungen immer auch in Algorithmen oder Daten implementiert. Das Wissen, das den Algorithmen während der Programmierung gegeben wird, übt über die Nutzung der Apps auf die Benutzer*innen Einfluss aus, da Algorithmen unsere Praktiken als Entscheidungsträger (bei der Partnerwahl, bei der Beurteilung unserer Kreditwürdigkeit usw.) beeinflussen. Es ergibt sich hier also ein neuer Weg, Wissen zu verbreiten, Normen und Realität herzustellen bzw. aufrechtzuerhalten - nämlich von den Personen, die mit den Algorithmen und Daten arbeiten (bzw. von deren Auftraggebern und deren Interessen). In dem Vortrag wird dargelegt, dass sich durch den Einfluss algorithmischer Datenquellen eine zunehmende Quantifizierung und Objektivierung von Lebensbereichen institutionalisiert und sie sich so als Beurteilungsgrundlage für alltägliche Handlungen legitimieren. So beeinflussen Algorithmen und Daten die Herstellung und Aufrechterhaltung der sozialen Realität ganz wesentlich mit.


Predictive Policing und das Polizieren per Quantifizierung

Simon Egbert

Universität Hamburg, Deutschland

Ein wichtiger Grund für das gegenwärtige Aufheben um Predictive Policing (nicht nur) im deutschsprachigen Raum ist vor allem ein technischer: Es stehen mittlerweile Rechenkapazitäten und kommerzielle Analyseprogramme zur Verfügung, die es den Polizeien ermöglichen, ihre durchaus üppigen – und lange Zeit weitgehend unangetasteten – Datenbestände systematisch und umfangreich zu analysieren. Ein weiterer Grund für das aktuell starke sicherheitsbehördliche Interesse an Prognoseverfahren ist aber auch ein genuin politischer: das derzeit hauptsächlich prognostizierte Delikt, der Wohnungseinbruchdiebstahl, wurde auf Grund anhaltender Fallzahlsteigerungen in den letzten Jahren und gleichzeitiger Stagnation der niedrigen Aufklärungs- und Verurteilungsquoten zu einem Politikum. Darauf reagierten die Polizeibehörden u. a. mit der Einführung von polizeilicher Prognosesoftware, die als besonders innovatives und leistungsstarkes Kriminalitätsbekämpfungstool gerahmt wurde. Nicht nur in den medialen Darstellungen, aber auch in den Berichten von Polizisten und Polizistinnen, die unmittelbar mit der Software in Kontakt stehen, wird aber regelmäßig deutlich, dass die Verfahren gerade auf Grund ihrer statistisch-quantitativen Basis im Kern eine ‚Black Box‘ bleiben, da erstens die Richtigkeit der Prognosen nicht ad hoc bewertet werden kann und zweitens die zugrundeliegenden Verfahren zu abstrakt sind, als sie von Laien verstanden werden können. Dazu trägt bei, dass die Entwickler kommerzieller Prognosesoftware die von ihnen genutzten Algorithmen nicht in Gänze offen legen, da sie geschäftsschädigende Kopien befürchten. Gleichzeitig können immer wieder Stimmen vernommen werden, die die polizeilichen Prognoseverfahren gerade auf Grund ihres statistischen Fundaments als besonders objektiv beschreiben. Bemerkenswert ist ferner, dass kaum ein polizeiliches Statement zur eigenen Predictive Policing-Umsetzung ohne die Feststellung auskommt, dass die Prognosen stets von ebenso erfahrenen wie kompetenten Beamten auf Richtigkeit geprüft würden und somit keineswegs eine durchgehend automatisierte Praxis vorzufinden sei.

In meinem Vortrag möchte ich an diese Beobachtungen anknüpfend und rekonstruie-ren, inwieweit Predictive Policing zu einer verstärkt mit Quantifizierungen operierenden Poli-zeiarbeit beiträgt und welche diskursiven wie praktischen Effekte damit verbunden sind.


„Withering away of interpretation“? Datenkunde und interpretative Sozialforschung als (alte) Werkzeuge für (neue) Fragen zu digitalen Massendaten

Karoline Krenn1, Lilli Braunisch2

1Fraunhofer FOKUS Berlin, Deutschland; 2Technische Universität Berlin

Der unter Forscher*innen wie Datenanalyst*innen verbreitete Enthusiasmus für prozessproduzierte Massendaten (Big Data) lässt meinen, wo viele Daten sind, ist viel Wissen. Quantifizierung und die Verwendung von Massendaten (Big Data) scheinen einander dabei vordergründig wechselseitig zu verstärken. Glaubt man den Enthusiasten, erklärt Big Data nun alles. Worin genau aber liegt die Aussagekraft dieser Daten? Die Grenzen von prozessproduzierten Massendaten und Quantifizierung liegen, so die These unseres Beitrages, in der fehlenden Reflexion der Datengewinnung, -systematisierung und -auswertung einerseits und der methodisch kontrollierten Interpretation der Daten andererseits.

Digitalisierung hat die Entstehungskontexte von Daten verändert. Diese beeinflussen Inhalte, Formate und Aufbereitung. Einerseits sind Daten durch die Erhebung sowie die Messinstrumente bereits vorstrukturiert und konstruiert. Andererseits werden solche prozessproduzierten Daten nicht mit den Deutungen der Akteure rückgekoppelt. Daraus ergeben sich spezifische methodologische Probleme wie Lücken, Verzerrungen und Messfehler sowie inkohärente Verknüpfungen von Daten. Die Umstände der Datengewinnung führen ferner dazu, dass weder der Forschungs- und Interpretationsprozess in der Auswertung seitens der Forschenden systematisch nachvollziehbar gemacht werden kann, noch eine daraus resultierende methodisch kontrollierte Rekonstruktion des tieferliegenden Handlungssinnes erfolgen kann. Dies sind wesentliche Gründe, welche die Aussagekraft dieser Daten limitieren. Denn soziologisches Verstehen (und Erklären) wird nur durch die Rekonstruktion von Wirklichkeit erzielt. Diese ist erst durch die systematische Reflexion des Forschungsprozesses möglich.

In Bezug auf Massendaten stellen sich die Fragen, wie eine Rekonstruktion des „Eigensinns“ digitaler Spuren aus Sicht der Akteure und eine systematische Reflexion des Forschungsprozesses durch den Forschenden möglich sind. Beidem fehlt es bislang an einem methodologischen Programm. Die Umsetzung eines solchen Programms verlangt nach Werkzeugen, die der komplexen Struktur der Daten gerecht werden. Hierfür wollen wir eine interpretative Datenkunde vorschlagen. Ein methodologisches Programm für digitale Massendaten könnte ein Beginn sein, die disziplinär gewachsene Trennung zwischen qualitativer und quantitativer Sozialforschung zu überwinden.


Quantifizierungsdynamiken in wissenschaftlichen Bewertungsprozessen

Barbara Hendriks2, Martin Reinhart2, Cornelia Schendzielorz1

1Deutsches Zentrum für Hochschul- und Wissenschaftsforschung, Deutschland; 2Humboldt Universität zu Berlin

In Wissenschaft und Hochschule spielen Quantifizierungen, Kommensurations- und Kategorisierungsprozesse besonders in Bewertungsprozessen wie Hochschulrankings, Publikationszahlen, Leistungsindizes sowie Journal-Impact Faktoren eine zentrale Rolle (Lamont 2012, Fourcade/Healy 2013). Im Zuge des Wettbewerbs um finanzielle Ressourcen geraten die Evaluationsprozeduren als Element „numerokratischen Regierens“ (Angermüller 2011, S. 177) somit als Formen der daten- und zahlenbasierten Entscheidungsmechanismen ins Visier wissenschaftspolitischer Auseinandersetzungen. Die steigende Menge des Forschungsoutputs insbesondere in Form von Publikationen stellt auch die Bewertungsprozesse in ihrer Funktion, Forschungsergebnisse zu klassifizieren und zu selektieren welches Wissen wertvoll ist, vor neue Herausforderungen (Macleod u. a. 2014). Publikationen gelten im akademischen System als zentrale Währung, mit der die Forscher*innen wissenschaftliche Reputation erlangen und sind im Rahmen von Evaluationen als Arbeits- und Leistungsnachweis gemeinhin anerkannt. Umstritten ist jedoch die Bewertung von Publikationsleistungen anhand quantifizierender Metriken, die im Zuge der Urteilsbildung zur Klassifikation, Gewichtung und Wertschätzung der Publikationen herangezogen werden. Vor diesem Hintergrund erwachsen auf Ebene der betroffenen Akteure zunehmend Forderungen nach einer stärkeren Gewichtung qualitativer Evaluationselemente, um der Reduktion auf scheinbar objektiv vergleichbare Zahlen entgegenzuwirken.

Auf Basis einer qualitativen Studie identifizieren wir die Effekte und Grenzen der Quantifizierung im wissenschaftlichen Evaluationssystem vor dem Hintergrund der geltenden Reputationsordnung am Fallbeispiel der Lebenswissenschaften. Nach einer kurzen Bestandsaufnahme zum Quantifizierungsgrad von Bewertungsprozeduren im Rahmen von Drittmittelvergabe und Personalentscheidungen in den Lebenswissenschaften, wird die Aussagekraft und Tauglichkeit der quantifizierten Evaluationsprozesse mit Blick auf ihre sozioökonomischen Kontexte für wissenschaftliche Bewertungsverfahren hinsichtlich ihrer Potentiale und Grenzen kritisch erörtert. In der Bilanz konstatieren wir eine sich ungeachtet ihrer Limitationen selbstverstärkende Quanitifizierungsdynamik in Bewertungsprozessen innerhalb der Wissenschaft.



 
Impressum · Kontaktadresse:
Datenschutzerklärung · Veranstaltung: DGS 2018
Conference Software - ConfTool Pro 2.6.121
© 2001 - 2018 by Dr. H. Weinreich, Hamburg, Germany