Dr. Sarah Spiekermann   –   Autorin und Professorin der Wirtschaftsinformatik

Meine Forschungsvision und -bereiche

Wahre Forschung ist zutiefst kreativ; eine ständige Suche nach Wahrheit; eine Seins- und Denkweise in ständigem Fluss. Die Tiefen des Wissens um das bereits Geschriebene sind die Grundlage, um mehr von dem zu verstehen, was wir suchen; eine Tiefe, die wir als Forscher ständig in uns selbst nähren müssen. Und doch ist es der Lichtstrahl oder Schatten in unserem Geist, der plötzlich aufblitzt und uns einen Hinweis darauf gibt, wo die Wahrheit schließlich vergraben sein könnte. Nur um festzustellen, dass sie nie „vergraben“ ist, sondern immer im Fluss ist. Mein Leben ist in diesem ständigen Fluss, und die Wissenstropfen, die ich beitragen konnte, finden sich in meiner Forschungsgeschichte, so wie sie grob auf dieser Seite zusammengestellt ist. Aber es muss auch beachtet werden: Forschung ist nicht nur ein einsames Unterfangen. Oft ist sie eine Reise im Gespräch mit Anderen, das Kind von Zusammenarbeit. Daher nennt diese Seite auch meine Gefährten. Im Kern ging es mir immer um eine Mission: zu verstehen, wie Menschen mit Technologie interagieren und dann die Technologie so gestalten, dass sie langfristig ein gutes Leben führen können.

Publikationen siehe Researchgate:
Sarah Spiekermann on ResearchGate

Forschung


Ethische IT Innovation & Werte-basierte Systeme

Seit spätestens 2014 beschäftige ich mich intensiv mit dem grundsätzlichen Thema der Ethik in der IT. Nach knapp 14 Jahren Forschung zum Thema Privatsphäre war klar, Privacy und Kontrolle gegenüber Maschinen sind nicht die einzigen Werte die zählen. Wir müssen grundsätzlich über Ethik in der IT-Systemgestaltung nachdenken. Aus diesem Grund habe ich zunächst ein Lehrbuch bei Taylor & Francis in New York zur ethischen IT Innovation veröffentlicht, welches auch eine erste Anleitung enthält zu dem, was Werte sind und wie wir Systeme wertethisch gestalten können.

Spiekermann, S. (2016)
Ethical IT Innovation - A Value-based System Design Approach
New York, London and Boca Raton CRC Press, Taylor & Francis.

Gleichzeitig habe ich begonnen mit dem Ingenieursverein IEEE zu arbeiten, wo ich über die Leitung der P7000 Arbeitsgruppe zum ethischen Technikdesign sehr viel lernen durfte, wie man denn nun genau ethisches, wertgeleitetes Systemdesign umsetzen kann. Der erste große Übersichtsartikel zu diesem Thema ‚Value-based Engineering for Ethics by Design‘ enthält eine klare Anleitung und Definitionen.

Spiekermann, S. and T. Winkler (2020 forthcoming)
Value-based Engineering for Ethics by Design.
fourthcoming.

Der Ansatz ist in Deutsch auch im Philosophischen Handbuch der KI beschrieben, wo ich ihn außerdem den eher dürftigen MIT-Arbeiten zu ‚Moral Machines‘ gegenüberstelle. Denn: aus meiner Sicht können Maschinen keine Moral haben. Sie können lediglich technische Voraussetzungen eingebaut bekommen, so dass sich bestimmte Werte dann für uns Menschen entfalten können und die Moral des Menschen gestärkt wird.

Spiekermann, S. (2020)
Digitale Ethik und Künstliche Intelligenz.
Philosophisches Handbuch der Künstlichen Intelligenz.

München, Springer Verlag.

Wie eine Welt aussehen könnte, in der digitale Ethik gelebt wird wie ich sie mir vorstelle, habe ich in meinem populärwissenschaftlichen Sachbuch zum Thema veröffentlicht; zusammen mit der Beschreibung einiger fundamentaler Werte für das digitale Zeitalter: Freiheit und Wissen.

Spiekermann, S. (2019)
Digitale Ethik - Ein Wertesystem für das 21. Jahrhundert.
München, Droemer

Märkte für persönliche Daten

In 2012 habe ich zum ersten Mal öffentlich die Ansicht vertreten, dass man Menschen Besitzrechte an ihren privaten Daten geben sollte und konnte den Sinn dieser Forderung auch in einem großen Experiment nachweisen. Zusammen mit Jana Korunovska habe ich über 1000 Facebook Nutzer untersucht, die alle in dem Moment anfangen, ihre Daten (monetär) zu schätzen, in dem sie lernen, dass es tatsächlich einen Markt für diese gibt. Außerdem werden sie wütend, wenn man ihnen keine Kontrollrechte über die Daten gibt. Das wäre so, als wenn jemandem etwas gehört und nicht er darf es selbst verkaufen, sondern jemand anderer (und das noch ohne Mitsprache).

Spiekermann, S. and J. Korunovska (2016)
"Towards a Value Theory for Personal Data."
Journal of Information Technology (JIT) 32(1): 62-84.

Im Rahmen dieser psychologischen und experimentellen Überlegungen zum Thema Datenbesitz habe ich dann zusammen mit Alexander Novotny ein Marktmodell ausgearbeitet, was aufzeigt, wie man eigentlich die Märkte für persönliche Daten so gestalten könnte und müsste, dass weiterhin mit Daten gehandelt werden kann, jedoch unter fairen Bedingungen für die natürlichen Besitzer der Daten; das sind wir Nutzer!

Spiekermann, S. and A. Novotny (2015)
"A vision for global privacy bridges: Technical and legal measures for international data markets."
Computer Law and Security Review 31(2): 181-200.

Wie schwierig und konfliktgeladen solche Ideen jedoch letztlich in der Praxis sind – auch aus rechtlicher und ethischer Sicht - wurde mir klar, als ich mit den Kollegen Alessandro Acquisti und Rainer Böhme ein Special Issue des Journals Electronic Markets herausgeben durfte. Die gemeinsame Reflektion zu den echten Herausforderungen solcher Märkte, haben meine Ideen zu den Besitzrechten ziemlich getrübt.

Spiekermann, S., A. Aquisti, R. Böhme and K.-L. Hui (2015)
"The challenges of personal data markets and privacy."
Electronic Markets 25(2): 161–167.

Danach begann ich ein Projekt mit dem Wiener Aktivisten Wolfie Christl, mit dem ich gemeinsam seine Recherchen zum Thema der Datenmärkte in einem Buch herausgegeben habe: ‚Networks of Control‘

Christl, W. and S. Spiekermann (2016)
Networks of Control - A Report on Corporate Surveillance, Digital Tracking, Big Data & Privacy
Vienna, Facultas.

Networks of Control ist wissenschaftlich von Shoshana Zuboff in ihrem Buch zum Überwachungskapitalismus nochmals so auf den Punkt gebracht worden, dass ich die Idee von den Besitzrechten an persönlichen Daten aus ethischen Gründen nicht weiterverfolgen kann. Meine letztliche Sicht ist, dass man die Kommunikationen zwischen Menschen grundsätzlich nicht kommerzialisieren sollte. Kommunikation muss frei sein von jeglichem Kommerz und zwar egal zu welchem Zwecke sie erfolgt.

 

Menschliche Kontrolle und Autonomie im Internet der Dinge

In meiner Habilitation habe ich mich mit dem Thema der menschlichen Kontrolle im Internet der Dinge (‚Ubiquitous Computing‘) beschäftigt. Zusammen mit Frank Pallas habe ich in diesem Zusammenhang den Begriff des „Technologiepaternalismus“ geprägt.

Spiekermann, S. and F. Pallas (2005)
"Technology Paternalism - Wider Implications of RFID and Sensor Networks."
Poiesis & Praxis - International Journal of Ethics of Science and Technology Assessment 4(1): 6-18.

Um zu schauen, in wie fern Menschen selbst noch Kontrolle über ubiquitäre Informationssysteme empfinden, habe ich ein psychologisch fundiertes Messinstrument entwickelt, was diese wahrgenommene Kontrolle bei Techniknutzern abfragt.

Spiekermann, S. (2007)
Perceived Control: Scales for Privacy in Ubiquitous Computing.
Digital Privacy: Theory, Technologies and Practices.

A. Acquisti, S. D. Capitani, S. Gritzalis and C.Lambrinoudakis. New York, Taylor and Francis.

Beim Einsatz dieses Messinstruments im Metro Future Store kam allerdings leider heraus, wie sehr sich Menschen in eine gelernte Hilflosigkeit zurückziehen, egal ob sie nun eine Privacy-Technologie zur Verfügung haben oder nicht. Das heißt: mehr Kontrolltechnologie heißt nicht gleichzeitig, dass Menschen dieser auch vertrauen. Sie fühlen sich weiter hilflos.

Guenther, O. and S. Spiekermann (2005)
"RFID and Perceived Control - The Consumer's View."
Communications of the ACM 48(9): 73-76.

Privacy Engineering

Als Wirtschaftsinformatikerin war es mir immer ein Anliegen, nicht nur die menschliche Wahrnehmung von Technologie zu untersuchen, sondern auch Vorschläge zu machen, wie wir bessere Technik bauen können und welche Rahmenbedingungen wir dafür brauchen. Diese Ambition, bessere Systeme zu bauen, konnte ich vor allem im Feld der datenschutzkonformen und sicheren Technikgestaltung ausleben. Meine erste ganz große Arbeit dazu war die mit Lorrie Cranor zum Privacy Engineering.

Spiekermann, S. and L. F. Cranor (2009)
"Engineering Privacy."
IEEE Transactions on Software Engineering 35(1): 67-82.

Später habe ich mit Marc Langheinrich untersucht, ob und wie Software- und Systemingenieure sich in die Lage versetzt fühlen, solch ein Privacy Engineering auch umzusetzen; bzw. auch ein Security Engineering. Die Ergebnisse dazu sind sehr ernüchternd. Rund 40% der Entwickler sehen sich nicht in der Lage, die Verantwortung für die Systeme zu übernehmen, die sie erbauen.

Spiekermann, S., J. Korunovska and M. Langheinrich (2018)
"Inside the Organization: Why Privacy and Security Engineering Is a Challenge for Engineers."
Proceedings of IEEE 107(3): 1-16.

Kleinere angewandte aber für mich sehr spannende Arbeiten konnte ich in diesem Themenbereich immer wieder mit betreuen; vor allem mit Sabrina Kirrane und Peter Blank zum Thema datenschutzfreundliche Drohnen.

Blank, P., S. Kirrane and S. Spiekermann (2018)
"Privacy-Aware Restricted Areas for Unmanned Aerial Systems."
IEEE Security & Privacy 16(2): 70-79.

Privacy Impact Assessments und Privacy by Design

Meine empirischen Arbeiten zum Privacy Paradox und zur Hilflosigkeit von Nutzern im Internet der Dinge, haben mich dazu veranlasst, mich politisch für mehr Privatsphäre einzusetzen. Ich wurde daher Rapporteurin bei der EU Kommission in der DG Connect für diejenige Arbeitsgruppe, die das von der Europäischen Kommission 2011 offiziell ratifizierte Privacy Impact Assessment für RFID erarbeiten sollte. Nach Abschluss der Arbeitsgruppe konnte ich dann die Gruppe europäischer Wirtschaftspartner anführen, die mit den US-Verbänden die Handhabung der Privacy in der RFID-Technologie verhandelten. Das Resultat war das erst „PIA“ (Privacy Impact Assessment) für RFID, auf dem auch hinterher andere PIA-Methoden, wie etwas das für Smart Meter aufsetzen konnten. Die Geschichte der Entstehung dieses PIA und die Kämpfe rund um die Inhalte konnte ich (in freundlich abgeschwächter Form) in einem Buchbeitrag unterbringen.

Spiekermann, S. (2012)
The RFID PIA- Developed by Industry, Agreed by Regulators.
Privacy Impact Assessment: Engaging Stakeholders in Protecting Privacy.

D. Wright and P. De Hert. Dodrecht, Springer Verlag

Die wissenschaftlich komplette und ausgereifte Methode wurde im European Journal for IS veröffentlicht, zusammen mit meiner damaligen Doktorandin Marie Oetzel, die die ganzen PIA-Arbeiten im Hintegrund immer unterstützt hat und für das deutsche Bundesamt für Sicherheit (BSI) auch einen entsprechenden Leitfaden ausgearbeitet hat.

Oetzel, M. and S. Spiekermann (2013)
"A systematic methodology for privacy impact assessments: a design science approach."
European Journal of Information Systems 23(2): 126-150.

Entscheidend ist, dass wenn man ein PIA ordentlich durchläuft und man die ganzen Gefahren rund um eine Technologie so analysiert, dass man entsprechende Maßnahmen dagegen setzen kann, dass man dann bei einem sog. „Privacy by Design“ landet. Diese Kette, vom PIA zum Privacy by Design habe ich relativ übersichtlich in dem ACM Fachmagazin ‚Communications of the ACM‘ beschrieben.

Spiekermann, S. (2012)
"The Challenges of Privacy by Design."
Communications of the ACM 55(7).

Digitale Privatsphäre & digitales Kommunikationsverhalten

In 2001 habe ich als Erste das Phänomen experimentell nachgewiesen, was später unter dem Terminus „Privacy Paradox“ immer weiter erforscht und vertieft worden ist. Dieses beschreibt, wie Menschen trotz ihres expliziten Wunsches nach Privatsphäre über den Maßen private Informationen online von sich preisgeben; also ob sie all ihrer Ängste oder guten Vorsätze vergessen würden.

Spiekermann, S., J. Grossklags and B. Berendt (2001)
E-privacy in 2nd generation E-Commerce.
Proceedings of the 3rd ACM Conference on Electronic Commerce EC'01, Tampa, Florida, USA, ACM Press.

Diese Arbeiten habe ich später im Hinblick auf Interaktionen in sozialen Netzwerken zusammen mit Hannah Krasnova weiter vertiefen können.

Krasnova, H., S. Spiekermann, K. Koroleva and T. Hildebrand (2009)
"Online Social Networks: Why we disclose."
Journal of Information Technology 25(2): 109-125.

Für mich persönlich ist die wichtigste Grundlagenforschung in diesem Themenfeld meine Auseinandersetzung mit der Rolle der Entropie gewesen. Entropie, also das Maß an Chaos in unserer Umgebung, könnte ganz maßgeblich unser Kommunikationsverhalten beeinflussen. In einem Experiment konnte ich beobachten, wie bei höherer Entropie in einem Interface, Menschen immer mehr von sich preisgeben, gleichzeitig bricht jedoch der inhaltliche Reichtum (die Tiefe) der Aussagen zusammen ebenso wie der ich-Bezug. Es scheint, als führe mehr Entropie zu oberflächlicherem Kommunikationsverhalten.

Spiekermann, S. and J. Korunovska (2014)
"About the Importance of Interface Complexity and Entropy for Online Information Sharing."
Behaviour & Information Technology 33(6): 336-345.

Suchkosten und Risiko-geleitete Interaktion von Menschen mit KI

2001 habe ich an der Humboldt-Universität zu Berlin im Fach Wirtschaftsinformatik bei Oliver Günther zu der Frage promoviert, wie sich Menschen von digitalen anthropomorphen Softwareagenten im Kauprozess unterstützen lassen können. Dabei habe ich ein Verkaufssystem mit dem Namen IWA erfunden, was Nutzer bei ihren empfundenen Kaufrisiken abholt und versucht, diese im Dialog mit dem Kunden zu reduzieren.

Spiekermann, S. and C. Parachiv (2002)
"Motivating Human-Agent Interaction : Transferring Insights from Behavioral Marketing to Interface Design."
Journal of Electronic Commerce Research 1(2): 255-285.

Ein wesentlicher wissenschaftlicher Gedanke bei der Entwicklung dieses Systems war der Aspekt der Privatsphäre. Ich habe das Teilen von persönlichen (teilweise delikaten) Informationen mit so einer (damals noch recht einfachen) „KI“ als eine eigene Suchkostenkategorie für Internetnutzer erwartet. Es kostet einen, etwas von sich preiszugeben. A1)

Annacker, D., S. Spiekermann and M. Strobel (2001)
E-privacy: A new search cost dimension in online environments.
14th Bled Conference of Electronic Commerce, Bled, Slovacia.

Diese Suchkosten haben sich in den vergangenen 20 Jahren nur teilweise bewahrheitet. Wir wissen heute, dass 90% der Nutzer von sozialen Netzwerken schon einmal bewusst Informationen zurückgehalten haben, weil sie um ihre Privatsphäre gefürchtet haben. Ob sich dieses zurückhaltende Verhalten im Zuge des Überwachungskapitalismus jedoch weiter verschärft, wissen wir bisher nicht. Technische Entwicklungen, wie etwas die MyData Bewegung oder decentralized federated identity Projekte, sowie durchgehende Privacy-Architekturen (wie sie etwa von Apple’s Siri System angestrebt scheinen) könnten im besten Fall dazu führen, dass sich Nutzer gar keine Sorgen um ihre privaten Informationen mehr machen müssen. Dann wäre dies Suchkostenkategorie auch hinfällig. Setzt sich der Überwachungskapitalismus jedoch durch, wird diese Suchkostenkategorie wahrscheinlich eher an Bedeutung gewinnen.



Sarah Spiekermann, Ph.D.

Copyright © 2018 Sarah Spiekermann