Ethik und Sozialphilosophie der Digitalen Gesellschaft
Zur Person Forschungsinteressen Team
Aktuelle Forschung
Prädiktive Privatheit und Zweckbindung für Modelle: Ein neues Schutzgut im Datenschutz, das speziell auf die Risiken prädiktiver Analytik und die Gefahr der Zweckentfremdung trainierter KI-Modelle reagiert. Forschungskollaboration mit Prof. Dr. Hannah Ruschemeier. Mehr lesen …
-
Mühlhoff, Rainer. 2023. „Predictive Privacy: Collective Data Protection in the Context of AI and Big Data“. Big Data & Society, 1–14. doi:10.1177/20539517231166886.×
@article{Mü2023:BDS, author = {Mühlhoff, Rainer}, title = {Predictive Privacy: Collective Data Protection in the Context of AI and Big Data}, journal = {Big Data & Society}, year = {2023}, doi = {10.1177/20539517231166886}, pages = {1–14}, web_group = {papers}, web_thumbnail = {/assets/images/publications/Mü2023:BDS.jpg}, web_fulltext = {/media/publications/mühlhoff_2023_predictive_privacy.pdf} }
-
Mühlhoff, Rainer, und Hannah Ruschemeier. 2024. „Updating Purpose Limitation for AI: A Normative Approach from Law and Philosophy“. SSRN Preprint, Januar. https://papers.ssrn.com/abstract=4711621.×
@article{Mü-Ru2024:UPL, type = {SSRN Preprint}, title = {Updating {{Purpose Limitation}} for {{AI}}: {{A}} Normative Approach from Law and Philosophy}, shorttitle = {Updating {{Purpose Limitation}} for {{AI}}}, author = {Mühlhoff, Rainer and Ruschemeier, Hannah}, date = {2024-01-22}, url = {https://papers.ssrn.com/abstract=4711621}, langid = {english}, pubstate = {preprint}, keywords = {AI Act,AI Governance,AI regulation,collective privacy,data ethics,data protection,Ethics,EU regulation,GDPR,general purpose AI systems,LLMSs,Open Source,power asymmetries,secondary data use}, web_thumbnail = {/assets/images/publications/Mü-Ru2024:UPL.jpg}, web_fulltext = {/media/publications/mühlhoff_ruschemeier_2024_updating_purpose_limitation_for_ai.pdf}, web_preprint = {https://ssrn.com/abstract=4711621}, web_group = {preprint} }
Human-Aided AI: Machine-Learning-Systeme beruhen auf menschlicher Mitarbeit und sind vernetzte soziotechnische Systeme.
-
Mühlhoff, Rainer. 2020. „Human-Aided Artificial Intelligence: Or, How to Run Large Computations in Human Brains?“ New Media & Society 22 (10): 1868–84. doi:10.1177/1461444819885334.×
@article{Mü2020:NMS, author = {Mühlhoff, Rainer}, title = {Human-Aided Artificial Intelligence: Or, How to Run Large Computations in Human Brains?}, subtitle = {Towards a Media Sociology of Machine Learning}, journal = {New Media \& Society}, year = {2020}, volume = {22}, number = {10}, pages = {1868–1884}, doi = {10.1177/1461444819885334}, web_group = {papers}, web_academia = {https://www.academia.edu/40263575/Human-Aided_Artificial_Intelligence_Towards_a_Media_Sociology_of_Machine_Learning._Or_How_to_Run_Large_Computations_in_Human_Brains}, web_fulltext = {https://journals.sagepub.com/doi/full/10.1177/1461444819885334} }
Ethik der KI als kritische Sozialphilosophie: Für eine wirkungsvolle ethische Beschäftigung mit KI benötigen wir eine Macht-Analytik der KI-Systeme.
-
Mühlhoff, Rainer. 2020. „Automatisierte Ungleichheit: Ethik der Künstlichen Intelligenz in der biopolitische Wende des Digitalen Kapitalismus“. Deutsche Zeitschrift für Philosophie 68 (6): 867–90. doi:10.1515/dzph-2020-0059.
Full text Full text pre-print academia.edu bibtex
×@article{Mü2020:DZPhil, author = {Mühlhoff, Rainer}, title = {Automatisierte Ungleichheit: Ethik der Künstlichen Intelligenz in der biopolitische Wende des Digitalen Kapitalismus}, journal = {Deutsche Zeitschrift für Philosophie}, year = {2020}, volume = {68}, issue = {6}, pages = {867–890}, doi = {10.1515/dzph-2020-0059}, web_group = {papers}, web_academia = {https://www.academia.edu/43614887/Automatisierte_Ungleichheit_Ethik_der_K%C3%BCnstlichen_Intelligenz_in_der_biopolitischen_Wende_des_Digitalen_Kapitalismus}, web_preprint = {https://ssrn.com/abstract=3666727}, web_fulltext_pay = {https://www.degruyter.com/view/journals/dzph/68/6/article-p867.xml}, web_fulltext = {/media/publications/mühlhoff_2020_automatisierte-ungleichheit_DZPhil2.pdf} }
Neuigkeiten | Termine
Presenting at EASST-4S 2024 in Amsterdam
My research partner Hannah Ruschemeier an I are presenting our project Purpose Limitation for AI in Amsterdam!
Vortrag “KI – Macht – Ungleichheit”, Peter Behrens School of Arts, HS Düsseldorf
Mittwoch, 10.07.2024, 19 Uhr, Münsterstraße 156, 40476 Düsseldorf, Gebäude 6 – Atrium.
Interview in arte Kurzschluss - Das Kurzfilm-Magazin
Unter dem Titel „KI – Wem gehört die Zukunft?“ hat arte Kurzschluss – Das Kurzfilm-Magazin über KI im Kunstfilm berichtet. Darin ist auch ein ausführliches I...
Vortrag zu “Human-Aided AI” auf dem Hybrid Human-AI Systems Workshop an der LMU München
I am delighted to contribute to the International Workshop: Perspectives on Hybrid Human–AI Systems. Bringing Together Interdisciplinary Approaches, organise...
Neues Paper: Zweckbindung für KI-Modelle
Wir freuen uns, die Veröffentlichung unseres neuen Artikels “Regulating AI with Purpose Limitation for Models” von Rainer Mühlhoff und Hannah Ruschemeier bek...
Assoziierter Wissenschaftler am Einstein Center Digital Future, Berlin
Ich bin seit dieser Woche assoziierter Wissenschaftler am Einstein Center Digital Future in Berlin. Vielen Dank und ich freue mich sehr auf die Zusammenarbei...
Neues Paper: Prädiktive Analytik und kollektiver Datenschutz
Wir freuen uns, die Publikation unseres Papier “Predictive Analytics and the Collective Dimensions of Data Protection” von Rainer Mühlhoff und Hannah Ruschem...
NDR Kultur – Das Journal über meine Arbeit
Unter dem Titel “Was sind die Risiken von KI?” hat NDR Kultur – Das Journal ausführlich über meine Arbeit berichtet. Vielen Dank an Lennart Herberhold.
Neues Preprint: Updating Purpose Limitation for AI
Hannah Ruschemeier und ich stellen “Zweckbindung für Modelle” als Regulierungsansatz zur Eindämmung von Missbrauchsrisiken trainierter KI-Modelle vor.
Warum sind Daten politisch? Interaktive Installation und Diskussion in der Kunsthalle Osnabrück
Unser Data Ethics Outreach Lab lädt am 14. Januar, 15–17 Uhr, in die Kunsthalle Osnabrück zu einem interaktiven Installation und Informationsevent ein. Bei u...
Video: 37c3-Vortrag “KI – Macht – Ungleichheit”
Mein Vortrag auf dem Chaos Communication Congress in Hamburg. Was hat KI mit Kybernetik zu tun und was ist Kontrollmacht? Was ist die soziale Dimension von N...
Video: Purpose Limitation for Models – presentation at CAIP23
Warum Sekundärnutzung trainierter KI-Modelle ein enormes Risiko darstellt, das weder AI-Act noch GDPR adressieren, haben Hannah Ruschemeier und ich heute auf...
Vortrag + Diskussion mit Alena Buyx und Saskia Esken bei der Friedrich-Ebert-Stiftung
Am 13. November diskutiere ich in der Veranstaltungsreihe mit dem bedeutungsschweren Titel “What’s Left” über gesellschaftliche Auswirkungen von KI. Davor wi...
Neuer Aufsatz: Missbräuchliche Sekundärnutzung trainierter Modelle
Das meiner Auffassung nach größte Datenschutzrisiko im Zusammenhang mit KI ist die missbräuchliche Sekundärnutzung trainierter Modelle. GDPR und AI Act tun n...
Neues Preprint: Purpose Limitation for Models
Hannah Ruschemeier und ich stellen eine neue Regulierungsidee zur Eindämmung von Missbrauchsrisiken trainierter KI-Modelle vor. Das Paper wird auf der EAI CA...
Assoziierter Forscher am Weizenbaum Institut für die vernetzte Gesellschaft
Ich freue mich auf die Zusammenarbeit mit Andrea Hamm, Rainer Rehak und André Ullrich: Als assoziierter Forscher bin ich mit der Forschungsgruppe “Digitalisi...
Buch: “Die Macht der Daten” (Open access)
Ich freue mich, mein neues Buch “Die Macht der Daten: Warum künstliche Intelligenz eine Frage der Ethik ist” vorzustellen. Es beleuchtet die versteckten Gef...
Neuer Artikel in Big Data & Society (open access): “Predictive Privacy: Collective Data Protection in the Context of AI and Big Data”
Ich freue mich, das Erscheinen meines neuesten Artikels über prädiktive Privatheit anzukündigen. In diesem Artikel gehe ich auf die Herausforderungen für den...
Jetzt erschienen: “Social Media Advertising for Clinical Studies: Ethical and Data Protection Implications of Online Targeting” (mit Theresa Willem)
In diesem Artikel diskutieren wir die die Datenethik- und Datenschutzfolgen von Online-Werbung auf sozialen Medien. Unsere Studie zeigt am Beispiel von Onlin...
Predictive Privacy at CAIS Bochum
It was a great pleasure presenting my research on ethical implications of predictive analytics at the Center for Advanced Internet Studies in Bochum.
Frisch erschienen: “Prädiktive Privatheit: Kollektiver Datenschutz im Kontext von Big Data und KI”
Der Sammelband zum Forum Privatheit 2021 ist soeben erschienen. Vielen Dank den Herausgeber:innen Michael Friedewald, Alexander Roßnagel, Jessica Heesen, Nic...
Deutschlandfunk Nova – Sendung Hörsaal
Am 8. September 2022 wird mein re:publica-Vortrag sowie ein anschließendes Interview bei Deutschlandfunk Nova in der Sendung Hörsaal gebracht.
Live bei WDR5 – Das Philosophische Radio
Am 29. August 2022 bin ich zu Gast bei WDR5 im Philosophischen Radio. Mit Moderator Jürgen Wiebicke rede ich über Ethik der künstlichen Intelligenz, Datensch...
Predictive Privacy auf der Telemedicus Sommerkonferenz 2022
Doppelvortrag “Prädiktive Privatheit: Kollektiver Datenschutz im Kontext von KI und Big Data” mit Prof. Dr. Hannah Ruschemeier (FernUniversität Hagen) auf de...
Vorlesung an der Universität Osnabrück mit dem Preis für gute Lehre ausgezeichnet
Für meine Vorlesung Introduction to the Ethics of Artificial Intelligence wurde ich mit dem diesjährigen Hans Mühlenhoff-Preis für gute Lehre ausgezeichnet.
re:publica 2022: Talk zu Predictive Privacy
Am 10. Juni 2022 werde ich auf der re:publica in Berlin zum Thema Predictive Privacy sprechen.
Osnabrücker Universitätsrede 2022: Die Macht der Daten
Am 19. Mai um 18 Uhr in der Schlossaula halte ich die diesjährige Universitätsrede.
Neues Preprint: “Social Media Advertising for Clinical Studies: Ethical and Data Protection Implications of Online Targeting
Werbung auf Facebook hilft der Plattform, medizinische Informationen über uns alle vorherzusagen. Das argumentieren Theresa Willem (TU München) und ich in un...
Neuer Artikel als Pre-Print: “Prädiktive Privatheit: Kollektiver Datenschutz im Kontext von Big Data und KI”
Der Artikel zu meiner Key Note beim Forum Privatheit 2022 ist jetzt als Pre-Print erhältlich.
Prädiktive Privatheit: Warum wir den Datenschutz verbessern müssen, um soziale Ungleichheit und Diskriminierung zu bekämpfen
Das kollektivistische Datenschutzkonzept “prädiktive Privatheit” habe ich am 8. Februar 2022 beim Weizenbaum-Forum und mit Aline Blankertz, Jacob Kröger und ...
How machine learning methods that claim to protect privacy fuel discrimination and social sorting
In my lecture this week on the Ethics of AI, I argued that current trends in privacy-friendly machine learning present a new data protection challenge.
Prädiktive Privatheit in 15 Minuten erklärt: Meine Keynote auf der Jahreskonferenz des Forums Privatheit
Warum wir im Zeitalter der künstlichen Intelligenz neue Ansätze im Datenschutz brauchen habe ich am 18. November 2021 auf der Jahrestagung des Forums Privath...
Hören Sie die Introduction to the Ethics of AI online!
I am teaching the Introduction to the Ethics of Artificial Intelligence in a hybrid on-site/online format.
Artikel über Prädiktive Privatheit bei Ethics and Information Technology erschienen (open access)
Data analytics and data-driven approaches in Machine Learning are now among the most hailed computing technologies in many industrial domains. One major appl...
Professor für Ethik der KI an der Universität Osnabrück
Ab August 2021 werde ich die Professur für Ethik der Künstlichen Intelligenz am Institut für Kognitionswissenschaft an der Universität Osnabrück bekleiden.
Vortrag “Predictive Privacy: Datenschutz in Zeiten von KI” bei der Ringvorlesung Internet und Privatheit an der TU Berlin.
Ich freue mich, mit meiner aktuellen Forschung zu den Datenschutzrisiken prädiktiver Analytik zu Gast sein sein bei der Ringvorlesung “Internet und Privathei...
Artikel über Automatisierte Ungleichheit durch Big Data und KI in der Deutschen Zeitschrift für Philosophie erschienen
In diesem neu erschienen Artikel beschreibe ich meinen Ansatz für eine Ethik der Künstlichen Intelligenz, die in engem Austausch mit Sozialphilosophie und k...
Mit dem Predictive Privacy-Projekt im Finale des „Forum Junge Spitzenforscher*innen“
Der von der Stiftung Industrieforschung geförderte Ideenwettbewerb in Berlin prämierte dieses Jahr “die innovativsten Anwendungsideen zum Thema Künstliche In...
Prädiktive Privatheit – Warum wir alle „etwas zu verbergen haben“
Das Problem des Datenschutzes im Kontext von Big Data und Künstlicher Intelligenz – verständlich erklärt in einem neuen Text für die Schriftenreihe Verantwor...
Zu Gast in der Podiumsdiskussion „AI in Medical Imaging“ mit Prof. Dr. Bert Heinrichs und Prof. Dr. Daniel Rückert, Fernuniversität Hagen
5 November 2020, 18.00-19.30: AI in Medical Imaging. Speakers: Prof. Dr. Bert Heinrichs (RFWU Bonn), Dr. Rainer Mühlhoff (TU Berlin), Prof. Dr. Daniel Rüc...
„Predictive Privacy: Towards an Applied Ethics of Data Analytics“ – Preprint now online at SSRN
Data analytics and data-driven approaches in Machine Learning are now among the most hailed computing technologies in many industrial domains. One major appl...
Artikel “Human-Aided Artificial Intelligence” (New Media & Society) ist jetzt Open Access erhältlich
Mein Artikel “Human-Aided Artificial Intelligence: Or, How to Run Large Computations in Human Brains? Toward a media sociology of machine learning” ist in de...
Text in den Blättern: „Die Illusion der Anonymität: Big Data im Gesundheitssystem“
Anonymisierte Massendaten, wie sie zum Beispiel im Gesundheitssystem gesammelt werden, bergen erhebliche Datenschutzrisiken. In vielen Fällen ist eine Re-Id...
BMBF fördert Drittmittelprojekt zu Ethik im Kontext von Location-Daten
Am 1. Juli 2020 geht es los: Das frisch bewilligte Drittmittelprojekt “SIMPORT” – Souveränes und Intuitives Management von Ortsinformationen. In diesem span...
Podcast „Über Twitter, Trump und Trolle. Affekttheorie des Neuen Autoritarismus“ – Ringvorlesung Paderborn
Vortrag zur Verbindung von Affekt, digitalen Medien und Autoritarismus in der Ringvorlesung „Rechtspopulismus, Internet & Ökonomie“ am Institut für Medie...
Podiumsdiskussion „Partner oder Polizei? Über die Zukunft des Zusammenlebens mit Hubots“ mit Autorin Emma Braslavsky
Lesung und Diskussion über Künstliche Intelligenz und autonome Roboter im Museum für Kommunikation, Berlin. Es geht um den Science-Fiction-Roman Die Nacht wa...
Zu Gast beim Netzpolitischen Abend von Digitale Gesellschaft e.V.
Gemeinsamer Vortrag mit Rainer Rehak und Kirsten Bock über die Datenschutz-Folgeabschätzung für die Corona-Tracting-App von FIfF e.V.
Data Protection Impact Assessment of Corona Tracing App available in English
I am part of the team of FIfF e.V. releasing a Data Protection Impact Assessment for Corona Tracing App Systems.
Interview über Turbo-Digitalisierung nach Covid-19 und Datenschutz der Corona-App in der Griechischen Zeitung Epohi
Οδηγούμαστε σε μια τούρμπο-ψηφιοποίηση
FIfF veröffentlicht Datenschutz-Folgenabschätzung (DSFA) für Corona Tracing App Systeme (PEPP-PT, DP-3T)
Ich bin Teil des Teams, das im Rahmen von FIfF e.V. eine Datenschutz-Folgenabschätzung für Corona Tracing Systeme geschrieben hat.
We Need to Think Data Protection Beyond Privacy
With Covid tracking apps on the horizon, everyone is debating privacy now. But data protection is more than privacy! Turbo-Digitization after Covid-19 will ...
Digitale Grundrechte nach Corona: Warum wir gerade jetzt eine Debatte über Datenschutz brauchen
Corona provoziert eine Reihe politischer Tabubrüche, auch beim Datenschutz. Das alles geschieht unglaublich schnell, die gesellschaftliche Diskussion kann ka...
Preprint „Macht, Autorität, Bewunderung: Affekttheorie des neuen Autoritarismus“
Mein Artikel zur Affekttheorie des Neuen Autoritarismus ist jetzt als Preprint verfügbar. Es handelt sich um die Verschriftlichung des gleichnamigen eingel...
Key Note: „Resonance, Affect and Power: Affect theory of subjectivation with Spinoza and Foucault“, Max-Weber-Kolleg, Universität Erfurt.
Auf der Spring School der International Graduate School „Resonant Self-World Relations“ am Max-Weber-Kolleg, Universität Erfurt, halte ich eine Key Note zum...
Vortrag über Digitale Entmündigung, Überwachung by Design und Kollektiven Datenschutz im Geoinformatik-Forum der Universität Münster
„Digital Counter-Enlightenment and “Surveillance by Design”: On Nudging, Tracking and Data Aggregation in Human-Computer Interaction“
Artikel zu “Human-Aided AI” bei New Media & Society erschienen
Mein Artikel “Human-Aided Artificial Intelligence: Or, How to Run Large Computations in Human Brains? Toward a media sociology of machine learning” ist in de...
Vortrag über mein Projekt „Menschengestützte Künstliche Intelligenz“ auf der GFM Jahrestagung 2019 in Köln.
Menschengestützte Künstliche Intelligenz. Oder: Wie man große Berechnung in menschlichen Hirnen laufen lässt. Deep Learning als medienkulturelle Revoluti...
Wechsel an die TU Berlin
I’m happy to announce that as of October I will transition to the newly founded Excellence Cluster Science of Intelligence at Technische Universität Berlin....
Artikel zu „Menschengestützter Künstlicher Intelligenz“ erschienen
Mein Artikel Menschengestützte Künstliche Intelligenz. Über die soziotechnischen Voraussetzungen von «deep learning» ist in der Zeitschrift für Medienwissens...
Studiogast bei Deutschlandfunk Kultur, Sein und Streit, 21.07.2019, 13:05 Uhr
Anja Breljak und Rainer Mühlhoff im Gespräch mit Moderator Christian Möller zum Thema “Wie affektgetrieben ist das Netz?”
Buchvorstellung “Affekt Macht Netz” – 15.7.2019, 20 Uhr, Antiquariat Kalligramm, Berlin
Wir laden herzlich ein zur Book Release unseres Sammelbands „Affekt Macht Netz. Auf dem Weg zu einer Sozialtheorie der Digitalen Gesellschaft“.
Sammelband “Affekt Macht Netz” erschienen (Open Access)
Der gemeinsam von Rainer Mühlhoff, Anja Breljak und Jan Slaby herausgegebene Band “Affekt Macht Netz. Auf dem Weg zu einer Sozialtheorie der Digitalen Gesell...
Speaking on „Human-Aided Artificial Intelligence, or: How to Run Large Computations in Human Brains?“ at the HCC – Human-Centered Computing Group, Freie Universität Berlin
I’m excited to present my work at the Department of Mathematics and Computer Science, “Human-Centered Computing” Group (Prof. Claudia Müller-Birn) at Freie ...
Text in der taz zum Thema #twittersperrt und den Folgen für die Demokratie
Unter dem Titel “Twitter unterläuft die Gewaltenteilung” kommentieren Jorinde Schulz und ich in der taz am Wochenende, 18. Mai 2019, die jüngsten Fälle von A...
Vortrag über „Digitale Entmündigung“ in der Reihe GUDialog an der FH Münster
Am Mittwoch, 17. April, 18:30 Uhr, spreche ich zu Digitale Entmündigung – wie nutzerorientierte Gestaltung uns gezielt beeinflussen kann in der Vortragsrei...
Neuer Artikel über Affekt, Macht und Immersion
Soeben erschienen: „Die Macht der Immersion: Eine affekttheoretische Perspektive“. In: Navigationen: Zeitschrift für Medien- und KulturwissenschaftenBe 2019...
Speaking on „Human-Aided Artificial Intelligence, or: How to Run Large Computations in Human Brains?“ at the Ethics in IT Group, Universität Hamburg
I’m excited to present my work at the “Ethics in IT” Group (Prof. Judith Simon) at the University of Hamburg.
Zu Gast im Podcast Das Neue Berlin
Im Gespräch über meinen Artikel “Digitale Entmündigung und User Experience Design” mit den Moderatoren Jan Wetzel und Leo Schwarz.
Zu Gast im Deutschen Schauspielhaus Hamburg, Dachsalon zu „Sprachen der Erregung“
Gespräch über Theater, starke Gemütsbewegungen und Werner Schwabs »Die Präsidentinnen« in Kooperation mit der Universität Hamburg.
Neuer Artikel über Autoritarismus von der Aufklärung bis zu 4Chan, Trump und der Alt-Right
„Affekte Der Wahrheit. Über Autoritäre Sensitivitäten von der Aufklärung bis zu 4Chan, Trump und der Alt-Right“ (im Erscheinen in: Behemoth) ist hier als Pre...
Upcoming talk at c-base Berlin: “Digital Counter-Enlightenment and User Experience Design”
Im Rahmen von „PhenCoCo Colloquium on Artificial Ignorance“ gebe ich meinen Vortrag zu digitaler Entmündigung auf Englisch.
Vortrag „Über Twitter, Trump und Trolle“ in der Vorlesungreihe Out of the Dark, Universität Hamburg
Ich bin eingeladen, meine Ansätze zu einer Affekttheorie des neuen Autoritarismus vorzutragen.
Neuer Artikel über Digitale Entmündigung im Leviathan
Dieser Artikel untersucht moderne Mensch-Maschine-Interaktion im Kontext verbreiteter Hard- und Softwareoberflächen und diskutiert daran die Frage nach Aufkl...
Video: „Digitale Entmündigung und User Experience Design“
Mein Vortrag „Digitale Entmündigung und User Experience Design“ auf der FIfFKon 2018 als Videomitschnitt.
Monographie „Immersive Macht. Affekttheorie nach Spinoza und Foucault“ erschienen
Nicht nur im Silicon Valley oder in Startups, sondern auch in den sozialen Medien und in den populistischen Bewegungen der Gegenwart hat sich eine neue Regie...