Jekyll2024-03-16T19:41:50+01:00https://rainermuehlhoff.de/feed.xmlRainer MühlhoffHomepage von Rainer Mühlhoff – Professor für Ethik der Künstlichen Intelligenz, Universität Osnabrück.Rainer Mühlhoffoffice-muehlhoff::a.t::uni-osnabrueck.deNeues Paper: Zweckbindung für KI-Modelle2024-03-15T00:00:00+01:002024-03-15T00:00:00+01:00https://rainermuehlhoff.de/zweckbindung-f%C3%BCr-modelle<p>Wir freuen uns, die Veröffentlichung unseres neuen Artikels “Regulating AI with Purpose Limitation for Models” von Rainer Mühlhoff und <a href="https://www.fernuni-hagen.de/prof-ruschemeier/">Hannah Ruschemeier</a> bekannt zu geben. Das Paper ist Teil der Eröffnungsausgabe des neuen Journals <a href="https://aire.lexxion.eu/">“AI Law and Regulation”</a>. In dieser bahnbrechenden Studie führen wir das Konzept der Zweckbeschränkung bei KI-Modellen ein, um der Gefahr der unregulierten Sekundärnutzung trainierter KI-Modelle zu begegnen, was Risiken wie Diskriminierung und Verletzung Grundrechten zur Folge haben kann.</p>
<p>Unsere interdisziplinäre Forschung hebt die zunehmende informationsbedingte Machtasymmetrie zwischen Datenunternehmen und der Gesellschaft hervor und schlägt vor, dass aktuelle Regulierungsansätze nicht ausreichen, um den Missbrauch von trainierten Modellen einzudämmen. Indem wir den Fokus von Trainingsdaten auf trainierte Modelle verschieben, skizzieren wir einen regulatorischen Ansatz, der sicherstellt, dass prädiktive und generative KI-Modelle auf eine Weise genutzt werden, die der Gesellschaft nützt, ohne individuelle oder kollektive Rechte zu untergraben.</p>
<p>Dieser Artikel ist ein Aufruf zum Handeln für Gesetzgeber, Wirtschaft und die Öffentlichkeit, noch verantwortungsvoller darüber nachzudenken, wie wir KI regulieren, mit dem Ziel einer Zukunft, in der KI das Gemeinwohl dient und Privatsphäre und Chancengleichheit respektiert.</p>
<p>Lesen Sie die vollständige Analyse und beteiligen Sie sich an der Diskussion darüber, wie wir eine gerechtere und kontrolliertere Nutzung von KI-Technologien erreichen können.</p>
<p>Eine frühere Version des Papers haben wir auf der <a href="https://aiforpeople.org/conference/">EAI CAIP – AI for People</a>-Konferenz, 24.11.2023 in Bologna, vorgestellt.</p>Rainer Mühlhoffoffice-muehlhoff::a.t::uni-osnabrueck.deWir freuen uns, die Veröffentlichung unseres neuen Artikels “Regulating AI with Purpose Limitation for Models” von Rainer Mühlhoff und Hannah Ruschemeier bekannt zu geben. Das Paper ist Teil der Eröffnungsausgabe des neuen Journals “AI Law and Regulation”. In dieser bahnbrechenden Studie führen wir das Konzept der Zweckbeschränkung bei KI-Modellen ein, um der Gefahr der unregulierten Sekundärnutzung trainierter KI-Modelle zu begegnen, was Risiken wie Diskriminierung und Verletzung Grundrechten zur Folge haben kann.New paper alert: Purpose Limitation for AI Models2024-03-15T00:00:00+01:002024-03-15T00:00:00+01:00https://rainermuehlhoff.de/en/purpose-limitation-for-models<p>We are excited to announce the publication of our paper, “Regulating AI with Purpose Limitation for Models” by Rainer Mühlhoff and <a href="https://www.fernuni-hagen.de/prof-ruschemeier/">Hannah Ruschemeier</a>, featured in the opening issue of the new journal <a href="https://aire.lexxion.eu/">“AI Law and Regulation”</a>. In this groundbreaking study, we introduce the concept of applying purpose limitation to AI models as a novel approach to mitigate the unregulated secondary use of AI, addressing risks such as discrimination and infringement of fundamental rights.</p>
<p>Our interdisciplinary research highlights the increasing informational power asymmetry between data companies and society, suggesting that current regulations, focused mainly on data protection, fall short in curbing the misuse of trained models. By shifting the focus from training data to trained models, we advocate for a regulatory framework that emphasizes democratic control over AI’s predictive and generative capabilities, ensuring they are used in ways that are beneficial to society without undermining individual or collective rights.</p>
<p>This paper is a call to action for lawmakers, technologists, and the public to rethink how we regulate AI, aiming for a future where AI serves the public good while respecting privacy and equity. Dive into our full analysis and join the conversation on how we can achieve a more equitable and controlled use of AI technologies.</p>
<p>An earlier version of the paper was presented at the <a href="https://aiforpeople.org/conference/">EAI CAIP – AI for People</a> conference on November 24, 2023, in Bologna.</p>Rainer Mühlhoffoffice-muehlhoff::a.t::uni-osnabrueck.deWe are excited to announce the publication of our paper, “Regulating AI with Purpose Limitation for Models” by Rainer Mühlhoff and Hannah Ruschemeier, featured in the opening issue of the new journal “AI Law and Regulation”. In this groundbreaking study, we introduce the concept of applying purpose limitation to AI models as a novel approach to mitigate the unregulated secondary use of AI, addressing risks such as discrimination and infringement of fundamental rights.Assoziierter Wissenschaftler am Einstein Center Digital Future, Berlin2024-02-26T00:00:00+01:002024-02-26T00:00:00+01:00https://rainermuehlhoff.de/ECDF<p>Ich bin seit dieser Woche assoziierter Wissenschaftler am <a href="https://www.digital-future.berlin/">Einstein Center Digital Future</a> in Berlin. Vielen Dank und ich freue mich sehr auf die Zusammenarbeit!</p>Rainer Mühlhoffoffice-muehlhoff::a.t::uni-osnabrueck.deIch bin seit dieser Woche assoziierter Wissenschaftler am Einstein Center Digital Future in Berlin. Vielen Dank und ich freue mich sehr auf die Zusammenarbeit!Associate Researcher at *Einstein Center Digital Future*, Berlin2024-02-26T00:00:00+01:002024-02-26T00:00:00+01:00https://rainermuehlhoff.de/en/ECDF<p>This week I became an associate scientist at the <a href="https://www.digital-future.berlin/en/">Einstein Centre Digital Future</a> in Berlin. Thank you very much and I’m really looking forward to working with you!</p>Rainer Mühlhoffoffice-muehlhoff::a.t::uni-osnabrueck.deThis week I became an associate scientist at the Einstein Centre Digital Future in Berlin. Thank you very much and I’m really looking forward to working with you!Neues Paper: Prädiktive Analytik und kollektiver Datenschutz2024-02-19T00:00:00+01:002024-02-19T00:00:00+01:00https://rainermuehlhoff.de/kollektiver-datenschutz<p>Wir freuen uns, die Publikation unseres Papier “Predictive Analytics and the Collective Dimensions of Data Protection” von Rainer Mühlhoff und <a href="https://www.fernuni-hagen.de/prof-ruschemeier/">Hannah Ruschemeier</a> anzukündigen. Unsere interdisziplinäre Forschung vereint Rechtswissenschaften, Ethik und technische Einblicke, um die sozialen Auswirkungen von Prädiktiver Analytik zu diskutieren. Unter dem Begriff “prädiktive Privatheit” argumentieren wir für einen neuen Ansatz im Datenschutz, der die kollektiven Auswirkungen unserer täglichen Daten berücksichtigt. Lesen Sie mehr über die gesellschaftlichen Risiken und die Notwendigkeit neuer Rechtsrahmen im digitalen Zeitalter.</p>Rainer Mühlhoffoffice-muehlhoff::a.t::uni-osnabrueck.deWir freuen uns, die Publikation unseres Papier “Predictive Analytics and the Collective Dimensions of Data Protection” von Rainer Mühlhoff und Hannah Ruschemeier anzukündigen. Unsere interdisziplinäre Forschung vereint Rechtswissenschaften, Ethik und technische Einblicke, um die sozialen Auswirkungen von Prädiktiver Analytik zu diskutieren. Unter dem Begriff “prädiktive Privatheit” argumentieren wir für einen neuen Ansatz im Datenschutz, der die kollektiven Auswirkungen unserer täglichen Daten berücksichtigt. Lesen Sie mehr über die gesellschaftlichen Risiken und die Notwendigkeit neuer Rechtsrahmen im digitalen Zeitalter.New paper: Predictive Analytics and Collective Data Protection2024-02-19T00:00:00+01:002024-02-19T00:00:00+01:00https://rainermuehlhoff.de/en/collective-data-protection<p>We’re excited to announce the final publication of our paper, “Predictive Analytics and the Collective Dimensions of Data Protection”, by Rainer Mühlhoff and <a href="https://www.fernuni-hagen.de/prof-ruschemeier/">Hannah Ruschemeier</a>. Our interdisciplinary research blends legal studies, ethics, and technical insights to unravel the social implications of predictive analytics. Challenging the conventional, individualistic approach, we propose ‘predictive privacy,’ advocating for regulations that reflect the collective impact of data use. Dive into our exploration of societal risks and the imperative for new legal frameworks in the digital age.</p>Rainer Mühlhoffoffice-muehlhoff::a.t::uni-osnabrueck.deWe’re excited to announce the final publication of our paper, “Predictive Analytics and the Collective Dimensions of Data Protection”, by Rainer Mühlhoff and Hannah Ruschemeier. Our interdisciplinary research blends legal studies, ethics, and technical insights to unravel the social implications of predictive analytics. Challenging the conventional, individualistic approach, we propose ‘predictive privacy,’ advocating for regulations that reflect the collective impact of data use. Dive into our exploration of societal risks and the imperative for new legal frameworks in the digital age.*NDR Kultur – Das Journal* über meine Arbeit2024-02-05T00:00:00+01:002024-02-05T00:00:00+01:00https://rainermuehlhoff.de/NDR-Kulturjournal<p>Unter dem Titel “Was sind die Risiken von KI?” hat <em>NDR Kultur – Das Journal</em> ausführlich über meine Arbeit berichtet. Vielen Dank an Lennart Herberhold.</p>Rainer Mühlhoffoffice-muehlhoff::a.t::uni-osnabrueck.deUnter dem Titel “Was sind die Risiken von KI?” hat NDR Kultur – Das Journal ausführlich über meine Arbeit berichtet. Vielen Dank an Lennart Herberhold.*NDR Kultur – Das Journal* on my work2024-02-05T00:00:00+01:002024-02-05T00:00:00+01:00https://rainermuehlhoff.de/en/NDR-Kulturjournal<p>Under the title “Was sind die Risiken von KI?”, <em>NDR Kultur – Das Journal</em> made a report on my current work. Many thanks to Lennart Herberhold.</p>Rainer Mühlhoffoffice-muehlhoff::a.t::uni-osnabrueck.deUnder the title “Was sind die Risiken von KI?”, NDR Kultur – Das Journal made a report on my current work. Many thanks to Lennart Herberhold.Neues Preprint: Updating Purpose Limitation for AI2024-01-22T00:00:00+01:002024-01-22T00:00:00+01:00https://rainermuehlhoff.de/updating-purpose-limitation<p><a href="https://www.fernuni-hagen.de/prof-ruschemeier/">Hannah Ruschemeier</a> und ich stellen “Zweckbindung für Modelle” als Regulierungsansatz zur Eindämmung von Missbrauchsrisiken trainierter KI-Modelle vor.</p>
<p><strong>Abstract:</strong> This paper addresses a critical regulatory gap in the EU’s digital legislation, including the proposed AI Act and the GDPR: the risk of secondary use of trained models and anonymized training datasets. Anonymized training data, such as patients’ medical data consented for clinical research, as well as AI models trained from this data, pose the threat of being freely reused in potentially harmful contexts such as insurance risk scoring and automated job applicant screening. To address this, we propose a novel approach to AI regulation, introducing what we term purpose limitation for training and reusing AI models. This approach mandates that those training AI models define the intended purpose (e.g., “medical care”) and restrict the use of the model solely to this stated purpose. Additionally, it requires alignment between the intended purpose of the training data collection and the model’s purpose.</p>
<p>The production of predictive and generative AI models signifies a new form of power asymmetry. Without public control of the purposes for which existing AI models can be reused in other contexts, this power asymmetry poses significant individual and societal risks in the form of discrimination, unfair treatment, and exploitation of vulnerabilities (e.g., risks of medical conditions being implicitly estimated in job applicant screening). Our proposed purpose limitation for AI models aims to establish accountability, effective oversight, and prevent collective harms related to the regulatory gap.</p>
<p>Originating from an interdisciplinary collaboration between ethics and legal studies, our paper proceeds in four steps, covering (1) the definition of purpose limitation for AI models, (2) examining the ethical reasons supporting purpose limitation for AI models, (3) critiquing the inadequacies of the GDPR, and (4) evaluating the proposed AI Act’s shortcomings in addressing the regulatory gap. Through these interconnected stages, we advocate for amending current AI regulation with an updated purpose limitation principle to address one of the most severe regulatory loopholes.</p>Rainer Mühlhoffoffice-muehlhoff::a.t::uni-osnabrueck.deHannah Ruschemeier und ich stellen “Zweckbindung für Modelle” als Regulierungsansatz zur Eindämmung von Missbrauchsrisiken trainierter KI-Modelle vor.New preprint: Updating Purpose Limitation for AI2024-01-22T00:00:00+01:002024-01-22T00:00:00+01:00https://rainermuehlhoff.de/en/updating-purpose-limitation<p><a href="https://www.fernuni-hagen.de/prof-ruschemeier/">Hannah Ruschemeier</a> and I present “Purpose Limitation for Models” as a novel regulatory approach to control the risk of abusive secondary use of trained machine learning models and training data.</p>
<p><strong>Abstract:</strong> This paper addresses a critical regulatory gap in the EU’s digital legislation, including the proposed AI Act and the GDPR: the risk of secondary use of trained models and anonymized training datasets. Anonymized training data, such as patients’ medical data consented for clinical research, as well as AI models trained from this data, pose the threat of being freely reused in potentially harmful contexts such as insurance risk scoring and automated job applicant screening. To address this, we propose a novel approach to AI regulation, introducing what we term purpose limitation for training and reusing AI models. This approach mandates that those training AI models define the intended purpose (e.g., “medical care”) and restrict the use of the model solely to this stated purpose. Additionally, it requires alignment between the intended purpose of the training data collection and the model’s purpose.</p>
<p>The production of predictive and generative AI models signifies a new form of power asymmetry. Without public control of the purposes for which existing AI models can be reused in other contexts, this power asymmetry poses significant individual and societal risks in the form of discrimination, unfair treatment, and exploitation of vulnerabilities (e.g., risks of medical conditions being implicitly estimated in job applicant screening). Our proposed purpose limitation for AI models aims to establish accountability, effective oversight, and prevent collective harms related to the regulatory gap.</p>
<p>Originating from an interdisciplinary collaboration between ethics and legal studies, our paper proceeds in four steps, covering (1) the definition of purpose limitation for AI models, (2) examining the ethical reasons supporting purpose limitation for AI models, (3) critiquing the inadequacies of the GDPR, and (4) evaluating the proposed AI Act’s shortcomings in addressing the regulatory gap. Through these interconnected stages, we advocate for amending current AI regulation with an updated purpose limitation principle to address one of the most severe regulatory loopholes.</p>Rainer Mühlhoffoffice-muehlhoff::a.t::uni-osnabrueck.deHannah Ruschemeier and I present “Purpose Limitation for Models” as a novel regulatory approach to control the risk of abusive secondary use of trained machine learning models and training data.