Blog

Der Zuschuss beträgt 900.000 € und das Projekt hat eine Laufzeit von zwei Jahren. Ermöglicht wird das Projekt durch die Hochschule Osnabrück Lingen, Institut für Duale Studiengange und die Hochschule Hanze Groningen, Institut für Ingenieurwesen, HBO-IKT und Bioinformatik.

Die Gefahren der algorithmischen Verzerrung in der künstlichen Intelligenz

Künstliche Intelligenz wird in unserer Gesellschaft eine immer wichtigere Rolle spielen. Technologische Entwicklungen machen KI-Lösungen immer einfacher und effektiver, so dass diese Anwendungen einen zunehmenden Einfluss auf die Art und Weise haben, wie wir arbeiten, leben, reisen und leben.

Wir verlassen uns zunehmend auf die Entscheidungen und Vorhersagen von Computern, ohne wirklich zu wissen, wie die Entscheidungen innerhalb der Maschine tatsächlich zustande kommen. Und obwohl die Anwendung künstlicher Intelligenz große Vorteile hat, scheint das Risiko, das diese Systeme mit sich bringen, größer zu sein als je zuvor.

Unsere digitalen Systeme erstellen und sammeln Daten in großem Maßstab, um Menschen und fast jeden Aspekt ihres Lebens abzubilden und basierend darauf mithilfe von Algorithmen Vorhersagen zu treffen.

Algorithmen können am besten als eine sehr spezifische Liste von Anweisungen beschrieben werden, die beschreiben, was ein Computer tun sollte, wie diese Daten sie sammeln, lesen, verarbeiten und analysieren, um zu einem bestimmten Ergebnis zu gelangen.

Ein großes Missverständnis bei der Verwendung von Algorithmen besteht darin, dass die Ergebnisse, da sie von einer Maschine generiert werden, keine menschlichen Vorurteile enthalten können. Nichts ist weiter von der Wahrheit entfernt. Die Algorithmen, die Computer verwenden, um Vorhersagen und Entscheidungen auf der Grundlage von Daten zu treffen, werden von Menschen erstellt. Infolgedessen werden die Normen, Werte und vorhandenen Stereotypen des Menschen während seiner Erstellung oder seines Trainings immer auf den Algorithmus übertragen. Die Übersetzung dieser menschlichen Verzerrung in einen Algorithmus wird auch als „Algorithmic Bias“ bezeichnet.

Was ist Algorithmic Bias?

Algorithmische Verzerrungen sind systematische und sich wiederholende Fehler, die innerhalb eines Algorithmus auftreten und dazu führen, dass die vom System getroffenen Vorhersagen oder Entscheidungen eine Abweichung enthalten, die beispielsweise eine oder mehrere Gruppen vor- oder benachteiligt. Das Hauptproblem besteht darin, dass der Algorithmus selbst nicht dafür verantwortlich gemacht werden kann.

Wo kann algorithmische Vorspannung auftreten?

Algorithmische Verzerrungen können bei grundsätzlich allen Formen der KI auftreten, die auf maschinellem Lernen basieren. Beispiele hierfür sind beispielsweise Suchmaschinen, soziale Medien oder personalisierte Ratschläge für Filme in Netflix. Die Auswirkungen, die Algorithmic Bias hier haben kann, reichen von geringfügigen Eingriffen in die Privatsphäre der Benutzer bis hin zu Diskriminierungen, die beispielsweise auf Geschlecht, Bildungsniveau oder ethnischer Herkunft beruhen.

Wann tritt Algorithmic Bias auf?

Algorithmusvorspannung kann aufgrund mehrerer Faktoren auftreten. Die Hauptursache hierfür ist eine menschliche Tendenz, die (unbeabsichtigt) in den Algorithmus übersetzt wird. Der Algorithmus wird einfach von Personen erstellt und trainiert, und Personen haben per Definition eine Tendenz. Eine zunehmend häufige Ursache sind jedoch die Daten, mit denen der Algorithmus trainiert wird. Die menschliche Verzerrung kann in den Algorithmus gelangen, indem sie mit einem Datensatz trainiert wird, der eine Verzerrung enthält. Die Verzerrung im Datensatz kann sich aus der Art und Weise der Erfassung, Codierung und Auswahl der Daten ergeben.

Was sind die möglichen Konsequenzen von Algorithmic Bias?

Die Konsequenzen von Algorithmic Bias unterscheiden sich je nach Fall und Anwendung, aber es ist klar, dass dies weitreichende Konsequenzen für die beteiligten Personen und / oder Organisationen haben kann. Selbst eine sehr geringe Abweichung in der Vorhersage oder Entscheidung kann zum Beispiel dem Einzelnen zugute kommen oder ihn benachteiligen und erhebliche Auswirkungen auf unsere Gesellschaft haben.

Wie können wir am besten mit Algorithmic Bias umgehen?

Bei der Entwicklung von KI-Anwendungen müssen wir uns der Gefahren von Algorithmic Bias und der Art und Weise, wie sie in unseren Lösungen auftreten können, bewusst sein. Darüber hinaus müssen wir alles tun, um dies zu verhindern und / oder anzupassen, wenn wir feststellen, dass in unserem Algorithmus eine Abweichung auftritt.

Share on linkedin
Share on twitter
Share on facebook
Tim
17 Mai 2021

Archief

Delen

Share on linkedin
Share on twitter
Share on facebook