Blog

Der Zuschuss beträgt 900.000 € und das Projekt hat eine Laufzeit von zwei Jahren. Ermöglicht wird das Projekt durch die Hochschule Osnabrück Lingen, Institut für Duale Studiengange und die Hochschule Hanze Groningen, Institut für Ingenieurwesen, HBO-IKT und Bioinformatik.

Ethische KI entwickeln? Sieben Aspekte, die auch für KMU wichtig sind

Ethik ist wie „die Umwelt“. Es ist schwierig, dagegen zu sein. Gleichzeitig stoßen wir manchmal auf Widerstand von Unternehmen und Kolleg*innen, wenn das Thema zur Sprache kommt. Ethik erfordert Zeit, Aufmerksamkeit und Nachdenken. Ethische Fragen sind nicht immer einfach und schnell zu beantworten. Und das ist schwierig, wenn jemand mit einer tollen Idee für ein KI-System schnell loslegen will.

Aber auch für KMUs ist es von Vorteil, sich rechtzeitig mit den ethischen Aspekten der von ihnen entwickelten Systeme auseinanderzusetzen. Indem die richtigen Fragen rechtzeitig (im Voraus!) und mit mehreren Disziplinen diskutiert werden, wird die Konzeption und das Design des KI-Systems gestärkt. Darüber hinaus liefert es bereits im Vorfeld Antworten auf bohrende Fragen zukünftiger Kunden.

Sieben Aspekte der ethischen KI
Im Kern umfasst die Entwicklung von KI die folgenden sieben Aspekte:

1. Datenschutz. Verarbeitet das KI-System personenbezogene Daten, oder enthält das Trainingsset Daten, die auf Personen zurückgeführt werden können? Dann ist die DSGVO zu beachten. Seit der Einführung der DSGVO haben die meisten Unternehmen dieses Thema auf ihrem Radar und haben eine*n Datenschutzbeauftragte*n ernannt. Beziehen Sie auch diese in das Projekt mit ein. Wenn keine persönlichen Daten involviert sind, wird das Leben um einiges einfacher sein. Aber Vorsicht! Daten, die scheinbar anonym sind, können manchmal noch nachvollziehbar sein. Zum Beispiel mögen die Daten von Abwasserpumpen anonym erscheinen, aber wenn sie nur 1 oder 2 Häuser versorgen, können sie dennoch anzeigen, ob jemand im Urlaub ist.

2. Sicherheit. Ist das KI-System ausreichend gesichert? Wie anfällig ist das System für Angriffe? Konkrete Angriffe auf KI-Systeme sind z. B. die absichtliche Bereitstellung von manipulierten Daten beim Training oder in der Produktion. In einem aktuellen Fall ist es Hackern gelungen, den Autopiloten von Tesla mit einem Stück Klebeband an einem Straßenschild zu stören.

3. Fairness. Dazu gehören Dinge wie Diversität und die Vermeidung von ungerechtfertigten Vorurteilen. Wenn ein KI-System für eine bestimmte Personengruppe eingesetzt wird, dann sollte auch der Trainingsdatensatz repräsentativ für diese Personengruppe sein. Dies scheint offensichtlich, aber in der Praxis kann es subtile und unbewusste Abweichungen in den erfassten Daten geben. Zum Beispiel, weil die ursprüngliche Quelle der Daten bereits unbewusste Verzerrungen enthält. Eine auf Internetbildern trainierte KI, die gebeten wurde, das Gesicht einer amerikanischen Politikerin zu vervollständigen, kam auf ein Bikini-Foto…

4. Autonomie und Aufsicht. Bei diesem Aspekt geht es um das menschliche Maß. Bleiben Menschen für ihre eigenen Entscheidungen verantwortlich? Wissen die Menschen, dass sie es mit KI zu tun haben? Gibt es eine menschliche Aufsicht über das System? Computer sagt nein ist ein Szenario, das wir vermeiden sollten.

5. Transparenz. Dies ist eine knifflige Angelegenheit. Inwieweit kann der*die Anwender*in erkennen, warum ein KI-System zu einer bestimmten Entscheidung oder Vorhersage gekommen ist? Für aktuelle KI-Systeme, die auf Deep Learning basieren, ist dies oft sehr schwierig. Dies ist ein aktives akademisches Forschungsgebiet, in dem mehr und mehr Werkzeuge entwickelt werden, aber die Umsetzung in die Praxis steht noch weitgehend aus. Wir werden in diesem Blog mehr darüber berichten.

6. Soziale Auswirkungen. Welche Auswirkungen hat das System auf die Umwelt, die Gesellschaft, die Demokratie, große Gruppen von Menschen? Dieser Aspekt wird bei weitem nicht für alle Systeme relevant sein, die KMUs entwickeln. Trotzdem kann es gut sein, sich die Frage zu stellen: „Was ist, wenn wir plötzlich eine Million Benutzer*innen haben? Denken Sie zum Beispiel an die Überraschungseffekte zurück, als PokémonGo plötzlich zu einem Hype wurde.

7. Rechenschaftspflicht. Gibt es Mechanismen, die eine verantwortungsvolle Entwicklung und Nutzung des Systems sicherstellen? Wurden Risiken erkannt und Maßnahmen ergriffen? Kann das System auditiert werden? Wenn das System unerwünschte Auswirkungen hat, gibt es eine Möglichkeit, diese zu erkennen und ein Verfahren zur Umsetzung von Verbesserungen? Das hat im Fall der Benefiz-Affäre sicherlich nicht funktioniert.

Herangehensweise und Werkzeug
Wie können Sie sich als KMU konkret mit diesen sieben Aspekten auseinandersetzen? In jedem Fall geht aus den Beschreibungen hervor, dass es gut ist, ethische Aspekte aus verschiedenen Blickwinkeln zu betrachten. Sie sollten daher mehrere Rollen wie zukünftige Benutzer*innen, Entwickler*innen, Designer*innen und ethische Hacker*innen einbeziehen und diskutieren, wie diese die verschiedenen Aspekte sehen.

Es ist nützlich, ein Werkzeug zu haben, das als Leitfaden dienen kann. Ein gutes Werkzeug ist die Assessment List for Trustworthy AI (ALTAI), eine von EU-Experten entwickelte Checkliste. Allerdings ist diese gründliche Checkliste 15 Seiten lang und enthält mehr als 100 Fragen. Im Projekt KI-Agil erstellen wir daher eine „KMU-freundliche“ Version dieses Fragebogens. Wir testen diese Version mit unseren KMU-Partnern im Projekt. In Kürze werden wir die erste statische Version über diese Seite zur Verfügung stellen und danach werden wir sie in ein interaktives Tool umwandeln. Beobachten Sie also diesen Newsbereich!

Share on linkedin
Share on twitter
Share on facebook
Tim
17 Mai 2021

Archief

Delen

Share on linkedin
Share on twitter
Share on facebook