Neulich bei der Lust auf besser Leben gGmbH …

„Siri, was ist Nachhaltigkeit?“ – und sofort spuckt mir Siri den Wikipedia Artikel zu Nachhaltigkeit aus. Wenn ich vor ein paar Jahren an den Begriff „Nachhaltigkeit“ gedacht habe, ging es bei mir vor allem um Klimaschutz, nachhaltige Ernährung, Mülltrennung, CO2-Ausstoß-Vermeidung. Vielleicht dachte ich auch noch an Plastikvermeidung. Nachhaltigkeit ist also schon länger Bestandteil meines Lebens. Aber damit sollte nicht genug sein: Als ich im Oktober 2016 zu Lust auf besser leben kam, wurde mein „Nachhaltigkeits-Horizont“ erweitert. Natürlich wird der Begriff „Nachhaltigkeit“ geprägt durch Klimaschutz. Aber Nachhaltigkeit ist viel mehr als das.

Zum Beispiel organisieren wir Jahr für Jahr mit der IHK Frankfurt und der Stadt Frankfurt das Personalforum Inklusion, bei der Unternehmen und Schüler:innen mit Behinderungen die Möglichkeit haben sich auszutauschen, Kontakte zu knüpfen und gemeinsam berufliche Perspektiven herauszuarbeiten. Das ist also auch Nachhaltigkeit. Außerdem spüre ich jeden Tag, wie wohl ich mich als Werkstudenten bei Lust auf besser leben fühle. Wenn ich krank bin, bin ich krank (und wehe ich setzte mich doch an den Schreibtisch), wenn ich Stress mit meinem Studium habe und es einfach nicht schaffe, auf meine Stunden zu kommen, finden wir eine Lösung und wenn es privat mal brennt, hat auch jeder Verständnis. Ist das nicht auch Nachhaltigkeit? Nachhaltig und fair mit seinen Mitarbeitern umgehen!

Die Liste, was Nachhaltigkeit alles ausmacht, wird für mich immer länger: Klimaschutz, Klimaanpassung, Ernährung, Konsum, Bildung, Inklusion, nachhaltiges Führen, respektvolles Miteinander, faire und gerechte Entscheidungen und und und….

Nachhaltiges und faires Verhalten von Künstlichen Intelligenzen

Nachhaltige, faire und gerechte Entscheidungen sollten wir – als Individuen einer Gesellschaft – im Alltag und im Berufsleben immer versuchen zu treffen. Aber was ist eigentlich mit Künstlichen Intelligenzen? Künstliche Intelligenzen sind Algorithmen, die die Intelligenz eines Menschen nachahmen sollen und das gelingt auch schon wirklich gut. Es gibt eine Reihe von Einsatzmöglichkeiten von KIs, die auch einen Mehrwert für die Gesellschaft schaffen. Täglich nutzen wir solche Systeme mit Siri, Alexa und Übersetzungsanwendungen wie Deepl. Aber treffen diese Systeme auch faire und nachhaltige Entscheidungen? Mag bei Anwendungen wie Siri und Alexa irgendwie unbedeutend sein, aber was ist mit autonomem Fahren, Einstellungsentscheidungen, Kreditbewilligungen, Berechnungen von Wahrscheinlichkeiten, ob ein Straftäter erneut straffällig wird oder gar KIs, die in der Medizin eingesetzt werden? Hat ein Algorithmus Einfühlungsvermögen? Moralische Ansprüche und ein Sinn für Fairness und Gerechtigkeit? Ein plakatives und oft genutztes Beispiel ist das des autonomen Fahrens: Wer erfährt mehr Schutz durch das selbstständige Fahren, der Fahrer selbst oder werden in Notsituationen eher die Beifahrer geschützt? Oder: Hat ein Straftäter eine höhere Wahrscheinlichkeit für einen Rückfall, nur weil er in einem bestimmten Stadtteil wohnt oder einer bestimmten Ethnie angehört. Menschen können sich – wenn auch teilweise ungewollt – nicht von Vorurteilen freisprechen. Aber erwarten wir das von Künstlichen Intelligenzen? Man könnte ja meinen, dass ein Algorithmus nach klaren Mustern Entscheidungen trifft und diese einfach fair programmiert werden können?

Künstliche Intelligenzen sind oft Black Boxes

Leider ist es nicht ganz so einfach: Da Künstliche Intelligenzen selbstlernende Algorithmen sind, ist es nicht immer ganz nachvollziehbar, wie sie ihre Entscheidungen treffen. Das macht es natürlich schwer, zu kontrollieren, ob die Entscheidungen fair und frei von Voreingenommenheiten getroffen werden. Den meisten KIs bringt man bei, Entscheidungen zu treffen, indem man ihnen eine große Menge an Daten gibt, aus denen Muster durch den Algorithmus erkannt werden. Diese Daten stammen aus der realen (nicht vorurteilsfreien) Welt. Hat ein Straftäter eine höhere Rückfallwahrscheinlichkeit, wenn er männlich ist, nur weil die Daten mehr männliche Straftäter hergeben? Oder erkennt eine medizinische KI, Krebs bei Menschen einer bestimmten Ethnie besser, nur weil die Daten aus der westlichen Welt stammen?  Außerdem werden Künstliche Intelligenzen von Menschen programmiert, die – wie eben schon erwähnt – nicht vorurteilsfrei sind.

Viele Fragezeichen für den Einsatz von KIs

Erwarten wir, dass KIs in Zukunft „fairere“ Entscheidungen treffen als wir Menschen? Oder nehmen wir in Kauf, dass auch KIs nicht frei von Vorurteilen sind? Wo sind die Grenzen und wie können wir guten Gewissens eine KI einsetzen? Diese und andere Fragestellungen werden mit der höheren und machtvollen Entwicklung von KIs immer wichtiger. Wichtig und beruhigend ist aber, dass sich in der Informatik und auch politisch darum bemüht wird, Lösungen für diese Fragestellungen zu finden. Obwohl künstliche Intelligenzen uns das Leben in Zukunft einfacher machen können, ist eine kritische Auseinandersetzung damit notwendig.


Genauso wie ich mir wünsche, dass wir uns alle mit Respekt, frei von Vorurteilen, wertschätzend und nachhaltig begegnen, wünsche ich mir das auch von Künstlichen Systemen. Inwiefern das möglich ist, wird sich in Zukunft zeigen, aber ich bin optimistisch 😊

Eure Fredi

Schlagworte: , , , , , , ,