Skip to content
Alle Beiträge

Künstliche Intelligenz – Risiken

Künstliche Intelligenz (KI) ist ein Schlagwort wie viele andere und wird im Moment ziemlich gehypt. Doch was steckt eigentlich hinter diesem Begriff? In unserer Blogreihe "Künstliche Intelligenz" beschäftigen wir uns unter anderem mit Versprechen und Mythen der KI. Wir erfahren, wie KI eigentlich definiert wird und widmen uns ihren Herausforderungen und Anwendungsbeispielen.

Ein paar Dinge sind im Kopf zu behalten, wenn man über KI und vermeintlich „intelligente“ Systeme spricht. So ein System besteht, vereinfacht gesprochen, aus einem Algorithmus und dem, was man in ihn hineinsteckt. Solch ein System wird von Menschen erstellt. Damit ergeben sich grob drei Kategorien von Fehlerquellen, die Risiken bergen können:

  • Die Algorithmen der KI werden von Menschen gebaut. Sie entstehen aus deren Gedankenwelt, welche sich im Algorithmus widerspiegelt. Es kann also passieren, dass Algorithmen nach individuellen Einstellungen und Vorurteilen („bias“) oder gesellschaftlichen Normen agieren. Des Weiteren können auch Fehler in der Implementierung auftreten.
  • Daten sind die Quelle, aus denen Algorithmen lernen und Regeln ableiten. Sind die Daten fehlerhaft, nicht repräsentativ oder mit Vorurteilen („bias“) behaftet, so übernimmt der Algorithmus diese Eigenschaften. Ebenso kann man den Algorithmus durch Hinzugabe gefälschter Daten (Sucheingaben) manipulieren, indem er aus diesen ein falsches (Entscheidungs-)Verhalten lernt.
  • Große Relevanz hat außerdem die Nachvollziehbarkeit/Transparenz des Systems. Computer tun erstmal das, was man ihnen sagt. Doch wenn Algorithmen entwickelt werden, die nicht vollständig verstanden sind, so kann es passieren, dass diese Dinge ausgeben (oder tun), die man nicht beabsichtigt hat. Vor allem für Betroffene kann es sehr schwer werden die Entscheidungen des Algorithmus nachzuvollziehen. Ein Risiko, was auch an fehlender Nachvollziehbarkeit liegt, ist, dass sich Menschen zu sehr auf die Ergebnisse des Algorithmus in Entscheidungen verlassen. Am Ende trifft der Algorithmus die Entscheidungen, statt als Entscheidungshilfe zu dienen, da der Anwender die Entscheidung des Algorithmus nicht nachvollziehen kann und ihm zu sehr vertraut.

Menschliche Vorurteile spiegeln sich in Algorithmen als sogenannter „bias“ wider. Dieser kann von den Entwicklern kommen, oder von den Daten, auf denen der Algorithmus trainiert. Bekannte Kriterien sind Geschlecht und Hautfarbe. Ein Beispiel dazu: Gesichtserkennungssoftware, die überwiegend mit Bildern von hellhäutigen Männern trainiert wurde, erkennt weder Personen mit dunklerer Hautfarbe noch Frauen besonders gut.

Intelligente Algorithmen finden auch Zusammenhänge oder Korrelationen, an die Entwickler nicht denken und die man auch gar nicht als Entscheidungskriterium haben will. Beispielsweise gab es einen Fall, bei dem KI festgestellt hat, dass Mitarbeiter, die weiter weg vom Arbeitsplatz wohnen, schneller kündigen, und dementsprechend neue Bewerber beurteilt hat. 

In der Arbeit mit Algorithmen ist es wichtig, sich über diese potenziellen Quellen von Fehlern und "bias" im Klaren zu sein. Gerade, wenn Algorithmen als Entscheidungsunterstützung dienen und damit direkt Menschen betreffen, sind wichtige Fragen im Vorfeld zu klären: Spiegelt der Algorithmus nur das wider, was der Entwickler eh schon sieht? Ist die Datengrundlage divers genug? Wie kann die Nachvollziehbarkeit der Algorithmen verbessert werden? Auch wenn Algorithmen bereits heute als "intelligent" bezeichnet werden, heißt das nicht, dass für ihre Entwicklung keine menschliche Intelligenz mehr benötigt wird.

Weiterführende Links:


Der Begriff der Künstlichen Intelligenz ist noch in der Findungsphase. Daher spiegelt diese Blogreihe unsere Sichtweise wider und erhebt keinen Anspruch auf Vollständigkeit. In den nächsten Blogbeiträgen werden wir uns den rechtlichen Aspekten von KI widmen. Den nächsten Blogartikel finden Sie hier.