Mehr Transparenz für Augmented Intelligence


Transparenz soll sicherstellen, dass jede Anspruchsgruppe angemessene und verständliche Informationen über die Algorithmen in Augmented Intelligence [1] Systemen erhält, um fundierte Entscheidungen treffen zu können. Transparenz ist also ein Mittel zum Zweck.

Auf die Art der Umsetzung kommt es an

Schlecht umgesetzte Transparenz kann überwältigend und entmutigend sein. Ein Paradebeispiel für schlecht umgesetzte Transparenz sind die Cookie (Consent)-Banner, die uns mittlerweile auf fast allen Webseiten entgegenspringen.

Dies widerspiegelt das Spannungsverhältnis zwischen Transparenz, die bloss um ihrer selbst willen geschaffen wird, gegenüber einer Transparenz, die tatsächlich darauf abzielt mehr Vertrauen und Nachvollziehbarkeit für Augmented Intelligenz zu schaffen.

Transparenz hat viele Facetten

Transparenz soll nicht nur technologieorientiert, durch Erklärungen der Algorithmen und Interpretationshilfen für die Resultate, hergestellt werden, sondern auch andere Aspekte berücksichtigen. Konkret geht es darum, Risiken und Grenzen eines Systems aufzuzeigen, für den Algorithmus verantwortlichen Personen zu benennen, Kontaktmöglichkeiten für Betroffene anzubieten und die Möglichkeit Entscheide des Systems von einem Menschen überprüfen zu lassen. Um ein Augmented Intelligenz Modell zu verstehen, müssen wir wissen, was es tun soll.

Motivation um an Transparenz zu arbeiten

Obwohl Transparenz in Augmented Intelligence vermehrt diskutiert wird, sehen viele Unternehmen dies immer noch eher als optionale Anforderung, denn als Notwendigkeit an, solange es keine klaren Vorschriften und Standards gibt.

Die Hauptmotivation für Softwareentwickelnde an Transparenz zu arbeiten, sind die Fehlersuche und die Genauigkeit der Modelle zu verbessern. Der Fokus liegt oft auf den Anwendenden der Modelle und nicht auf den Personen, die tatsächlich von den algorithmischen Entschieden betroffen sind.

Transparenz mit Mehrwert

Erklärbare und transparente Augmented Intelligence (explainable artificial intelligence XAI) ist zwar in der Forschung ein grosses Thema, die praktische Umsetzung ist jedoch mangelhaft.

Für Transparenz mit echtem Mehrwert ist es ausschlaggebend, die umfassenden Auswirkungen der Augmented Intelligence zu verstehen, die über die algorithmische Transparenz (Erklärbarkeit) im engeren Sinne hinausgehen. Dazu gehört eine sorgfältige Prüfung, wofür ein System konzipiert wurde und inwieweit es für diesen Zweck geeignet ist, aber auch die Berücksichtigung von unbeabsichtigten Folgen und Sensibilisierung für weitergehende gesellschaftliche Auswirkungen.

Die Studie «AI Transparency in Practice» der Mozilla Foundation untersucht verschiedene aktuelle Ansätze für mehr Transparenz in Augmented Intelligence Systemen.


[1] In diesem Beitrag verwende ich den Begriff ‹Augmented Intelligence› anstelle von Künstlicher Intelligenz. Die Bezeichnung ist für mich zutreffender, da Algorithmen datenbasiert arbeiten und nicht ‹künstlich›.


Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert