Digitale Ethik

Mit dem Voranschreiten digitaler Technologien wächst auch der Bedarf an Regulierungen, um Nutzer*innenrechte zu schützen und negative gesellschaftliche Auswirkungen zu begrenzen. Damit beschäftigt sich die digitale Ethik.

Was genau steht eigentlich in den Hinweisen zur Datenverarbeitung, denen ich ungesehen zugestimmt habe? Irgendwie stört es schon ein bisschen, dass auf der Website dieser Zeitung eine Anzeige für die Jeansjacke blinkt, die ich beim Online-Klamottenhändler meines Vertrauens mit einem Herzchen markiert habe. Und wie wohl fühle ich mich bei dem Gedanken, dass Mediziner*innen, Ingenieur*innen und Jurist*innen sich mit der Unterstützung von KI-Software durchs Studium gemogelt haben könnten?

 

Mit Fragen wie diesen und vielen anderen beschäftigt sich das weite Feld der digitalen Ethik.

Diese beschäftigt sich mit Ethik im digitalen Bereich, also im weitesten Sinne digitalen Technologien und ihren Auswirkungen auf Individuen, Gesellschaft und die Umwelt im Allgemeinen. Die Frage ist dabei nicht nur, was rechtlich zulässig ist, sondern, was das „moralisch richtige“ ist. Denn – und das ist uns aus dem Alltag allen bewusst – nicht alles, was man tun kann, sollte man auch tun. Ziel ist also nicht, den Bereich des rechtlich möglichen zu untersuchen, sondern herauszufinden, was aus ethischer Perspektive überhaupt möglich sein sollte.

Aber nicht nur aufgrund ihrer weit gefächerten Themen ist digitale Ethik ein weites und schwer überschaubares Feld. Ein weiteres Komplexitätslevel kommt dabei nämlich (zusätzlich zu eh schon in der Regel nicht ganz eindeutig zu beantwortenden Fragen) durch die Zukunftsorientierung hinzu. Es reicht also nicht zu überlegen, was heute in Ordnung ist und was nicht. Darüber hinaus muss man nämlich gewissermaßen in weiser Voraussicht überlegen, welche Software und Anwendungsfälle in Zukunft negative Implikationen haben könnten und der Regulierung bedürfen. Dass das nicht immer gelingen kann, ist klar.

 

Warum brauchen wir digitale Ethik?

 

Die Vorteile digitaler Technologien dürften mittlerweile jedem geläufig sein. Genauso wenig ist es aber ein Geheimnis, dass auch die Digitalisierung und ihre Auswüchse eine Reihe charakteristischer Nachteile oder zumindest Herausforderungen mit sich bringt.

Einer davon (der auf gesamtgesellschaftlicher Ebene womöglich folgenschwer ist) ist die zunehmende Machtkonzentration bei einigen wenigen Akteuren, namentlich der Big 4 des Internets: Google, Apple, Facebook und Amazon. Diese sind mittlerweile in so gut wie  den meisten unserer Aktivitäten im Internet involviert. Selbst, wer das Internet nicht sehr intensiv nutzt, d.h. beispielsweise keine Profile auf den Sozialen Medien hat, hinterlässt dennoch seine Spuren – sei es durch Online-Shopping, Hotelbuchungen, Ticketkäufe, die Nutzung von Streaming-Diensten oder auch die einfache Google-Suche.

Dabei ist auch die „einfache Google-Suche“ letztlich eine Wunschvorstellung, denn die gibt es praktisch nicht. Mit jeder Suche bekommt man nicht nur ein mehr oder weniger zufriedenstellendes Ergebnis, es werden auch Nutzungsdaten erhoben, gespeichert, verwertet und durch Mega-Unternehmen nutzbar gemacht. Große Unternehmen, wie die vormals genannten Big 4, sammeln so Unmengen an Informationen über uns, unser Nutzungsverhalten, unsere Bedürfnisse – und mit jedem Klick ein weiteres Puzzleteilchen, das zu einem großen Ganzen zusammengesetzt werden kann und dabei helfen wird, unsere Aufmerksamkeit noch besser zu gewinnen und Verhalten noch besser zu beeinflussen.

Damit erlangen diejenigen, die diese Anwendungen entwickeln, Macht gegenüber denjenigen, die sie lediglich nutzen.

Hinter der Auswertung dieser Daten stecken Algorithmen. Neben der Personalisierung von Werbung sollen die auch für eine individuell angepasste Nutzer-Experience sorgen.  Dadurch filtern sie unseren Informationsfluss im Internet und bestimmen maßgeblich mit, wie wir die Welt sehen. Denn Webseitenbetreiber verfolgen selbstverständlich ökonomische Interessen, und diesen ist es am zuträglichsten, wenn User möglichst lange mit ihren Diensten interagieren. Dem ist man natürlich eher abgeneigt, wenn man beim Öffnen einer App (z.B. Instagram) immer wieder mit Standpunkten konfrontiert wird, die nicht den eigenen Ansichten entsprechen. Würde es nur um Unterhaltung gehen, wäre das vielleicht bevormundend, aber immer noch kein allzu großes Problem. Problematisch wird es aber, wenn mehr und mehr Menschen den Großteil ihrer Nachrichten über die Sozialen Medien erhalten, da es hier zur bekannten Bildung von Filterblasen kommt, in der wir nur noch Inhalte gezeigt bekommen, die mit unserer Meinung übereinstimmen. Von anderen Weltbildern sind wir hingegen zunehmend isoliert. (Hier wird die Bedeutung digitaler Ethik ausführlicher thematisiert.)

 

Auch die rasche Entwicklung von KI wirft immer wieder Fragen auf

Auch in Zusammenhang mit ChatGPT, das OpenAI im November letzten Jahres auf den Markt brachte (aber im weiteren Sinne auch KI-Anwendungen allgemein), ergeben sich immer wieder digitalethische Fragen. Neben Datenschutzbedenken (aufgrund deren die Software in Italien zeitweise gesperrt war) wird auch immer wieder diskutiert, wie mithilfe der KI generierte Inhalte zu behandeln sind. ChatGPT kann seinen Nutzer*innen viel Arbeit abnehmen, bis zum Verfassen von Bewerbungsunterlagen und sogar akademischen Arbeiten. Das birgt die Gefahr, dass beispielsweise Studierende, die ihre Arbeit selbst angefertigt haben, gegenüber Kommiliton*innen, die die KI-Software bemüht haben, benachteiligt werden und möglicherweise sogar Menschen, die die fachlichen Anforderungen nicht erfüllen, zum Abschluss verholfen wird. Aus diesem Grund müssten schnell möglichst einheitliche Regelungen geschaffen werden, ob und zu welchem Ausmaß der Einsatz von ChatGPT erlaubt ist, wie er zu kennzeichnen ist und sichere Methoden zum Aufspüren von KI-Arbeit entwickelt werden.

 

Was tun?

 

Für Anbieter digitaler Dienstleistungen ist es zunehmend unerlässlich, Vertrauen in ihr Produkt und ihre Handhabung sensibler Daten zu kultivieren. Akzeptanz für neue Technologien und digitale Geschäftsmodelle kann nur dann erreicht werden, wenn Menschen sich in ihren Bedenken ernst genommen fühlen und ihr Gegenüber den potenziellen Gefahren etwas entgegenzusetzen weiß.

Unternehmen müssen beantworten können, wer Zugriff auf welche Daten hat und zu welchen Zwecken sie verwendet werden. Dafür müssen überzeugende Lösungen entwickelt und transparent kommuniziert werden. Ein versteckter und unverständlicher Nebensatz, der über Nutzungszwecke informiert, mit denen die betroffene Person wahrscheinlich nicht einverstanden wäre, ist dafür nicht ausreichend.

Um ihr digitales Verantwortungsbewusstsein nicht nur zu bekunden, sondern durch Taten zu zeigen, können Unternehmen zum Beispiel

  • Leitlinien für den Datenschutz und den Umgang mit personenbezogenen Daten und
  • Leitlinien zur Schaffung von Transparenz in digitalen Fragen festlegen.
  • Verbindliche Richtlinien für die interne und externe Online-Kommunikation erstellen.
  • Prozesse so gestalten, dass Entscheidungen, die auf Algorithmen basieren, von Menschen korrigiert werden können.
  • Eine(n) interne Ethikbeauftragte(n) festlegen oder eine(n) externe(n) beauftragen.
  • Mitarbeiter für digitalethische Fragen sensibilisieren und entsprechend Schulen (v.a. die Kolleg*innen, die mit Mitarbeiter*innendaten und sensiblen Kundendaten hantieren).

Die meisten Individuen und Firmen wollen sich nicht direkt in unethisches Verhalten involvieren – vielmehr können im Wettstreit verschiedener Interessen ethische Bedenken schnell mal ins Hintertreffen geraten, was dann dazu führt, dass mit der Zeit bestimmte Prozesse ins Laufen geraten, deren Mittel und Implikationen nicht ausreichend berücksichtigt wurden.

 

So wichtig das ethische Handeln von Unternehmen auf der einen, aber auch das individuelle Verhalten von Nutzern auf der anderen Seite ist, so wenig löst es die strukturellen Probleme unserer digitalen Welt. Hier müssten Lösungen auf Makroebene entwickelt werden, und zwar nicht nur von wirtschaftlich motivierten Akteuren, sondern verschiedenen Interessengruppen und ganz besonders denen, die aktuell wenig Mitspracherecht bei der Gestaltung des digitalen Raums haben.

 

Digitale Ethik beginnt bei 'Digital Thinkers'

 

Dieses Mitspracherecht liegt (abgesehen von der Legislative, die den neuesten Entwicklungen aber naturgemäß immer ein wenig hinterherhinken wird) vor allem bei den „Digital Thinkers“, den digitalen (Vor-)Denkern. Hier beginnt die technologische Innovation, aber hier beginnt auch moralische Verantwortung.

In der Bildung von „digitalen Denkern“ wird diese moralische Verantwortung allerdings selten thematisiert. Sie werden mit einer zweckorientierten und kurzfristigen Perspektive auf die digitale Sphäre konfrontiert, die die sozialen, wirtschaftlichen und kulturellen Implikationen der Innovation kaum berücksichtigt.

Im Vordergrund steht, eine tolle Idee zum Leben zu erwecken und der Welt etwas Besonderes, Originelles oder sogar Revolutionäres zu bescheren (und reich zu werden). Dieser Fokus darauf, etwas Großes und Beeindruckendes in die Tat umzusetzen, trübt den Blick für die Probleme, die sich daraus ergeben könnten. Entweder werden negative Konsequenzen und mögliche Fälle missbräuchlicher Anwendungen, die anderen Schaden zufügen könnten, nicht erkannt, oder schonungslos verklärt.

Am Ende wird es oft Aufgabe der Legislative bleiben, die Anwendungsgebiete und Art der Nutzung zu regulieren, und damit sicherzustellen, dass die Rechte der Nutzer*innen gewahrt werden. Leider wird die Gesetzgebung immer hinter den neuesten Entwicklungen her hinken und Zeit für dysfunktionale Nutzungspraktiken lassen. Ein Problem muss schließlich erkannt werden, bevor man es lösen kann, und bis man es erkennt, hat es oft schon eine Weile bestanden.

 

Fazit

 

Mit Voranschreiten der Digitalisierung wollen Unternehmen die Transformation nicht nur bewältigen, sondern bestenfalls gestärkt aus ihr hervorgehen. Zugleich sind Nutzer*innen auch zunehmend skeptisch gegenüber oder frustriert angesichts des digitalethischen Verhaltens mancher Akteure.

Momentan gestalten im Wesentlichen wirtschaftlich motivierte Interessengruppen den digitalen Bereich aus. Dabei sind selbst wohlgemeinte Ideen aber nicht immer das, was wirklich im Interesse des Nutzers oder der Nutzerin ist oder auf gesellschaftlicher Ebene zu wünschenswerten Entwicklungen führt.

Denn digitale Technologien existieren nicht losgelöst und abgeschlossen in ihrer eigenen Sphäre, sie sind nunmehr fester Bestandteil unserer Lebensrealität und gestalten sie immer mehr maßgeblich mit. Technologie und ihre Anwendung können nicht getrennt werden. Insofern ist es nur naheliegend, dass es Pflicht von Innovator*innen nicht nur ist, sicherzustellen, dass ihre Projekte rein funktional einwandfrei sind und den intendierten Zweck tadellos erfüllen, sondern auch, dass sie Einzelpersonen und der Gesellschaft keinen Schaden zufügen oder zumindest Maßnahmen mitentwickeln, um negative Folgen und schädliche Use Cases einzudämmen.

Daran anschließend werden wir uns im nächsten Artikel mit KI-Anwendungen wie ChatGPT beschäftigen.

Sie lieben Datenschutz? Wir auch! Erfahren Sie, wie Sie ihre Unternehmensgeräte DSGVO-konform nutzen können.