KI und Menschenrechte

Langsam lichten sich jetzt (Oktober 2024) die Nebel um das Hyptethema KI. Die gesellschaftlichen, wirtschaftlichen und politischen Zusammenhänge der Verwendung dieser Technologie werden deutlicher. Hier ein Überblick über einige Aspekte der KI-Nutzung.

KI ist nichts Neues

Die Geschichte der KI fängt 1956 an. Schon seit 1957 wird an Modellen der Neuronalen Netze geforscht.

  • Perzeptron: Modell der menschlichen Gehirnzelle
  • Logische Entscheidungssysteme (Expertensysteme)
  • Neuronale Netze (Aktueller Nobelpreis)

KI ist ein gesellschaftliches Produkt

KI fällt nicht vom Himmel. Neuronale Netze kennen keine Ziele und haben keinen Willen. Sie sind reine Stochastik und damit Mathematik.
Technologiegläubigkeit und -hörigkeit sowie die Kehrseite dazu, die Technikfeindlichkeit, versperren die Sicht auf die gesellschaftliche Bedeutung. (Beispiel: Glaube an Allgemeine KI)
Die Gefahr für Bürgerinnenrechte besteht darin, dass KI und LLMs Eigenschaften zugeschrieben werden, die sie nicht haben.
LLMs täuschen verblüffend genau menschliches Verhalten vor, aber sie haben dem System inhärente Fehler LLMs haben einen Bias,. (Beispiel: Amazon Bewerbung).

Digitalkonzerne und Staat

Die Digitalität und damit die gesellschaftliche Bedeutung von KI ist geprägt von zwei gesellschaftlich-ökonomische Machtstrukturen, die zum Teil in Konkurrenz zueinander stehen:

  • Staat (Gläserne Bürgerinnen)
  • Digitalkonzerne (Nutzerinnen als Datenlieferanten für Monetarisierung von Einstellungen)

Datenmaterial

Grundlage für KI-Modelle und speziell LLMs ist sprachliches Datenmaterial, das aus verschiedenen Quellen stammt, die jeweils eigene Eigenschaften haben.

  • Digitalwirtschaft
    • Profilbildung Werbung
      • Werbe-ID
    • Soziale Medien
      • Metadaten
  • Staat
    • Geheimhaltung von Daten und Verarbeitung (Palantir)
    • anlasslose Speicherung von IP-Adressen
    • Chatkontrolle
    • Biometrische Erkennung (Gesicht, Gang, Stimme,…)
  • Gesellschaft
    • freiwillige Datenspende
    • Wikipediaeintrag

Auswahl der Algorithmen

Neuronale Netze sind erst mal dumm. Damit sie „intelligent“ erscheinen, werden Modelle trainiert. Die Regeln, die Algorithmen, wie ein Training abläuft, werden von Entwicklern festgelegt und sind der Versuch, mit mathematischen Formeln (lineare Funktionen) Realität zu simulieren.

Menschliche Arbeit

Das in den Modellen enthaltene Datenmaterial enthält viele Fehler, die von Menschen unter unmenschlichen Bedingungen korrigiert werden müssen. Beispiele:

  • Mechanical Turk (Vergabe von Arbeit über eine Amazon-Plattform)
  • The Cleaners (Film über die Arbeitsbedingungen von Bildkorrektoren für große Digitalkonzerne)

KI aneignen statt Menschen enteignen

In Abwehrreaktionen zu verharren wird auf Dauer nicht gelingen. Geschlossene hierarchische Strukturen wie Polizeibehörden, Geheimdienste und Digitalkonzerne stehen im Widerspruch zu den Merkmalen einer offenen, demokratischen Gesellschaft.

  • Mit staatlicher Überwachung werden häufig nur Symptome bekämpft.
  • Die kommerzielle Nutzung beeinflusst die Werte, die Einstellungen und die soziale Stellung der Anwenderinnen.
  • Demokratie benötigt informierte Bürgerinnen, damit sie Entscheidungen in der Digitalität treffen können.
  • Schon das BVerfG-Urteil von 1984 begründet die Ablehnung der Volkszählung damit, dass allein das Gefühl, überwacht zu werden, gegen die Persönlichkeitsrechte verstößt. Diese grundlegende rechtliche Position wird in allen einschlägigen Urteilen des BVerfG sowie des EuGH bestätigt.

Geschlossen ist nicht sicher

Es ist ein Irrglaube, dass mit Geheimhaltung von digitalen Strukturen der Schutz der Bürgerinnen vor Übergriffen gewährleistet sei.

  • Kein System ist 100% sicher gegen Fehler oder Missbrauch.
  • Was ist, wenn Autoritäre das Gesundheitsministerium stellen? Was geschieht dann mit den Gesundheitsdaten von Kritikern des Rechtsradikalismus?
  • Diskriminierung ist von Menschen geschieht jetzt schon, weil KI-Anwendungen eine Abbildung der Gesellschaften ist, in der sie entwickelt wird.
  • Korrektur nur möglich, wenn Daten und Algorithmen offen zugänglich sind (Beispiel: Schwarze Haut wird nur schwer erkannt, fehlerhafte Gesichtserkennung).

Offenheit ist Sicherheit

Um die Sicherheit der Menschen vor Übergriffen und Fehlern in der Digitalität zu verbessern, müssen digitale Strukturen von KI offen gelegt werden.

  • Offenlegung der Daten (Garbage in – Garbage out)
  • Offenlegung der Algorithmen Trainingsvorgaben müssen nachvollziehbar sein)
  • Offenlegung der Produktionsverhältnisse (Cleaners)
  • Offenlegung der Anwendungsrahmen (Palantir)

Offene Strukturen unterstützen

Der Schutz vor Übergriffen staatlicher Behörden und der Digitalkonzerne kann jede von uns bereits jetzt individuell realisieren.

  • Wikipedia (geteiltes Wissen)
  • OSM (Alternative zu Googles Standorttracking)
  • DuckDuckGo (Suche ohne Tracking)
  • AdBlocker (Verhindern von Verfolgung während des Surfens)
  • Linux (Alternative zu übergriffige Betriebssystem und Officeanwendungen)
  • Public Money – Public Code (Öffentliche Gelder nur für transparente Digitalprojekte)
  • Öffentliche Daten nützen – private Daten schützen
  • Informationsfreiheitsgesetze (Nutzung der Informationsrechte)
  • openDesk (In den Verwaltungen offene Büroanwendungen fordern)
  • Huggingface (Nutzung von offener KI)

NGOs / Bürgerrechtsorganisationen

Die individuelle Abwehr hat zwei Nachteile: sie hat nur geringe Wirkung, wenn sie im stillen Kämmerlein erfolgt. Für ein gesellschaftliches Engagement gibt es viele Angebote. Die individuelle Gegenwehr bedeutet aber auch für viele Bürgerinnen eine Überforderung. Viele Bürgerrechtsorganisationen bieten dazu Unterstützung an.

  • Amnesty
  • CCC
  • Verbraucherschutzverbände
  • Digitalcourage
  • Netzpolitik.org
  • NOYB

Politischen Rahmen nutzen

Es gibt rechtliche und politische Strukturen, die für die Sicherung der Bürgerinnenrechte genutzt werden können. Besonders die Gesetzgebung der EU in den letzten Jahren stärkt die Bürgerinnen gegenüber den Digitalkonzernen.

  • Arbeit in / mit Parlamenten
  • Abgeordnete und Parteien zum Einsatz von KI befragen
  • Kontakt mit den direkten Abgeordnete des eigenen Wahlkreises aufnehmen
  • Nutzung der juristischen Möglichkeiten
    • DSGVO
    • AI-Act
    • DSA
    • DMA
  • Reglementierung von Anwendungen
    • Verbot „Effective Computing“ (=Emotionserkennung)

Erwachsenenbildung / Schule

Die Möglichkeiten und Grenzen von KI wie auch allgemein der Digitalität sollten Unterrichtsthema sein. Als Werkzeug dazu sollten Unterrichtende offene KI-Anwendungen für ihre Arbeit verwenden.

  • Umfassende Weiterbildung für Dozenten und Lehrerinnen, die über Anwendungswissen hinaus geht
  • Informatik als gesellschaftswissenschaftliches Fach (Digitales Lernen in Hessen)
  • Nutzung offene KI (Nele Hirsch, Wikipedia)
  • Nutzung offener Unterrichtswerkzeuge

Medien nutzen

Der Einfluss für eine offene digitale Gesellschaft kann durch Nutzung von Medien gestärkt werden. Es gibt Möglichkeiten etablierte „Neue“ Medien zu nutzen, ohne der Datensammelwut von staatlichen Stellen oder Digitalkonzernen Vorschub zu leisten.

  • TikTok, Instagram möglichst meiden, andere Möglichkeiten (Mastodon) nutzen.
  • In Foren auf Artikel / Beiträge reagieren / Fragen stellen
  • ÖRR an den Bildungsauftrag erinnern
    • Beispiel aus 60er Jahren: Wie „Der siebte Sinn“ jetzt „Digitale Grundbildung“
    • Statt Börse vor Acht – Digitalität vor Acht
  • Sichere Chatprogramme (Matrix, Signal))

Quellen/Belege

Unvollständige Auswahl an Quellen:

Allgemein

UN – Erklärung der Menschenrechte
Felix Stalder, Kultur der Digitalität, Suhrkamp 2016

Hintergrundwissen

https://playground.tensorflow.org
https://huggingface.co/chat/

Amnesty

Amnesty Deutschland zu KI und Menschenrechte
[Amnesty Deutschland – Regeln für Entwicklungsprozess KI-Anwendungen](# Menschenrechte und KI im Entwicklungsprozess)
https://amnesty-digital.de/unsere-themen/kuenstliche-intelligenz/betroffene-menschenrechte/

CCC

Hackerethik beim CCC
https://media.ccc.de/v/c4.openchaos.2024.06.kuenstliche-intelligenz
https://events.ccc.de/congress/2023/hub/de/event/ki_macht_ungleichheit/
https://media.ccc.de/v/37c3-11756-ki_im_klassenzimmer_-_ein_update
https://media.ccc.de/v/37c3-12157-rettet_uns_die_ki

Bildung

https://www.wikimedia.de/wp-content/uploads/2024/04/Handlungsempfehlungen_Offene_KI_fuer_alle.pdf
https://oeai.eu/aufruf/