DiFü-logo
Start Start
Bitte trage eine gültige E-Mail-Adresse ein.
Bitte trage dein Passwort ein.
Passwort vergessen?

Mit einer registrierten E-Mail-Adresse kannst du deinen Fortschritt speichern.

Bitte trage eine gültige E-Mail-Adresse ein.
Bitte trage ein Passwort ein.

Für die Ausstellung von Zertifikaten benötigen wir zusätzlich deinen Namen und dein Geburtsdatum.

Bitte trage einen Namen ein.
Bitte bestätige unsere AGB um fortzufahren.

4. KI im Alltag

  • Für die Entwicklung von KI-Anwendungen ist eine Vielzahl von Daten notwendig (vgl. Big Data). Dafür werden auch Daten von Privatpersonen erhoben: Durch digitale Assistenten wie Google Home und Amazon Echo sowie über soziale Netzwerke wie Instagram und TikTok erhalten Technologie-Unternehmen eine ganze Menge Informationen von uns. Aber auch bei Vorhersagen von Krankheiten auf Grundlage von Gesundheitsdaten oder dem Energieverbrauch von Privathaushalten sind persönliche Daten involviert.

    Wie kann also ein datenschutzkonformer Umgang mit KI-basierten Systemen aussehen?

    Ein Ansatz besteht darin, die persönlichen Daten zu pseudonymisieren bzw. zu anonymisieren und sie zusätzlich mit einer Unschärfe zu versehen, sodass keine Rückschlüsse auf einzelne Personen getroffen werden können. Denn für viele Anwendungen ist es gar nicht ausschlaggebend, auf welche Privatperson die Daten zurückzuführen sind. Hier ist eher „das große Bild“ interessant.

    Bei persönlichen Assistenzsystemen hingegen ist gerade die Individualisierung hilfreich. Um hier die Privatsphäre zu wahren, gibt es Ansätze, bei denen die einzelnen Anwendungen direkt auf den Endgeräten ausgeführt werden und nicht in der Cloud. Die Gesichtsentsperrung bei einem Smartphone ist so ein Fall. Auf diese Weise müssten die persönlichen Nutzerdaten gar nicht erst auf Firmenserver hochgeladen und dort verarbeitet werden. Nicht alle Hersteller machen aber von dieser Möglichkeit Gebrauch.

    KI-Anwendungen können zudem eingesetzt werden, um Datenschutzverletzungen bei den eigenen Systemen aufzudecken. So sind viele Firmen gar nicht in der Lage, Datenlecks in ihren Systemen frühzeitig zu erkennen und entsprechend zu handeln. Hier könnten KI-Anwendungen dabei unterstützen, Auffälligkeiten zu erkennen und dafür zu sorgen, dass Hacker-Angriffe schneller aufgedeckt werden.

    KI und Datenschutz müssen sich also nicht ausschließen. Es gibt aber derzeit noch sehr viele Unklarheiten und nicht definierte rechtliche Bereiche hinsichtlich der gesetzlichen Vorschriften bzgl. der DSGVO und der Arbeits- und Funktionsweise von KI-Systemen. Hier ist weiterhin Arbeit notwendig, um die Datenschutz-Standards auszugestalten und die Privatsphäre der Bürger:innen zu schützen.

  • Durch die Fortschritte im Bereich der künstlichen Intelligenz werden Maschinen in Zukunft immer öfter auch grundlegende moralische Entscheidungen treffen, die unser aller Leben betreffen. Die Maschinen handeln dabei autonom, also ohne dass sie von einem Menschen geleitet werden. Maschinenethik heißt die Schnittstelle, an der Informatik und Philosophie zusammentreffen, um allgemeine Verhaltensregeln für Maschinen aufzustellen.

    Schon ein Mähroboter für den Rasen könnte eines Tages vor der Entscheidung stehen, ob er über einen Marienkäfer drübermäht oder um ihn herumfahren soll – sofern er diesen erkennen kann. Die ethische Fragestellung dabei ist, ob man Tiere für Gartenarbeit töten darf. So gibt es bereits erste Ansätze, ethisches Verhalten in die Maschinen zu programmieren, etwa Saugroboter, die einen „Kill-Button“ für Spinnen und Insekten haben und diese Entscheidung damit dem Menschen übertragen.

    Je nach Einsatzbereich können solche Entscheidungen sogar über Menschenleben entscheiden – etwa bei autonomen Fahrzeugen oder automatischen Kriegswaffen. In welchen moralischen Zwickmühlen die Maschinen bzw. ihre Programmierer:innen hier stecken, veranschaulicht die Anwendung Moral Machine. Hierzu zählt etwa, das eigene Leben und das der Insassen aufs Spiel zu setzen oder das von Passanten auf der Straße.

    Die Maschinenethik hat sich daher auch mit der Frage auseinandergesetzt, ob Maschinen solche Entscheidungen überhaupt treffen dürfen. Anders als beim Menschen, der je nach Situation entscheiden kann, muss das Verhalten für KI-Systeme vorab festgelegt und in den Algorithmus eingeschrieben oder auch trainiert werden. Expert:innen haben daher entschieden, dass Maschinen diese Entscheidungen nicht selbstständig treffen sollen, aber dass sie Menschen in der Entscheidungsfindung unterstützen können.

    Ein weiterer Aspekt, der die Maschinenethik beschäftigt, ist Gerechtigkeit. KI-Anwendungen errechnen immer nur Wahrscheinlichkeiten, sie können also nie zu 100 % richtig liegen. Auf Basis von Daten bilden sie Modelle. Und da ein Modell immer nur einen Ausschnitt zeigt, nie aber die gesamte Wirklichkeit mit allen Parametern abbilden kann, ist immer eine Verzerrung in den Modellen und KI-Anwendungen vorhanden. Expert:innen sprechen hier vom Algorithmic Bias, also einer Voreingenommenheit, die zu Diskriminierung führen kann.

    So gibt es Sprach-Assistenzsysteme, die Frauenstimmen bis zu 70 % schlechter erkennen als männliche Stimmen. Oder Bilderkennungssysteme, die Menschen mit dunkler Haut falsch zuordnen. Das liegt daran, dass die KI-Anwendungen mit einseitigen Datensätzen trainiert wurden, eben nur mit männlichen Stimmen oder Menschen mit heller Haut. Die Initiative AlgorithmWatch hat 2022 einen Ratgeber für Beratungsstellen und Betroffene von Algorithmic Bias veröffentlicht.

    Neben der Auswahl der Trainingsdatensätze findet Diskriminierung auch beim Programmieren statt. Da lernende Systeme immer auf Annahmen der Entwickler:innen beruhen, finden sich bestimmte Annahmen auch im Programmcode wieder. Einige Technologie-Unternehmen setzen deshalb auf Diversität in den Entwicklungsteams, um den Bias möglichst gering zu halten.

    Künstliche Intelligenz hält uns gewissermaßen einen Spiegel vor. Denn lernende Systeme lernen nur deshalb, weil sie bestehende Annahmen verdichten und Muster daraus entwickeln. Damit machen sie Annahmen und Vorurteile klar erkennbar, die unterschwellig in der Gesellschaft vorhanden sind. In den Gesellschaftswissenschaften werden KI-Anwendungen deshalb auch verwendet, um diese Vorurteile aufzuzeigen.

    Trotz der Verzerrungen können wir uns die Vorzüge von KI zunutze machen, wenn wir einige Grundsätze berücksichtigen. So ist es wichtig, dass sowohl die Trainingsdaten als auch die eingeschriebenen Annahmen in den KI-Modellen offen zugänglich sind und verständlich aufbereitet werden. So haben Menschen die Möglichkeit zu verstehen, welche Kriterien bei der KI-Anwendung eine Rolle spielen, und falsche Annahmen aufzudecken. Auch sollten alle die Möglichkeit haben, sich einem KI-System zu entziehen.

  • Uno, EU und OSZE sind sich einig: Der Klimawandel ist menschgemacht und bedroht unsere Lebensgrundlage. Die Bundesregierung verfolgt deshalb das Ziel, Deutschland bis 2045 in eine klimaneutrale Volkswirtschaft zu verwandeln. Kann künstliche Intelligenz dazu beitragen?

    Wenn wir KI nur dafür verwenden, mehr Produkte zu verkaufen, dann ist KI vor allem Wachstumstreiber und schädlich fürs Klima. Auch der hohe Energieverbrauch, der bei KI-Algorithmen anfällt, ist dem Klima nicht zuträglich. Wenn wir aber von Beginn an die Rahmenbedingungen richtig stecken und Nachhaltigkeit mitdenken, dann kann KI große Wirkkraft entfalten, um das Klima zu schützen:

    • KI-Modelle können Gefahrenpotenziale simulieren: Was passiert zum Beispiel, wenn wir die klimatischen Kipppunkte überschreiten?
    • KI-Algorithmen können Wetterinformationen auswerten, um die besten Standorte für Wind- und Solarstationen zu finden.
    • Unternehmen wie Hawa Dawa nutzen KI, um ein Messnetzwerk aus vielen verschiedenen Datenpunkten von Umweltsensoren aufzubauen. Auf Basis der Auswertungen werden dann Handlungsempfehlungen ausgesprochen, um die Luftreinheit in Städten zu steigern.
    • Ein weiterer Anwendungsbereich besteht im Monitoring und dem Schutz von Ökosystemen. Projekte wie Wild me und Project Zamba entwickeln Open-Source-Plattformen zur Identifizierung und Nachverfolgung von Wildtieren. Die Lösungen vereinen die Stärken von KI und Hobbywissenschaftlern im Kampf gegen das Artensterben und das Vorgehen gegen Wilderer.
    • Auch im Bereich Kreislaufwirtschaft und Ressourcen kann KI unterstützen. Im Projekt REIF wird mithilfe von KI die Verschwendung von Lebensmitteln aufgedeckt; das KI-Anwendungshub Kunststoff­verpackungen forscht an der Zukunft des Recyclings.

    Täglich kommen weitere Beispiele dazu, wie KI für Nachhaltigkeit eingesetzt werden kann. Die Technologie ist also per se weder gut noch schlecht – es kommt vielmehr darauf an, wie wir sie nutzen. Davon ist auch das Bundesumweltministerium überzeugt. Wer sich für den Klimaschutz einsetzen möchte, findet bestimmt weitere Anwendungsfälle für KI, an die noch niemand gedacht hat. Inspiration gibt es z. B. in der 135-seitigen RESET-Sonderpublikation zu KI oder auf der englischsprachigen Plattform Climate Change AI.

  • An dieser Stelle möchten wir Anwendungen vorstellen, in denen ihr selbst KI-Anwendungen trainieren und verändern könnt, um so ein noch besseres Verständnis für lernende Systeme zu entwickeln.

    Die Explorables des KI-Campus sind kleine, interaktive Online-Spiele, die direkt im Browser laufen. Sie eignen sich besonders für das spielerische Lernen – nicht nur in der Schule – und bieten ein intuitives Verständnis von Teilbereichen des maschinellen Lernens. Der KI-Campus ist vom Bundesministerium für Bildung und Forschung gefördert und will durch innovative, digitale Lernangebote die KI-Kompetenzen in der Gesellschaft zu stärken. Hier findet ihr auch noch eine Vielzahl weiterer Lernangebote rund um das Thema KI, etwa Online-Kurse zu KI und Daten oder KI und Nachhaltigkeit.

    Bei Quickdraw trainiert ihr ein neuronales Netzwerk, indem ihr eigene Zeichnungen zur weltweit größten Datenbank für Zeichnungen hinzugefügt. Die Datenbank ist öffentlich zugänglich und wird zur Forschung im Bereich des maschinellen Lernens eingesetzt. Quickdraw ist Teil des Google-Projekts AI Experiments, einer Sammlung von einfachen KI-basierten Experimenten, die sich auch ohne Programmierkenntnisse erforschen lassen.

    Selbst loslegen kann man auch bei dem Projekt AI unplugged. Hier kann man verschiedene Spiele durchtesten und selbst erfahren, wie schwierig eine Kategorisierung manchmal sein kann.

    Im Mini-Schachspiel „Schlag das Krokodil“ lässt sich beobachten, wie ein Reinforcement-Algorithmus mit jeder Spielrunde lernt, bis er nicht mehr verliert.

    Wer Interesse hat, ein künstliches neuronales Netzwerk selbst zu programmieren und zu testen, kann die Anwendung xNN des Open Roberta Lab ausprobieren (NN steht für „Neuronale Netzwerke“). Die Anwendung wurde vom Fraunhofer IAIS entwickelt und macht KI-Algorithmen sowie deren Funktionsweise und Gewichtungen durch grafische Programmierung intuitiv erlebbar. Einen ähnlichen Ansatz verfolgt auch die Anwendung Tensor Flow Playground, mit der sich die TensorFlow-Bibliotheken von Google für maschinelles Lernen testen lassen.

    Viel Material findet ihr auf der Website zur KI-Strategie der Bundesregierung. Dort ist nämlich nicht nur die KI-Strategie des Bundes verlinkt, sondern auch die Strategien der Länder und Kommunen und sogar anderer Staaten weltweit.

    Auch einen Besuch wert ist die Online-Plattform Lernende Systeme. Dort versammeln sich führende KI-Expertinnen und -Experten aus Wissenschaft, Wirtschaft, Politik und zivilgesellschaftlichen Organisationen. In unterschiedlichen Arbeitsgruppen erörtern sie die Chancen, Herausforderungen und Rahmenbedingungen für die Entwicklung und den verantwortungsvollen Einsatz lernender Systeme. Aus den Ergebnissen leiten sie Szenarien, Empfehlungen, Gestaltungsoptionen oder Roadmaps ab.

    Wir wünschen euch viel Spaß beim Ausprobieren!

    Anschaulich erklärt und mit Mitmach-Experimenten findet ihr das Thema KI übrigens auch in Museen wie dem Futurium in Berlin, dem DASA in Dortmund oder dem Hygiene-Museum in Dresden.

Mein Wissen üben Gelernt

Frage 1 | 7
  -  
Prüfung starten