DiFü-logo
Start Start
Bitte trage eine gültige E-Mail-Adresse ein.
Bitte trage dein Passwort ein.
Passwort vergessen?

Mit einer registrierten E-Mail-Adresse kannst du deinen Fortschritt speichern.

Bitte trage eine gültige E-Mail-Adresse ein.
Bitte trage ein Passwort ein.

Für die Ausstellung von Zertifikaten benötigen wir zusätzlich deinen Namen und dein Geburtsdatum.

Bitte trage einen Namen ein.
Bitte bestätige unsere AGB um fortzufahren.

1. Künstliche Intelligenz: Grundlagen

  • Um diese Frage zu beantworten, könnten wir zunächst klären, was wir unter menschlicher Intelligenz verstehen: Das ist die Fähigkeit, logisch und schlussfolgernd zu denken, also Probleme zu lösen und dabei auch bisher Unbekanntes miteinander zu verknüpfen. Wir blicken sozusagen über den Tellerrand und treffen Entscheidungen.

    Wenn Computer oder Maschinen das tun, dann sprechen wir von künstlicher Intelligenz, kurz KI.

    KI heißt auch das Teilgebiet der Informatik, das sich mit der Frage beschäftigt, wie Computer eingesetzt werden können, um menschliche Entscheidungsprozesse abzubilden.

    Der Begriff selbst wurde 1955 durch den Mathematiker und Informatiker John McCarthy geprägt. Die Idee von KI ist also schon knapp 70 Jahre alt. Erst im Jahr 2016 feierte die KI aber ihren großen Durchbruch: Der Rechner Alpha Go besiegte den bisherigen Meister im Spiel „Go“. Das lag u. a. an den Erfolgen im Bereich des Machine Learnings und des Deep Learnings.

    • Machine Learning (ML) beschreibt die Fähigkeit von Maschinen, Daten zu verarbeiten und eigenständig zu lernen, ohne dass die Regeln dafür explizit programmiert werden müssen.
    • Deep Learning (DL) ist ein Teilgebiet des maschinellen Lernens. Es beschreibt Computermodelle, die vom menschlichen Gehirn inspiriert sind, wie z. B. neuronale Netze. Der Unterschied: Klassische Machine-Learning-Algorithmen bekommen feste Modellgruppen vorgegeben, anhand derer sie neue Datensätze erkennen und aufschlüsseln. DL-Algorithmen hingegen haben keine vorgegebenen Modelle, sondern bauen diese eigenständig aus Regeln auf und entwickeln sie stetig weiter. Dazu später mehr.

    Für den Durchbruch von KI brauchte es neben den Modellen zusätzlich noch zwei weitere Dinge:

    1. leistungsstarke Computer,
    2. eine große Menge an Daten als Basis für die Programme, um lernen zu können.

    Heute entwickeln sich alle Anwendungen rund um Künstliche Intelligenz rasant weiter. Viele Bereiche der Wirtschaft setzen bereits auf KI.

  • Ob bei der Übersetzung von Texten, der maschinellen Bilderkennung, automatischen Chatbots oder am Telefon: Viele von uns haben an unterschiedlichen Stellen bereits Erfahrung mit KI-Anwendungen gesammelt.

    Durch ihre vielfältigen Einsatzgebiete können sie heute bereits viele wiederkehrende Aufgaben übernehmen und damit den Menschen entlasten. Viele Arbeitsprozesse lassen sich mit Assistenz-Systemen effizienter gestalten:

    • Übersetzung von Texten in andere Sprachen
    • Unterstützung bei der Gestaltung sportlicher Trainingsabläufe
    • Organisation von Terminen
    • Optimierung von Verkehrsrouten und Verwaltung von Lagerhallen durch Transportroboter
    • Frühwarnsysteme erkennen Naturkatastrophen und helfen bei der Renaturierung und Bewaldung von Bodenflächen.
    • Beim Streaming werden Filme und Musik empfohlen, in Online-Shops werden Kaufempfehlungen ausgesprochen.
    • KI-Anwendungen können sogar Musik komponieren, Bilder malen, Gedichte verfassen oder ganze Drehbücher schreiben.

    Besonders spannend ist der Einsatz von KI-Anwendungen in der Medizin, z. B. für die Bewertung von Röntgenbildern. Auffälligkeiten werden erkannt und Krankheiten können so frühzeitig diagnostiziert werden:

    So vielfältig die Anwendungen auch sind – jede KI-Anwendung ist immer auf eine bestimmte Aufgabe spezialisiert und kann nur diese eine Aufgabe sehr gut lösen. Das bedeutet, dass eine KI-Anwendung, die gut im Übersetzen von Texten ist, nicht für die Frühwarnerkennung von Katastrophen eingesetzt werden kann. Daher werden in der KI auch die drei großen Teilgebiete Wahrnehmung, Handeln und Lernen unterschieden. In einer KI-Anwendung können aber auch je nach Aufgabe einzelne Teildisziplinen kombiniert werden, um spezielle Anforderungen zu erfüllen.

    Eine KI kann nach aktuellem Forschungsstand nur jeweils eine ganz spezielle Aufgabe erledigen. Deshalb wird sie auch als schwache künstliche Intelligenz bezeichnet. Diese eine Aufgabe meistert sie aber meist besser als ein Mensch.

    In der Wissenschaft gibt es auch die Idee einer starken künstlichen Intelligenz. Diese wäre in der Lage, ganz verschiedene Probleme zu lösen – wie ein Mensch. Bisher existieren starke KIs nur in Science-Fiction-Filmen. Die Forschung geht davon aus, dass es noch Jahrzehnte dauern wird, bis es eine erste starke KI geben wird. Vielleicht wird es sie auch nie geben.

  • Damit KI-Systeme ihre hochspezialisierten Aufgaben übernehmen können, müssen sie mit Wissen und Erfahrung ausgestattet werden. Und dafür brauchen sie jede Menge Daten – also Big Data. Zum Vergleich: Ein Kind muss ca. fünf- bis siebenmal einen Hund gesehen haben, um danach selbst einen Vierbeiner als Hund zu erkennen. Ein Computer hingegen benötigt für vergleichbare Aufgaben Tausende bis Hunderttausende Bilddateien, manchmal sogar Millionen.

    Vergleicht man diese Zahlen, dann könnte man schlussfolgern, dass Computer im Vergleich zum Menschen sehr ineffizient sind. Ihre größte Stärke ist es aber, große Mengen an Daten in sehr hoher Geschwindigkeit zu verarbeiten, und hier beginnen die Maschinen wieder nützlich zu werden.

    Expert:innen beschreiben Big Data häufig mit den „3 V“. Dabei handelt es sich um drei Begriffe, die im Englischen mit V beginnen:

    • Volume steht für die Datenmenge, die verarbeitet wird.
    • Velocity steht für die Geschwindigkeit, in der die Daten verarbeitet werden.
    • Variety steht für die Vielfältigkeit der Daten, die miteinander verglichen und verknüpft werden.

    Doch wo kommen all die Daten her? Einen großen Beitrag dazu leisten wir alle, wenn wir im Internet surfen, Smartphones und Wearables benutzen oder Beiträge in sozialen Netzwerken teilen. Denn dabei erzeugen wir immer Daten. Wenn wir z. B. ein Video bei TikTok oder Instagram hochladen, dann werden neben dem Video auch der Aufnahmeort, die Uhrzeit und alle damit verbundenen Verweise, Likes, Kommentare und Schlagwörter gespeichert.

    Ein weiteres Beispiel sind sogenannte Captchas. Das sind kleine Bilderrätsel, in denen man vor dem Einloggen auf einer Website beispielsweise alle Fotos anklicken muss, die ein Fahrrad oder eine Ampel enthalten. So schützt sich die Website einerseits vor Spam, andererseits werden die Bilder klassifiziert, damit ein Algorithmus sie zum Lernen verwenden kann.

    All diese Daten werden gesammelt und strukturiert in Datenbanken abgelegt. KI-Anwendungen nutzen solche Daten, um sie auf Zusammenhänge zu untersuchen und daraus mithilfe von Algorithmen Schlussfolgerungen zu ziehen. So werden Erkenntnisse gewonnen und Annahmen bestätigt oder auch widerlegt

  • Setzt man sich mit der Funktionsweise von KI auseinander, wird einem schnell bewusst, dass eine KI immer nur auf der Basis entscheiden und schlussfolgern kann, auf der sie gelernt hat. Kurz gesagt: Wenn man sie mit „schlechten Daten“ füttert, dann bekommt man auch „schlechte Ergebnisse“. Ein KI-Algorithmus ist also nur so gut wie die Informationen, mit denen er arbeitet.

    Nutzt man Daten, die nicht vielfältig genug sind, kann das zu einer Voreingenommenheit der KI führen. Dann spricht man von „Algorithmic Bias“. Fast alle großen Technologie-Unternehmen, die mit KI arbeiten, sind diesem Problem bereits begegnet. Im Oktober 2018 machte z. B. Amazon Schlagzeilen, als ein intelligentes System Bewerbungen aussortierte, welche die Worte „Frauen“ oder „Frauen College“ enthielten. Für den Einsatzzweck der KI wurden also ungeeignete Daten verwendet.

    Genau deshalb ist es wichtig, immer darauf zu achten, auf Basis welcher Daten eine KI lernt und auf eine möglichst große Varianz der Daten zu achten.

    Gleichzeitig müssen wir uns bewusst machen, dass KI-Anwendungen ihr Wissen auf Basis einer statistischen Auswertung erwerben. Ihre „Intelligenz“ fußt auf Wahrscheinlichkeitsrechnungen. Die Algorithmen werden also darauf trainiert, möglichst oft, aber keinesfalls immer richtig zu liegen. Denn eine KI, die im Test alles richtig macht, ist in der Realität schnell unbrauchbar, da sie nur Trainingsdaten auswendig gelernt hat und nicht verallgemeinern kann. Sie wird verworfen.

    Es gibt also per se keine fehlerfreie KI. Daher ist es wichtig, dass wir bei Ergebnissen von KI-Anwendungen immer einen kritischen Blick bewahren und die gezogenen Schlüsse hinterfragen.

Mein Wissen üben Gelernt

Frage 1 | 5
  -