MC18 NOV17x2

Open menu

Social Media Icons Shop 55

 

ChatGPT und Bart markieren die letzten Erfolge in Sachen künstlicher Intelligenz, doch wo stehen wir wirklich? Computer gelten im Allgemeinen als Klug, obwohl sie eigentlich nur Ja oder Nein kennen. Man kann mit ihnen vielleicht kluge Dinge erledigen, aber bisher nur, weil intelligente Menschen diese so programmiert haben.

Schon recht früh in der Geschichte der Computer hat man sich Gedanken darüber gemacht, wie die Rechenmaschinen auch intelligente Leistungen vollbringen könnten. Dies würde nämlich beinhalten, dass sie lernen und aus dem Erlernten Bewertungen ableiten könnten.

Man wusste bereits früh, dass die Idee des Computers, dass es einen Eingang, einen Prozessor zum Rechnen und einen Ausgang für das Rechenergebnis gibt, weit davon entfernt war, menschliches Denken nachzubilden. Man fand in den 80er Jahren heraus, dass Computer in denen mehrere Rechenoperationen gleichzeitig, quasi in mehreren Ebenen, eine Art Lernfähigkeit hatten. Allerdings waren die Rechenleistungen damaliger Prozessoren viel zu gering, um nur den Hauch einer Chance zu haben, so etwas praktisch umzusetzen.

Dies hat sich mit der Jahrtausendwende drastisch verändert. Seitdem wird an künstlicher Intelligenz nicht mehr nur theoretisch gearbeitet. Und die Menge der Daten (Big Data) und die Geschwindigkeit, mit der Algorithmen ihre Arbeit erledigen, hat enorm zugelegt, das bedeutet aber nicht, dass ihre Intelligenz genau so schnell zugenommen hat wie die Rechengeschwindigkeit der Prozessoren.

 

Bard, ChatGPT und Co

2023 überschlagen sich die Meldungen über KI Anwendungen als Such,- und Recherchetools förmlich. Microsoft, Google und Co liefern sich ein Rennen, wer über die Browser die meisten User anziehen wird. Inzwischen ist die KI tatsächlich in der Lage, lange elaborierte Texte zu produzieren, die man theoretisch so für alle Arten von Arbeiten, in Schule, Universität oder Publikationen, verwenden kann. Schon fürchten Universitäten unüberschaubare Betrügereien bei schriftlichen Arbeiten und erwägen, wieder mehr mündliche Prüfungen einzuführen. Und auch Verlage wähnen sich bald imstande, einen großen Teil ihrer Belegschaft freistellen zu können und künftig Beiträge von der KI verfassen zu lassen. In der bisher scheinbar heilen Welt der wissenschaftlichen Publikationen in Scientific Journals droht kein Stein mehr auf dem anderen zu bleiben.

Sind die neuen Chatbots je nach Sichtweise die neuen Heilsbringer bei der Produktion von Textinhalen? Vielleicht. Wäre da nur nicht ein kleiner Haken: Die KI Systeme können Falschinformationen nicht oder nur zu einem Teil erkennen und arbeiten diese in die ansonsten sauber zusammengefügten Textantworten ein. Da die Mehrheit der Inhalte der Systeme absolut in Ordnung sind, ist man geneigt, alles für richtig zu erachten und genau da beginnen die Probleme. KI ist anfällig für Falschinformationen.

Bereits Googles erste PR Screenshots von dessen KI Chatbot "Bard" beinhalteten eine Falschinformation. In dem "Bard" Text zum James Webb Space Telescope wurde behauptet, dieses habe die ersten Bilder von einem Planeten außerhalb unseres Sonnensystems gemacht. Das ist aber falsch, diese Ehre gebührt dem südeuropäischen Observatorium VLT. Diese fehlerhafte Information hat sich Bard aus einem Twitter Beitrag gezogen, dass Google genau damit in seiner Vorstellung des Systems seine Anfälligkeit beweist, macht deutlich, wo die Achillesferse von AI zu finden ist.

Grund genug, mal einen Blick auf die Grundlagen von KI zu werfen....

 

Von der Natur kopieren

 

Ähnlich wie im menschlichen Gehirn wo sogenannte Neuronen arbeiten, werden künstliche Recheneinheiten programmiert, welche durch Informationen und Reize unterschiedlich stark angeregt werden können und diese je nach Wertigkeit an andere kleine Recheneinheiten weitergeben können. Ob und ab welchem Schwellwert sie dies tun, wird durch Schwellwerte festgelegt. Im Falle von Bilderkennung können das ziemlich viele Recheneinheiten sein, schließlich müssen sie jede einzelne Bildinformation, sprich jedes Pixel einzeln auswerten.

All diese Informationen der einzelnen Recheneinheiten müssen in weiteren Recheneinheiten einer Auswertungsebene verarbeitet werden, welche ihre Ergebnisse wieder an weitere darüber liegende Auswertungsebenen weitergeben. Eine Ebene untersucht vielleicht die Kontraste, eine andere, die Formen, eine weitere die Farben im Bild. Am Ende der Kette von Auswertungen sollte eine Ja/Nein Entscheidung stehen. Etwa ob sich auf dem analysierten Bild ein Hund befindet.

 

Lernen durch zahllose Vergleiche

 

All das funktioniert nur über Bildervergleiche. AI benötigt eine Vielzahl von Bildern, die bereits analysiert wurden und vor allem, die von Menschen als Bilder mit einem Hund benannt wurden und mit dem neuen Bild verglichen werden. Dazu benötigen Computer Zigtausende Bilder, ein Mensch muss nur ein einziges Mal einen Hund als Kind gesehen haben um diesen künftig sein Leben lang eindeutig erkennen zu können.

Natürlich passieren bei dieser Art Lernen laufend Irrtümer, das Interessante aber ist, dass die Systeme im Fall eines Irrtums analysieren können, welche ihrer Rechenoperationen den Irrtum begünstigt haben und können deren Schwellwerte verändern, nachjustieren. Auf diese Weise werden die Erkennungsraten immer besser.

Wesentlich einfacher funktioniert das alles natürlich mit Text. Hier ist weniger Interpretationsarbeit notwendig, hier wird zu einem bestimmten Wort einfach der Zusammenhang mit anderen Wörtern ermittelt und im System hinterlegt. Gibt man Apfel ein, vergleicht das System, in welchen Inhalten z.B. im Internet das Wort vorkommt und in welcher Häufigkeit es mit anderen Begriffen kombiniert ist. So findet das System schnell heraus dass Apfel ein Obst ist, weil dieser Begriff häufig in diesem Zusammenhang zu finden ist. Die Nähe oder Distanz zu bestimmten anderen Begriffen wird hier ausgewertet. Passieren hier Fehler, werden die Fehlerfaktoren ebenfalls abgespeichert und künftig vermieden. Diverse Progamme generieren bereits nach gewissen festen Vorgaben Artikel für Zeitungen.

Besonders produktiv ist KI etwa in der Analyse und Diagnose im Bereich der Medizin oder auch beim Abgleich juristischer Beurteilungen. Die schiere Menge an erfassbaren Daten übersteigt alles, was Menschen je in sich aufnehmen könnten.

 

Referenzsystem Mensch

Und dennoch können die Systeme nur Dinge, von denen sie die menschliche Bestätigung erhalten haben, dass sich richtig erkannt wurden. Das System, welches vielleicht fast fehlerfrei einen Hund auf Bildern erkennen kann, scheitert möglicherweise grandios wenn ihm ein Bild mit einer Katze vorgegeben wird. Es kann bestenfalls erkennen, dass kein Hund auf dem Bild zu sehen ist.

Derartige Systeme sind immer dann aufgeschmissen, wenn sie Gegebenheiten begegnen, die sich nicht kennen. Hier arbeitet das menschliche Gehirn anders. Es kann assoziieren, kann abwägen, kann herum spinnen. Es kann Teillösungen für frühere Problemstellungen neu kombinieren, wenn neue Probleme gelöst werden sollen. Diese Fähigkeiten versuchen Forscher nachzubilden und darin werden sie tatsächlich immer besser.

 

Weite Wege

Deep Learning ist die charmante Bezeichnung für etwas, was nur sehr bedingt funktioniert, weil wir noch nicht genau wissen, auf welche Weise das menschliche Gehirn wirklich arbeitet.  Vor allem ist es beeindruckend, wie schnell und auf welche Weise das menschliche Gehirn lernen kann. IA Systeme sind davon noch ein Stück weit entfernt. Aktuelle Systeme orientieren sich eher an simplen Lern,- und Konditionierungsversuchen bei Tieren. Trial and Error. Sie werden dahin optimiert, bestimmte Teilaufgaben alleine lösen zu können. Autos zu lenken beispielsweise.

Vermutlich wird es noch einige Jahre oder Jahrzehnte brauchen, bis Computer nahe an menschliche Denkfähigkeiten heran kommen. Und selbst dann fehlen ihnen Empathie, Moral und Ethik. Das kann irgendwann in ferner Zukunft für die Menschen gefährlich werden, genauso gefährlich wie frühzeitiger, ungeduldiger und unreflektierter Einsatz von AI Vorstufen, welche die Industrie am liebsten schon heute breitflächig einsetzen möchte. Perfekte AI ist noch ein ganzes Stück entfernt, was uns heute dazu als nahezu perfekt präsentiert wird, ist zu 95% geschickte Presse,- und Public Relation Arbeit.

 

Und nun?

Gerade weil die neuen Chatbots so erstaunlich gute und mehrheitlich korrekte Antworten produzieren und diese mit einem über jeden Zweifel erhabenen Selbstverständnis ausspucken, werden auch Fehler und Irrtümer als seriös empfunden. Wieviel Probleme Fake-Informationen bereits ohne KI in unserer Gesellschaft verursachen, ist hinlänglich bekannt. Was geschieht, wenn diese neben so vielen richtigen Inhalten von so professionellen Tools wie den Chatbots ausgespuckt werden, wird sich zeigen.

KI Chatbots helfen uns bei der Recherche von Inhalten, die Überprüfung auf ihren Wahrheitsgehalt werden die Menschen vorerst wohl selbst übernehmen müssen.

 

Neu im Shop

Banner Regie GK 4000

Weitere neue Artikel

Warum Arthouse-Filme wahrscheinlich benachteiligt werden, wenn sie von Netflix & Co, für schlechte Internetverbindungen optimiert werden...

Premiere Pro und After Effects bekommen mächtige Verbesserungen spendiert, die viel Zeit sparen...

Krankenhäuser sind wie Brenngläser für menschliche Schicksale, -kein Wunder, dass so viele Filme und Serien genau dort angesiedelt sind...

Warum große Katastrophen die Zuschauer seit Anfang der Filmgeschichte bis heute in die Kinos gelockt haben...

Irgendwann ist es passiert, man hat vergessen, Videodateien auf den Rechner zu kopieren und die SD Karte für neue Aufnahmen formatiert. Was kann man tun?

Wie die Nazis im 3. Reich sogar die Märchenfilme für ihre Propaganda instrumentalisierten...

Warum das, was uns Medien aller Art als Schönheit präsentieren, verlogen und für das Kino und uns Menschen herausfordernd ist...

Es ist ein Tabu, man redet nicht darüber, wie absolut unfair sich manche Schauspieler an Filmsets verhalten...

Segen und Schwächen der KI werden deutlicher. Warum nehmen die Halluzinationen der KI immer mehr zu?

Kameras und Scheinwerfer sind nicht auf dunkle Hauttypen abgestimmt,- die Geschichte einer technischen Ungleichbehandlung

Sie kommen selten vor, doch sie ziehen eine deutliche Spur durch die Filmgeschichte,- wir schauen auf die Highlights...

Hersteller von KI getriebener Musiksoftware geben zu, ihr KI Modell mit kommerziellen Songs trainiert zu haben. Das bedeutet Ärger!