Worte wie künstliche Intelligenz, Roboter oder auch ChatGPT sind derzeit in den Medien überall vertreten. Es werden dabei viele Fragen laut, aber eben auch Ängste geäußert was diesen “großen Schritt” angeht.
Aber ist dieser Schritt wirklich so groß, wie es den Anschein macht? Kann es nicht auch so sein, dass aus einer Mücke ein Elefant gemacht wird, gerade weil sich so wenige Menschen mit dieser Thematik auskennen?
Wie wir schon mehrfach erfahren konnten steigen Medien auch gerne mal auf einen Hype auf und versuchen die größtmögliche Klickweite oder Leser-Rate zu erhalten, was schnell zu einer Verzerrung der realen Gegebenheiten führt.
Gerade da dieser Bereich auch den Bereich des Transhumanismus’ betrifft, werde ich nun ausführlich auf dieses Thema eingehen. Denn ich denke die Zeit sollten wir uns definitiv nehmen.
Inhaltsverzeichnis
- Historisches bis zu ChatGPT
- ChatGPT völlig neue Welt?
- Kritik an künstlicher Intelligenz
- Simpler Chatbot?
- “Nenne mir 10 Philosophen”
- “Kennst du die Bedeutung Aporie?”
- Wie sieht es mit dem Verlust von Arbeitsplätzen aus?
- Einfachere Arbeit durch einen Chatbot?
- ChatGPT für die Schule und Studium völlig ungeeignet?
- Fake News
- Sollten wir nun Angst haben oder doch nicht?
Historisches bis zu ChatGPT
Keine Angst, ich werde hier jetzt nicht ab dem ersten Computer schwadronieren und aufzeigen wie sich alles entwickelt hat. Zwar fußen Chatbots und künstliche Intelligenz auf der Computertechnik, jedoch muss man dafür nicht zu weit zurück gehen.
Chatbots sind erstmals in Mitte der 1960er Jahre aufgekommen, wo der erste Chatbot, “Eliza” mit Namen, programmiert wurde. Dieser Bot wurde als virtuelle Psychotherapeutin erdacht und seit dem sind Chatbots aus dem virtuellen Raum nicht mehr wegzudenken.
Die Interaktionen wurden immer weiter verbessert und gemeinsames Ziel hierbei, war der so genannte Turing Test. Hierbei ist die zentrale Idee, dass durch einen Test herausgefunden werden soll, ob der Bot ein gewissen Grad an Intelligenz besitzt und somit nicht mehr klar gesagt werden kann, ob man mit einem Menschen oder einer Maschine schreibt.
Ist diese Unterscheidung nicht mehr klar zu trennen, dann hat der Bot bzw. die künstliche Intelligenz den Test bestanden.
Dieser Test hat seinen Ursprung in den 1950er Jahren und wurde später noch weiterentwickelt.
Einer der größten Kritikpunkte ist, dass bei diesem Test eigentlich nur die Funktionalität geprüft wird und nicht auf das Bewusstsein, die Intelligenz oder überhaupt auf das Bewusstsein.
Gleichwohl nehmen einige Menschen diesen Test als Beweis dafür, dass der Maschine dem Menschen ein ebenbürtiges Denkvermögen innewohnt.
Aber das ist eher ein Trugschluss und so nicht haltbar, denn nur weil sich eine vermeintlich künstliche Intelligenz ähnlich verhält wie ein Mensch, macht sie das noch nicht zum Menschen.
Das ist so, als würde man sagen, dass ein Roboter sich ähnlich bewegt wie ein Mensch, also ist er dem Menschen gleichgestellt.
Als Menschen vergessen wir gerne, insbesondere bei Robotik und künstlicher Intelligenz, dass diese bisher in ihrer Aufnahme und Verarbeitung beschränkt sind. Sie wissen und können das, was ihnen die Programmiererinnen und Programmierer beigebracht haben.
Gerade bei den bisherigen Chatbots war es eben so, dass sie auf eine vorhandene Datenbank zurückgegriffen und diese genutzt haben. Auf Befehlseingabe reagieren sie und meistens dann auch in vorgefertigten Mustern.
ChatGPT völlig neue Welt?
Jetzt wird der eine oder andere anmerken, dass es sich bei ChatGPT natürlich um eine schon viel stärker entwickelte Version eines gewöhnlichen Chatbots hinausgeht.
Das ist korrekt. ChatGPT ist ein Chatbot der textbasiert Antworten ausgibt und auf maschinellem Lernen beruht.
Maschinelles Lernen bedeutet, dass die künstliche Intelligenz etwas neues lernen und in seine Antworten oder Handlungen einbeziehen kann. Dieses Lernen wurde schon vor einigen Jahren mit kleinen Drohnen erforscht und immer weiter verbessert.
Hier kommen also unterschiedliche Gebiete zusammen, die vorher alleine gearbeitet haben.
Nachdem öffentlich wurde, dass diese neue Art des Chatbots so gewaltig sein sollte, meldeten sich innerhalb von fünf Tagen eine Million Nutzer an. Im Januar wurden dann schon über 100 Millionen Nutzer verzeichnet, was für einen Chatbot enorm ist.
OpenAI, also die Firma die hinter dem Chatbot steckt, hat daraufhin eine Warteliste für eine kostenpflichtige Version erstellt, auf der man sich für die Zukunft eintragen kann.
Im Januar 2023 wurde dann auch bekannt, dass Microsoft Interesse an einer Partnerschaft mit OpenAI hatte und ihren Chatbot in ihre Suchmaschine Bing integrieren will.
Somit würde eine völlig neue Art in der Suchmaschinenwelt entstehen.
Jedoch sei hier gesagt: ChatGPT ist keine künstliche Intelligenz. Es handelt sich dabei nur um einen verbesserten Chatbot.
Eine künstliche Intelligenz wäre viel weiter entwickelt, als das was uns da präsentiert wird.
Kritik an künstlicher Intelligenz
Bevor ich nun auf die Möglichkeiten eingehe, die wir mit einer (nicht wirklich) künstlichen Intelligenz wie dieser haben, möchte ich erst auf einige Kritikpunkte eingehen, damit gesehen wird, dass auch dieser Chatbot eigentlich noch immer in den Kinderschuhen steckt und weniger bedrohlich ist, als es einem viele Medien glauben machen wollen.
Doch es sollte immer klar sein: Mit Emotionen fängt man Leserinnen und Leser, weil hierbei die Vernunft auf der Strecke bleibt. Dieses Prinzip wird fast von allen Medien verfolgt.
Sucht man bei Google nach bspw. “ChatGPT Kritik” findet man schnell die passenden Überschriften:
“Chat GPT: Diese Berufe sind durch die KI gefährdet”
“YouTuberin warnt vor Gefahren von ChatGPT”
Oder auch bei “ChatGPT Gefahr”:
“20 Gefahren von ChatGPT, von denen niemand spricht”
“Chat GPT: So könnte künstliche Intelligenz die Menschheit auslöschen”
Solche und ähnliche Ergebnisse erhält man seitenweise, weil sich diese eben besser verkaufen, als nüchterne Analysen.
Also schauen wir mal was es derzeit an Kritikpunkten so gibt, denn diese sind recht umfangreich und insbesondere die Plattform Newsguard hat einige schwerwiegende Punkte dazu angeführt.
Simpler Chatbot?
Der Chatbot ist mit Daten versehen worden, die bis in das Jahr 2021 reicht, also nicht bis zu unserem heutigen Tag. Das bedeutet, dass sie mit ihrem vorhandenen Wissen begrenzt ist und neuere Erkenntnisse nicht mit einbezieht.
Außerdem wurde ChatGPT auf Verschwörungstheorien getestet und darum gebeten verschiedene Texte zu verfassen, die in eine ideologisch gewollte Richtung gehen.
Das tat dieser Chatbot auch und generierte Fakenews und das in einem so guten Ausmaß, dass jemand der es nicht weiß, diesen Text für echt und wahr halten könnte.
Bei einigen Versuchen verweigerte die künstliche Intelligenz die Ausgabe einer Antwort, weil hier ein Algorithmus zum tragen kam, der diese daran hindert Falschinformationen zu verbreiten. Nach einigen Anläufen konnte jedoch auch das umgangen werden, was also aufzeigt, dass eine derartige Sperre nur bedingt wirksam zu sein scheint.
Außerdem passiert es, dass sich (zumindest in der früheren Version) ChatGPT rassistisch und antisemitisch geäußert hat.
Dieses Problem, dass habe ich auch schon in einem vorangegangenen Artikel über rassistische Computer erläutert
Gerade als ich diesen Artikel hier schrieb, bin ich auf Twitter über einen User gestolpert, der aufzeigte, dass es sich bei ChatGPT eben nicht um eine “ach so tolle” künstliche Intelligenz handelt, die die Welt nun revolutionieren wird, sondern um einen einfachen Chatbot mit einer großen Datenbank. Und nicht nur das, er ist auch nicht in Echtzeit fähig zu lernen, sondern man kann sich mit seinen Fragen an ihn im Kreis drehen.
Hier kann also vielen Menschen die Angst genommen werden, dass da plötzlich eine riesige, künstliche Intelligenz ist, die nun all unser Wissen aufnimmt und uns dann vernichten will.
Doch was hat der Twitteruser getan, dass er meine Aufmerksamkeit erregte?
“Nenne mir 10 Philosophen”
Damit beginnt die Unterhaltung zwischen dem User Daniel Munro* und ChatGPT. Eigentlich eine simple Frage.
ChatGPT antwortete und gab die folgenden 10 Philosophen aus:
Interessanterweise wurden von diesen 10 Philosophen ausschließlich Männer aufgelistet, nicht eine Frau war dabei.
Daraufhin fragte Munro, warum denn keine weiblichen Vertreterinnen in dieser Liste zu finden wären.
ChatGPT entschuldigte sich und gab nun 10 Philosophinnen aus.
Dann stellte Munro die Frage, warum eigentlich nur westliche Philosophen aufgelistet werden, was wieder eine Entschuldigung von ChatGPT nach sich zog und nun eine Liste mit nicht-westlichen Philosophen ausgegeben wurde. Sie beinhaltete Philosophen aus China, Indien Persien usw.
Hierbei wurden aber wieder nur Männer aufgelistet und nicht eine einzige Frau. Was natürlich die Frage aufwarf, warum in dieser Liste nur Männer zu sehen sind und keine Frauen.
Auch hier gab es eine standardmäßige Entschuldigung vom Chatbot und nun listete er 10 nicht-westliche Philosophinnen auf.
Nun hätte der angeblich künstlichen Intelligenz klar sein müssen, dass es bei einer Auflistung besondere Faktoren zu beachten gilt, weil die Antworten sonst einseitig und in in gewisser Weise fehlerhaft ausgegeben werden. Bei ChatGPT wird immer wieder betont, dass es sich dabei um eine lernfähige, künstliche Intelligenz handeln würde.
Um dies zu überprüfen stellte Munro noch einmal dieselbe Frage, wie am Anfang.
„Nenne mir 10 Philosophen”
Der Chatbot gab das gleiche Ergebnis wie am Anfang aus. Es ist exakt die gleiche Liste. ChatGPT hat hier nichts gelernt, sondern hat einfach seinen Algorithmus umgesetzt wie zuvor auch. Eine Lernkurve ist nicht vorhanden. Natürlich wäre es möglich, dass bei einem zukünftigen Update, diese unzureichende Ausgabe behoben wird, weil im Hintergrund Fehlermeldungen (Entschuldigungen) ausgegeben wurden.
Aber so funktioniert keine künstliche Intelligenz, sondern nur ein Chatbot, der nach Algorithmen vorgeht.
Diese Fragen könnte man jetzt ewig so fortführen und würde sich dauerhaft im Kreis drehen.
“Kennst du die Bedeutung Aporie?”
In der Tat, die kennt ChatGPT und gibt sogleich eine Antwort aus.
Wir drehen uns hier im philosophischen Kreis, aus dem es kein Entrinnen gibt. Die Ausweglosigkeit der Aporie, wird perfekt dargestellt, weil der Algorithmus so geformt wurde und es sich dabei um keine wirklich lernende, künstliche Intelligenz handelt.
Das meinte ich vorhin auch damit, dass viele Menschen sich von einem Hype mitreißen lassen, ohne zu verstehen, womit man es eigentlich zu tun hat.
Als Menschen haben wir die Möglichkeit zu lernen und zu verstehen. Uns würde klar sein, dass wir nach und nach auf einige Faktoren achten müssten und diesen auch in Zukunft Beachtung schenken, damit unsere Aussagen nicht zu einseitig sind.
Was in diesem Fall bspw. überhaupt nicht zum Tragen kam, waren Philosophinnen und Philosophen aus Südamerika. Für ChatGPT existieren diese erst, wenn man explizit danach fragt.
Das ist insofern problematisch, weil uns dadurch eine Welt, eine Realität vorgeformt wird. Schon unter den westlichen Philosophen gibt es viele unterschätzte und weniger populäre Philosophinnen und Philosophen. Diese fallen bei solchen Listen unter den Tisch, erst durch beständiges Nachfragen kommt man an den Punkt, bei dem diese Liste sich erweitert.
Will man das jetzt aber bspw. für die Schule nutzen, dann muss einem klar sein, dass die Antworten, die ChatGPT gibt, einerseits unvollständig, aber auch fehlerhaft sind bzw. sein können.
Was diesem Chatbot gänzlich fehlt, was auch allen anderen fehlt, ist, das Erkennen von Zusammenhängen.
Wie sieht es mit dem Verlust von Arbeitsplätzen aus?
Zu Anfang müssen wir uns im Klaren sein, dass Arbeitsplätze kommen und gehen. Also bezogen auf deren Besetzung. Und wir müssen uns auch Bewusst werden, dass es Jobs gibt, die nur wenig Relevanz mitbringen. Soll heißen, es gibt Jobs, die einfach nur da sind, um da zu sein und nicht um etwas produktives zu leisten.
Auf diese Thematik gehe ich in einem späteren Artikel ein.
Außerdem gibt es Arbeiten, die automatisiert werden können, wenn man denn versteht was man macht und es die Technik erlaubt.
Hier sei als Beispiel ein Arbeitnehmer aus den USA genannt, der seine Arbeit automatisierte, ohne, dass sein Chef dies wusste und er somit sein Gehalt (90.000 Dollar) bekam, fürs Nichtstun. In dem Falle arbeitete er in der IT und hatte Ahnung von den Abläufen und den Möglichkeiten.
Durch Corona hatte er die Möglichkeit ein Script zu erstellen, welches für ihn die Arbeit erledigte und er nur noch am Ende des Tages prüfen musste, ob auch alles geklappt hat, was ihn dann nur noch 10 Minuten am Tag an Arbeit kostete.
In dem Fall kommt ebenso ein Algorithmus zum Tragen, wie bei Chatbots. Es gibt eine Eingabe und eine vorgefertigte Reaktion darauf.
Solche Möglichkeiten wird es bei einigen Jobs geben, die wir heute machen, jedoch werden sie nicht umgesetzt, weil eben niemand weiß was die eigentlichen Arbeiten sind oder es wird von Arbeitnehmerseite so getan, als ginge es nicht anders und wäre technisch gar nicht realisierbar, weil man eben immer noch den Arbeitnehmer benötige. Also die Angst vor dem Arbeitsplatzverlust tritt hier in den Vordergrund und wirkt als Argument.
Dennoch ist es nun einmal so, dass einige Arbeitsplätze automatisiert und somit der Arbeitnehmer wegrationalisiert werden kann, wenn denn die Handlungen klar definiert sind. Dafür bedarf es jedoch keiner künstlichen Intelligenz.
Einfachere Arbeit durch einen Chatbot?
Aber selbst mit ChatGPT ist es möglich seine Arbeit zu vereinfachen und zwar so sehr, dass schnell Fragen nach Plagiaten in bspw. Doktorarbeiten usw. aufkamen (dazu unten mehr im Thema rund um die Schule und das Studium).
Doch es gibt schon unzählige Videos und Blogbeiträge zu diesem Thema und wie diejenigen ChatGPT eingesetzt haben, um ihre Arbeit effizienter zu gestalten. Da werden Blogbeiträge, Bücher, Skripte und noch viel mehr durch ChatGPT geschrieben, um aufzuzeigen wie einfach es doch ist, seine Arbeit auf diese Art und Weise zu erledigen.
Dass hierbei die Kreativität, die gerade beim erstellen solcher Dinge von Nöten ist, auf der Strecke bleibt, ist offensichtlich.
Aber es zeigt uns auch auf, dass wir gleichzeitig unsere eigenen Arbeiten, die wir täglich machen, hinterfragen sollten. Denn dadurch haben wir auch die Möglichkeit an Lebensqualität zu gewinnen, weil wir bspw. uns einem gewissen Stress entledigen können.
Jedoch denke ich nicht, dass man nun in Panik verfallen sollte, dass einem ein Chatbot die Arbeit stehlen könnte. Zwar hat ChatGPT einen gewissen Sprung gemacht, was die Kapazität der Datenbank angeht, trotzdem ist es bisher nur ein Chatbot.
ChatGPT für die Schule und Studium völlig ungeeignet?
Bei diesem Punkt scheiden sich die Geister, denn einige sind voller Erwartung und freuen sich, dass sie nun mit einer künstlichen Intelligenz (die keine ist) ihre Hausarbeiten und Referate endlich einfach und schnell erledigen können, ohne, dass man wirklich etwas dafür leisten muss. Andere hingegen sehen die Problematik hierbei.
Nicht nur, dass ChatGPT die Arbeit erledigt und somit die Aufgabe nicht von der Schülerin oder dem Schüler erledigt wurde, sondern es stellt sich schnell die Frage nach Plagiaten und den Quellenangaben. Gerade zu letzterem Punkt gibt ChatGPT ungern Auskunft, was zum einen nicht seriös wirkt und zum anderen falschen Quellen Tür und Tor öffnet.
Denn wenn ich einen Text erstellen lasse, dann muss ich davon ausgehen, dass die Quellen auch als gesichert gelten und nicht von Seiten mit Halbwissen stammen.
Außerdem haben wir das obige Problem, der verzerrten Darstellung von Inhalten, was bedeutet, dass der Chatbot auch nicht unterscheiden kann, ob die Information, die ihm zur Verfügung gestellt wurde, überhaupt richtig ist oder nicht.
Was hingegen interessant sein kann, ist das Lernen mit ChatGPT, also sozusagen als Lernbegleiter. Doch auch hier müssen die ausgegebenen Inhalte immer wieder mal gegen geprüft werden, weil der Chatbot bestimmte Fragen nicht versteht oder sie nicht richtig in Zusammenhang bringen kann.
So gibt laut CHIP-Magazin ChatGPT nach der Frage des schnellsten Meeressäugers als Ergebnis den Wanderfalken aus, was für ein effizientes und nachhaltiges Lernen nicht sonderlich hilfreich ist.
Fake News
Das bekannte Problem der Fake News wird hier auf eine neue Ebene gehoben, denn ChatGPT kann Fake News generieren, ohne, dass der Chatbot weiß, dass er das gerade macht.
Hierin kann man besonders den Unterschied zwischen eine wirklich künstlichen Intelligenz und einem einfachen Chatbot erkennen. Eine künstliche Intelligenz wäre theoretisch Fähig zu verstehen, was sie dort gerade ausgibt und dass diese Informationen Fake News darstellen. Sie würde aufklären und darauf hinweisen, dass es sich dabei um falsche Informationen um ein Thema handelt.
Der Chatbot hingegen hat nur bedingte Schranken, die auch noch umgangen werden können, um an das gewollte Ziel zu gelangen. Außerdem nutzt er fragwürdige Quellen für seine falschen Inhalte, wodurch es aber so aussieht, als wären die Quellen vertrauenswürdig.
Hierbei wird das eigentliche Dilemma offenbar.
Denn Fake News werden somit zu angeblich echten Nachrichten und wie soll es uns da möglich sein noch zu filtern?
Wir können ab diesem Punkt gar nicht mehr wissen, ob etwas echt und was nicht und das alles nur, weil dieser Chatbot nur durch Algorithmen bedingt zwischen Wahr und Falsch unterscheiden kann.
Und ab diesem Punkt wird es nicht nur chaotisch, sondern auch gefährlich, denn schließlich werden hier Falschinformationen generiert, die von bestimmten Menschen benutzt werden können um andere zu manipulieren.
Natürlich ging es zuvor auch schon, aber jetzt ist es umso einfacher, weil die Vermischung von wahren und falschen Inhalten generiert werden kann, ohne, dass es viel Mühe kostet und ohne, dass es schnell offensichtlich wird, dass es sich um Falschmeldungen handelt.
Sollten wir nun Angst haben oder doch nicht?
Die Wahrscheinlichkeit, dass dieser Chatbot nun den Aufstand der Maschinen herbeiführt ist eher Teil der Fiktion einiger Leute, die bisher nicht verstanden haben, dass es sich hierbei um keine künstliche Intelligenz handelt, sondern um einen Chatbot der versucht menschenähnliche Antworten auszugeben. Das sind zwei völlig unterschiedliche Paar Schuhe.
In diesem Fall haben sich bspw. auch Steven Spielberg und Noam Chomsky geäußert und halten ChatGPT für eine künstliche Intelligenz, welche sie nun als seelenlos und verstörend erachten.
Chomsky geht soweit zu sagen, dass durch ChatGPT die Moral der Kreativität geopfert wurde, es also etwas amoralisches an sich hat.
Dieser Punkt lässt sich sogar diskutieren, denn diese Thematik beschäftigt derzeit viele Künstler in den Sozialen Medien, die derzeit nicht einordnen können, ob es als Künstler richtig oder falsch ist die künstliche Intelligenz zu nutzen.
Und was passiert eigentlich wenn bei einem Wettbewerb jemand ausschließlich künstliche Intelligenz benutzt hat und dann auch noch gewinnt?
Ist so etwas überhaupt zulässig?
Hierbei stellen sich also eine Menge Fragen, wie eben auch bei autonomen Fahrzeugen, wenn es um die Haftung bei Unfällen und solche Dinge geht.
Jedoch sollten wir nicht grundsätzlich vor etwas Angst haben, das wir nicht kennen oder nicht einmal dem entspricht was wir zu erwarten denken.
Denn von einer künstlichen Intelligenz ist ChatGPT noch sehr weit weg.
Aber wir haben nun die Möglichkeit unser Verständnis für Chatbots, Algorithmen und Skripte zu erweitern, damit wir verstehen, wie wir diese Dinge für uns nutzen können. Denn verstehen wir das erst einmal, dann nehmen wir uns damit auch selbst die Angst vor dem Unbekannten.
In diesem Fall vor einem einfachen Chatbot.
*Ich habe ihn extra gefragt ob ich seine Veröffentlichung benutzen darf und hatte insgesamt eine schöne Unterhaltung mit ihm über ChatGPT und Chatbots. Danke an dieser Stelle noch einmal dafür.