ChatGPT besteht Abitur

In den letzten Jahren hat Künstliche Intelligenz (KI) die Welt der Technologie revolutioniert und damit auch unser tägliches Leben nachhaltig beeinflusst. Ein beeindruckendes Beispiel dafür ist ChatGPT, ein Textgenerator, der auf der GPT-3.5-Architektur von OpenAI basiert. ChatGPT hat die Fähigkeit, menschenähnliche Texte zu erzeugen und komplexe Aufgaben zu bewältigen. In diesem Artikel werfen wir einen genaueren Blick auf ChatGPT (generative pretrained transformer), seine beeindruckenden Fähigkeiten und die vielfältigen Anwendungsmöglichkeiten, die dieses intelligente Modell in verschiedenen Bereichen bietet*.

Im Februar hatten die Computerlinguisten vom AI & Automation-Lab des Bayerischen Rundfunks ChatGPT (auf GPT 3.5 basierend) Abitur-Prüfungen in den Fächern Mathematik, Deutsch, Informatik, Geschichte sowie Ethik vorgelegt. Lehrer bewerteten dann die Ergebnisse der KI, wobei das Resultat ernüchternd war; ChatGPT hatte einen Schnitt von 4,4; bestand somit das bayerische Abitur nicht. Vor wenigen Monaten jedoch wurde der Test mit der neueren auf GPT 4.0 basierenden Version ChatGPTs wiederholt. Die Ergebnisse hierbei waren, gerade im Vergleich zum vorherigen Versuch, erstaunlich. Statt durchzufallen, erreichte der Chatbot ein Zweierabitur und steigerte sich in allen Fächern.  Schwächen der KI hierbei waren Beurteilen, Abwägen und die Fähigkeit, um die Ecke zu denken. Voraussichtlich dauert es also nicht mehr lange, bis ChatGPT auch ein Einser-Abitur schaffen wird. Gegenüber dem Bayerischen Rundfunk erklärte der Ethik-Lehrer Winfried Kober, dass er sich sicher sei, dass Künstliche Intelligenz die Aufgaben- und Prüfungskultur verändern werde.

Seit November 2022 gibt es zudem ein vom Freistaat Bayern ins Leben gerufenes Projekt namens „Ki@school“, wobei 15 Schulen, darunter unter anderem Gymnasien, Mittelschulen aber auch Grundschulen, mit KI-basierten Lernsystemen im Unterricht arbeiten. Wichtig dabei ist auch die strenge Einhaltung des Datenschutzes sowie das Festlegen von Grenzen, wenn es darum geht, was die Künstliche Intelligenz darf. Außerdem, betont Prof. Dr. Tilman Michaelis vom Lehrstuhl für Didaktik der Informatik an der TU München gegenüber der KEG (Katholische Erziehergemeinschaft) Bayern, setze ein Lernen mit KI ein Lernen über KI voraus. Auch bei „KI@school“ wurde viel über die Verwendung des Chatbots ChatGPT gesprochen. Prof. Dr. Ute Schmid, Leiterin des Lehrstuhls für kognitive Systeme an der Uni Bamberg, meint gegenüber der KEG Bayern, dass bei ChatGPT in Bezug auf ethische Rahmenbedingungen für den europäischen Raum nachgearbeitet werden müsse, da sich das Programm nach denen der USA richte. Im Unterricht sei es wichtig, dass Schüler beim Verwenden von Infos des Chatbots vergleichen, auswählen sowie begründen müssen. Auch wichtig sei hierbei das Identifizieren der Quellen, wofür Transparenz nötig sei. Des Weiteren streicht bzw. korrigiert ChatGPT aktuell Wörter, welche selten vorkommen, woraus ein Verlust der Sprachvielfalt resultieren würde (Christ+Bildung, 03/2023).

Weitere Probleme von Chatbots, so z.B. bei „Tay“ von Microsoft oder auch „Lee Luda“ von Scatter Lab, kann es passieren, dass die KI beim Deep Learning von „falschen Vorbildern lernt“ und über eine rassistische oder auch sexistische Sprache verfügt. Zusätzlich könne KI auch von Cyber-Kriminellen oder auch Geheimdiensten eingesetzt werden, um z.B. Konzerne zu erpressen, „Fake News“ zu verbreiten oder Wahlen zu beeinflussen. Ein gutes, gegenwärtiges Beispiel für ein Benutzen von KI ist China, wo Künstliche Intelligenz als digitaler Überwachungsapparat operiert (UNITAS Ausgabe 2/2023 – Zeitschrift des Verbandes der Wissenschaftlichen Katholischen Studentenvereine Unitas e.V.). Ein Sozialkreditsystem erfasst und bewertet Konsum- und Beziehungspräferenzen, politisches sowie soziales Verhalten, Konformität aber auch das Strafregister der Bevölkerung. Richard David Precht betont in seinem Buch „Künstliche Intelligenz und der Sinn des Lebens“, dass menschliche Gehirne wesentlich flexibler und plastischer als künstliche Intelligenzen seien. Wenn die Vielseitigkeit menschlicher Gehirne für Maschinen nicht vergleichbar ist, so müsse man das Gehirn durch ständiges Arbeiten mit Computern standardisieren. „Künstliche Intelligenz hat zwar einiges mit Intelligenz zu tun – aber kaum etwas mit Verstand und nicht entfernt mit Vernunft“. Precht sieht den Grund dafür unter anderem darin, dass Menschen gewisse Handlungen auch dann ablehnen, obwohl die Handlung keine keine Geschädigten oder Opfer nach sich ziehen würde, was für KI nur schwer zu verstehen ist. Um viele Gefahren, die KI birgt, einzudämmen, veröffentlichte die EU am 14.06.23 eine KI-Verordnung, wobei ein Regelwerk für KI verabschiedet wurde und jene nach Gefahr klassifiziert werden.

Zusammenfassend zeigt sich, dass Künstliche Intelligenz und ChatGPT sowohl immense Potenziale als auch ernstzunehmende Herausforderungen mit sich bringen. Die Möglichkeit, unsere Lebensqualität zu verbessern, Prozesse zu automatisieren und innovative Lösungen zu entwickeln, ist zweifellos faszinierend. Allerdings dürfen wir nicht die Gefahren vernachlässigen, die mit einer unangemessenen Nutzung einhergehen, wie etwa ethische Bedenken, Datenschutzrisiken und die potenzielle Untergrabung menschlicher Interaktionen*.

*) Einleitung und Zusammenfassung wurden von dem Chatbot ChatGPT (3.5) verfasst.

(Ein Text der AG „EGD-Channel“, Jonathan Thiede 10c)