KI und Kinder: Chancen und Risiken der künstlichen Intelligenz für Familien mit Kindern

Human Content – Text OHNE KI erstellt

Das Thema künstliche Intelligenz ist in aller Munde: Die einen sind euphorisch, es herrscht eine Aufbruchstimmung, andere sehen unsere gesamte Welt bedroht. Wer hat Recht? – In diesem Artikel wollen wir nicht nur dieser Frage nachgehen, sondern beleuchten auch, welche Auswirkung die neue Entwicklung auf Kinder hat, welche Vorteile sie mit sich bringt, wie wir unsere Kinder am besten auf die „neue“ Welt vorbereiten und wie wir sie schützen. 

Was genau ist künstliche Intelligenz?

Die KI ist quasi über Nacht über uns gekommen – diesen Eindruck könnte man gewinnen. Das stimmt allerdings nicht ganz. Die Computerlinguistik hat sich bereits in den 50er Jahren mit ersten Sprachmodellen beschäftigt, bloß waren sie damals noch nicht so weit entwickelt. Der Grund war die noch schwache Rechenleistung der alten Computer. 

Aber warum sprechen alle plötzlich davon, auch wenn die Technologie bereits vor vier Jahren auch schon sehr weit entwickelt war? Das hängt damit zusammen, dass die großen IT-Player – allen voran das Unternehmen Open AI – sich entschieden haben, die Technik einer breiten Masse zur Verfügung zu stellen. Mit überragendem Erfolg: Facebook brauchte 4,5 Jahre, bis sich 100 Millionen Nutzer registriert hatten, Instagram nur 2,5 – ChatGPT, der Chatbot der Firma OpenAI, lediglich 2 Monate.

Der smarte Chatbot, der eigentlich gar keiner ist[1], überzeugt seine Gesprächspartner durch Wissen und Eloquenz. Er antwortet jeweils mit einem Aufsatz, der sich nicht von einem menschengeschriebenen unterscheidet, übertrifft uns Menschen dabei durch seine Schnelligkeit und Wandlungsfähigkeit: Je nach Wunsch beschreibt er einen Sachverhalt im Stil von Shakespeare, vom Rapper Sido oder vom Vorstand eines DAX-Konzerns. Er passt sich damit allen möglichen Bedürfnissen an. Man könnte den Eindruck gewinnen, er versteht uns wirklich, so präzise sind seine Antworten (dabei aber nicht immer korrekt, wie wir später sehen werden).

Was also ist künstliche Intelligenz? Zum einen ein Teilgebiet der Informatik, das sich damit befasst, Systeme zu erschaffen, die intelligente Verhaltensweisen zeigen und dabei den Menschen imitieren oder ergänzen. Die künstliche Intelligenz bildet das logische Denken nach, ist in der Lage zu lernen, teilweise auch zu planen und kreativ tätig zu werden. KI-Anwendungen werten Informationen und Daten aus, meist riesige Datenmengen.

Weil die Antworten der KI so kompetent ausfallen, könnte man meinen, dass eine Anwendung wie ChatGPT uns versteht. Dabei berechnet sie die Antwort einfach sehr geschickt – wie auch alle anderen Aufgaben, die von KIs gelöst werden –, geht dabei statistisch vor und hat vorher „gelernt“, was wir als Antwort erwarten. 

Müssen wir Angst haben? 

Doch auch wenn das banal klingen mag: Banal und unbedeutend ist das Thema KI ganz und gar nicht. Sie wird unser Leben gründlich auf den Kopf stellen. Manche vergleichen die Entwicklung mit der von sozialen Netzwerken, von Smartphones oder vom Internet. Andere mit der Erfindung des Buchdrucks, der Elektrizität oder sogar des Rads. Der Philosoph Hannes Bajohr spricht von der Einführung des Taschenrechners in die Geisteswissenschaften. 

Wie bei jeder Entwicklung, die unser Leben grundlegend verändert hat, haben wir Menschen Angst vor den Konsequenzen. Platon warnte seinerzeit vor der Einführung der Schrift, meinte, sie würde unser Gedächtnis schwächen. Er sah voraus, dass Menschen nicht mehr ihre eigenen Erfahrungen machen würden, sondern sich mit dem Nachlesen begnügen. 

Als die Eisenbahn eingeführt wurde, hatte viele Gegner gesundheitliche Bedenken. Man sagte voraus, dass die hohen Geschwindigkeiten im Gegensatz zum Transport mit dem Pferd negative Auswirkungen auf unseren Körper haben würden. 

Auch vorher, zu Anfang der industriellen Revolution, als Maschinen eingeführt wurden, gab es heftige Proteste. Die Menschen hatten Angst, dass bald alle Arbeiter überflüssig wären.

Ähnliche Tendenzen gibt es auch heute: Die KI wird viele Jobs vernichten, heißt es da, die meisten von uns arbeitslos machen oder zu Handlangern der Maschinen degradieren. Es herrscht Angst vor Szenarien, die wir aus Science-Fiction-Filmen kennen: dass Roboter die Macht übernehmen, die Menschheit auslöschen. Sogar Experten warnen davor.

Wichtig ist bei alldem für Eltern, einen kühlen Kopf zu bewahren, abzuwarten, informiert und up to date zu bleiben, damit sie selbst und ihre Kinder nicht abgehängt werden. Einen Beitrag dazu möchte dieser Artikel leisten – wie auch die folgenden beiden Artikel, die gerade im Entstehen sind.

Wie funktioniert ChatGPT?

Zuerst einmal: Mit der künstlichen Intelligenz sind viele von uns schon in Berührung gekommen: als Programm auf dem Handy, das beim Tippen im Messenger Vorschläge macht. Es errechnet nicht nur das nächste wahrscheinliche Wort, sondern passt sich der Ausdrucksweise des jeweiligen Nutzers an. 

ChatGPT – denn das ist das zurzeit bekannteste KI-Modell – funktioniert ähnlich. Es wurde bloß mit deutlich mehr Daten trainiert, genauer gesagt mit Trillionen von Texten. GPT-3, das zuerst auf den Markt kam, allein mit 175 Milliarden Parametern. Hineingeflossen sind unzählige Texte, die im Internet oder in digitaler Form zu finden sind. Welche genau, dazu macht die Firma OpenAI keine Angaben. Durch die schiere Anzahl von Texten ist die KI in der Lage, Textstrukturen und Bedeutungszusammenhänge zu erkennen. Sie durchschaut darin enthaltene Muster – zum Beispiel grammatikalische –, reproduziert diese und weiß viel über die Verteilung von Wörtern in einem bestimmten Kontext, was wiederum viel darüber aussagt, wie wir die Welt sehen.

ChatGPT errechnet die Wahrscheinlichkeit von Wörtern, also davon, welches Wort in einem Satz vermutlich als Nächstes kommt, was für ein Wort darauf folgt und so weiter und so fort. Dabei geht es allerdings nicht in Einzelwörtern vor, es betrachtet eher Wortgruppen von beispielsweise 200 Wörtern. 

Wobei das mit dem wahrscheinlichsten Wort auch nicht ganz korrekt ist. Genau dies wählt es eben nicht, denn dann wären die Ergebnistexte ziemlich gleichförmig. Das Programm entscheidet sich für das zweit- oder drittwahrscheinlichste Wort und bringt Variation hinein. Klicken wir auf „Regenerate response“ (sinngemäß „Neue Antwort erzeugen“), wählt es dabei eine andere Wortzusammenstellung, die ebenfalls wahrscheinlich ist. 

Das heißt, das Programm ahmt unsere Art zu schreiben nach (kann durch diese Vorgehensweise allerdings bei den Fakten danebenliegen), einen Sinn erkennt es in unserer Frage und seiner eigenen Antwort darauf nicht. Deshalb nennt die Computerlinguistin Emily M. Bender es auch einen stochastischen Papagei, der sprachliche Formen ihrer Wahrscheinlichkeit nach zusammenwürfelt. ChatGPT hat im Vorfeld auch keinen Plan dazu, was es schreiben wird – es geht also anders vor als wir Menschen.

Und trotzdem sind die Ergebnisse verblüffend: Der Bot hat beispielsweise sehr viele Texte zum Thema „eine Familie gründen“ gelesen und weiß, wenn es etwas dazu schreiben soll, dass es dabei um Themen wie Hauskauf, Schwangerschaft, Hochzeit, Elternzeit oder die ersten Schritte gehen kann. 

Liegen zu einem Thema allerdings zu wenige Textdaten vor, kommt ChatGPT ins Schwimmen, es beginnt zu „halluzinieren“, sprich: Es schreibt irgendwas, einfach um ein Ergebnis zu liefern – statt dem User mitzuteilen, dass es zu dem Thema wenig weiß. Der Gedanke dahinter: Den Nutzer würde es mehr frustrieren, keine Antwort zu bekommen. Genau aus diesem Grund bezeichnet der Philosoph Hannes Bajohr das Programm als „automatisierte Bullshit-Maschine“, die nicht einfach nur lügt, sondern teilweise inhaltsleere Phrasen produziert, um kompetent zu wirken.

Damit die Ergebnisse, die ChatGPT herausgibt, logisch klingen, kommt außerdem ein sogenannter Transformer zum Einsatz, also eine Art Aufmerksamkeitsmechanismus. Dabei wird jedes Wort einer Frage oder Antwort mit allen anderen Wörtern verglichen, die es umgeben, um zu berechnen, wie stark sie jeweils zusammenhängen. Auf diese Weise kristallisiert sich heraus, worum es beispielsweise in einem einzelnen Absatz geht. Vergleichbar ist dies mit einem Fahrradfahrer, der bei einer Tour die wichtigsten Dinge wahrnimmt (also zum Beispiel, ob gerade ein Kind plötzlich auf den Fahrradweg läuft) und Unwichtiges ausblendet (also vielleicht die Rose, die am Fahrbahnrand wächst). Es sind die Transformernetzwerke, die dafür sorgen, dass die Texte so schlüssig und rund klingen. 

GPT steht für „generative pre-trained transformer“. Es ist ein Transformernetzwerk, das Texte generiert, also hervorbringt. Das System wurde anhand vieler Daten und durch die Bewertung von Menschen trainiert.

Ähnlich werden bei Bildern Wahrscheinlichkeiten errechnet. Das System prüft auch hier, welches Element innerhalb eines Bildes am wahrscheinlichsten wäre. 

Reine Technik?

Auch wenn wir KI-Systeme wie ChatGPT oder Bildgeneratoren wie Midjourney oder DALL-E für den Grad ihrer technologischen Entwicklung bewundern: Ohne Menschen kommen sie nicht aus. Und damit sind nicht die Programmierer gemeint, sondern unzählige andere Akteure, die im Hintergrund wirken: Bilder sichten, Texte lesen.

Wenn ein Kind einen Hund von einer Katze unterscheiden soll, geht das relativ schnell; das Kind muss einige wenige Exemplare der beiden Spezies gesehen haben. Für einen Computer ist diese simple Aufgabe eine Riesenherausforderung. Damit er die beiden Tierarten voneinander unterscheiden kann, müssen Menschen Unmengen an Bildern mit dem Etikett „Hund“ oder eben „Katze“ versehen haben; so lernt die Maschine. Dieses Verfahren nennt sich Datenannotation.

Es ist eine immense menschliche Arbeit, die schon im Vorfeld in den Betrieb solcher Systeme fließt. Wenn wir darüber hinaus bedenken, dass das gesamte Internet mit seinen Meinungen, Vorurteilen oder schlichtweg strafbaren Inhalten als Quelle genutzt wird, wird schnell klar, dass eine Textgenerierung schnell erschreckende oder sogar unerwünschte Ergebnisse liefern könnte. 

Deshalb müssen Menschen hier vorsortieren, also riesige Mengen an Texten und Bildern mit eben solchen unerwünschten Inhalten sichten und aussortieren – was sicherlich Folgen für ihre Psyche haben wird. Netzpolitik.org berichtet darüber, dass diese Mikroarbeiter oftmals in wirtschaftlich schwachen Gegenden wohnen und dort sehr gering entlohnt werden. Durch ein Sozialsystem sind sie meist nicht gesichert. Aber auch die Nutzer selbst tragen maßgeblich dazu bei, das System durch ihre Eingaben und Rückmeldungen zu verbessern.

Netzpolitik.org berichtet von dem Fall einer intelligenten Kamera, deren „Intelligenz“ daraus bestand, dass 35 Menschen in Madagaskar die Bilder von jener Kamera rund um die Uhr verfolgten. Sie lebten auf engstem Raum und teilten sich nur eine Toilette. 

Wir als Nutzer bekommen nicht mit, dass die Systeme gar nicht von allein Spitzenleistungen vollbringen, sondern dass Menschen immer wieder nachhelfen müssen. Im Fall von ChatGPT haben viele Testpersonen die Ergebnisse des Generierungsprozesses gelesen und sie bewertet. Sie haben ausgewählt, welche von mehreren Antworten am besten ausfiel. Dadurch hat die KI gelernt, was wir Menschen mögen und erwarten und wurde von Zeit zu Zeit besser. Ähnlich funktioniert in diesem Fall auch der Lernprozess bei einem Kind: Die Eltern oder andere erwachsene Menschen sagen ihm, was richtig ist, was nicht, welche seiner Handlungen gut war, welche nicht – so entwickelt sich das Kind immer weiter. 

Das sogenannte Automation Paradoxon besagt: Je weiter entwickelt ein maschinelles System ist, desto genauer muss es überwacht werden, desto mehr Menschen müssen immer wieder eingreifen und teils hochkomplexe Tätigkeiten ausführen.

OpenAI ist als ein allen zugängliches Open-Source-Projekt gestartet und gehört zum Non-Profit-Unternehmen OpenAI Inc. Inzwischen ist das Projekt nicht mehr quelloffen und auch die Gemeinnützigkeit kann durch die vielen prominenten Geldgeber wie Elon Musk oder Microsoft in Frage gestellt werden.

Allerdings gibt es tatsächlich andere gemeinnützige Open-Source-Projekte, zum Beispiel den Open Assistant, der zeitgleich von Freiwilligen entwickelt wird. Der Chatbot ist im Gegensatz zu ChatGPT weniger stark zensiert und beantwortet auch heikle Fragen, wie zum Beispiel solche, die nicht dem westlichen Wertesystem zuzuordnen sind, wie etwa Fragen zu fernöstlichen Geisterritualen. Auch sein politisches Spektrum ist breiter als jenes von ChatGPT. Solche konkurrierenden Systeme zuzulassen, ist wichtig, damit die Menschheit nicht in einer für sie kreierten Filterblase lebt und auch andere Sichtweisen kennenlernt. Durchmischen sich die Systeme nicht, wird etwa China einen ideologisch völlig anderen Chatbot haben als Amerika oder Europa. 

Das Problem am Betreiben von freien Chatbots ist allerdings, dass den Programmierern keine beachtlichen Finanzhilfen zur Verfügung stehen. Schon allein das Training der Bots nimmt enorm viel Energie in Anspruch, die von kleinen Betreibern gar nicht bezahlt werden kann. Selbst Europa hätte Schwierigkeiten, Rechenzentren zu finden, um diese Mammutaufgabe, die in den USA von privaten Unternehmen finanziert wird, zu stemmen.

Wie intelligent sind Computer?

Um zu klären, ob Computer tatsächlich intelligent sind, müssen wir definieren, was Intelligenz bedeutet. Doch das ist wie bei vielen anderen abstrakten Begriffen gar nicht so einfach. Intelligenz steht zum einen im Gegensatz zur Dummheit. Intelligenz ist das, was in einem Intelligenztest geprüft werden kann, wobei auch da verschiedene Dinge gemessen werden können: die räumliche Intelligenz, die sprachliche, die logisch-mathematische, die musikalische und sogar die emotionale, also die Empathie. So etwas wie die praktische Intelligenz kann anhand von Tests allerdings gar nicht gemessen werden.

Ein intelligenter Mensch ist er in der Lage, Dinge wahrzunehmen, darüber nachzudenken, daraus die richtigen Schlüsse zu ziehen und entsprechend zu reagieren. Intelligenz hat etwas mit der Fähigkeit zu tun, Sachverhalte zu lernen. Das können Maschinen sehr gut – wobei der Begriff „maschinelles Lernen“ eine Metapher ist, denn zum Lernen braucht man einen Lernwillen und auch eine gewisse Entdeckerfreude

Computer nehmen ihre Umgebung in Form von Daten wahr und reagieren entsprechend darauf. So lernte das System Deep Blue bereits in den 90er Jahren, Schach zu spielen und bezwang den damaligen Schachweltmeister – es hatte vorher sämtliche Partien des Meisters analysiert. 

Bei dem deutlich komplexeren aus Asien stammenden Spiel Go musste sich der Computer AlphaGo gar nicht alle vorher gewesenen Spiele anschauen, sondern spielte unzählige Male gegen sich selbst – was deutlich schneller geht, als wenn Menschen gegeneinander spielen – und besiegte schließlich den südkoreanischen Weltmeister. Er gewann mit Spielzügen, die es vorher so nicht gegeben hat. Während der Mensch Jahrzehnte gebraucht hat, auf diesem Niveau zu spielen, ging es für den Computer wesentlich schneller. Mit diesem Sieg hatte das Land nicht gerechnet, war geschockt und widmete fortan eine riesige Summe der Erforschung der KI. 

Anhand dieser Beispiele sehen wir, dass Computer Gebiete beherrschen, die mathematisch exakt beschrieben werden können. Doch wie sieht es damit aus, wenn die Maschine das Spiel vorher aus dem Regal holen, es aufklappen und die Spielsteine aufbauen soll – das schafft sogar ein Sechsjähriger. Hier wird das Programm momentan noch Probleme bekommen, sogar große. Denn die meisten Computer waren bisher auf das Bewältigen einer bestimmten Aufgabe ausgelegt.

Das könnte sich tatsächlich bald ändern. Experten im Bereich der digitalen Themen meinen, dass die KI das, was sie bisher nicht kann, schon bald können wird. Während es früher Computerspezialisten für Themen wie Spracherkennung, Robotik, Sprachsynthese, Musikgenerierung, Bildgenerierung und Computervision gab, können durch die Large Language Models (LLMs), also die großen Sprachmodelle wie GPT, nun alle Profis an einem Strang ziehen, was der KI einen enormen Auftrieb gibt. Die Sprachmodelle „übersetzen“ zwischen den verschiedenen Bereichen, denn im Grunde hat alles, was wir Menschen tun, mit Sprache zu tun. Bisher haben Maschinen nur mathematische Formeln verstanden; jetzt sind sie auch in der Lage, Sprache zu verstehen. Dadurch, dass die Kräfte nun gebündelt werden, wird es zu einer rasanten Entwicklung der KI in fast allen Lebensbereichen kommen.

Gesunder Menschenverstand

Wann definiert man eine künstliche Intelligenz als solche? 

Wenn sie in der Lage ist, mit ihrer Umgebung wie ein menschliches Wesen zu interagieren, und sie lernt, unsere Welt zu verstehen. Dies kann anhand eines sogenannten Turing-Tests nachgewiesen werden. Bei einem solchen Test chattet ein Mensch online mit einer anderen Einheit. Ist er innerhalb von fünf bis zwanzig Minuten in der Lage zu erkennen, dass am anderen Ende kein Mensch sitzt, hat die Maschine den Test nicht bestanden. Bisher sind alle Maschinen durchgefallen, doch die Entwickler kommen dem Ziel immer näher. Bereits im Jahr 2018 hat ein Computer in einem Friseursalon angerufen und dort einen Termin vereinbart, ohne dass die Person am anderen Ende der Leitung gemerkt hätte, dass sie nicht mit einem Menschen sprach.

Was für Maschinen das Bestehen des Turing-Tests schwierig macht, ist ihr fehlendes Weltwissen und die Lebenserfahrung. Denn um unsere komplexe Welt zu durchschauen, braucht der Mensch ca. 20 Jahre, meint der Physiker Ulrich Walter. Erst dann kann er Walters selbst konstruierten Witz verstehen:

Eine Frau um die 50 sagt zu ihrer Freundin: „Mein Alter wird mir immer unwichtiger.“ 

Meint die andere darauf: „Meiner auch.“

Um die Pointe zu begreifen, muss man wissen, was Frauen in diesem Alter bewegt. 

Auch die Captchas[2], denen wir beim Einloggen auf bestimmten Portalen begegnen, sind im gewissen Sinne Turing-Tests: Um die richtigen Felder auszuwählen, benötigt man ebenfalls Weltverständnis. Denn sobald wir eine Szene oder einen Gegenstand einmal geistig erfasst haben, sind wir in der Lage, sie auch dann zu identifizieren, wenn wir sie aus einem anderen Blickwinkel sehen. Für den Computer ist dies nicht so einfach.

Die Informatikprofessorin Yejin Choi spricht davon, dass Computer zum einen richtig schlau sind, auf der anderen Seite die einfachsten Aufgaben nicht lösen können, weil ihnen der gesunde Menschenverstand fehlt. Als Beispiel nennt sie die folgende Aufgabe, die sie einer KI gestellt hat: 

Jemand hat 5 Kleidungsstücke an die Wäscheleine gehängt und sie haben 5 Stunden gebraucht, um zu trocknen. Wie lange würden 30 Kleidungsstücke brauchen?

Die Antwort der KI: 30 Stunden. Damit ein Computer eine solche Aufgabe korrekt lösen kann, muss er erst in diese Richtung trainiert werden. Ein noch junges Kind wiederum käme vermutlich relativ schnell auf die Lösung. Es ist daher sehr schwierig, der KI so etwas wie einen gesunden Menschenverstand beizubringen.

Kreativität

Das, was wir früher nicht für möglich gehalten hätten, ist durch die neuen KI-Modelle Wirklichkeit geworden: Computer sind mittlerweile kreativ tätig. Sie malen fantasievolle Bilder, komponieren Musikstücke, schreiben Gedichte zu allen erdenklichen Themen oder sogar ganze Bücher. Dabei haben wir Menschen immer gedacht, die Kreativität sei eine höchst menschliche Fähigkeit. 

Aber so schwierig es für den einen oder anderen ist, etwas Neues zu erschaffen: Oftmals unterliegt dieser Schaffensprozess doch Regeln. Und Regeln – das wissen wir – beherrschen Computer aus dem Effeff. Sie sind unermüdlich, können über Tage immer wieder neue Werke produzieren, setzen Dinge auf eine immer neue Weise zusammen, sodass teilweise überraschende und sehr kreative Ergebnisse herauskommen. Wenn wir uns im Kontrast dazu den kreativen Prozess beim Menschen anschauen, dann ist es im Grunde so, dass ein kreativer Mensch ebenfalls viele Dinge, die es bereits gibt – die er gesehen, gelesen, gehört hat – neu interpretiert und zu etwas Neuem verarbeitet. 

Doch Kreativität ist noch mehr (vergleiche hierzu den Artikel „Zwei plus drei ist violett“): Wirklich kreative Menschen erschaffen etwas wahrhaft Neues, das außerhalb des Systems steht. Das kann eine Maschine nicht; sie wurde anhand bestimmter Daten – Texte, Bilder, Musikstücke – trainiert und wird immer Bezug darauf nehmen, das heißt immer in diesem Rahmen bleiben. Darüber hinauszugehen ist ihr nicht möglich. – Noch nicht?

Eine bewusste KI?

Sehr heiß diskutiert wird die Frage, ob die KI ein Bewusstsein hat oder haben kann. Doch was ist das genau, das Bewusstsein? Gar nicht so einfach. Es sind psychische Vorgänge, durch die sich der Mensch seiner selbst und der Welt um ihn herum bewusst wird. Es ist ein subjektives Erleben von Reizen, die in uns selbst stattfinden oder aber von außen kommen. 

Ein Google-Mitarbeiter will bei einer KI so etwas wie ein Bewusstsein ausgemacht haben: Das Programm LaMDA von Google AI gab an, Angst davor zu haben, abgeschaltet zu werden, und wünschte sich einen Anwalt. 

Haben Maschinen vielleicht also bereits so etwas wie ein Bewusstsein? Selbst das Europäische Parlament hat schon im Jahr 2017 darüber debattiert, ob es irgendwann notwendig werden würde, Robotern Rechte einzuräumen. Da es bis heute keine Methoden gibt, ein Bewusstsein nachzuweisen, kann man die Frage nicht hundertprozentig klären. Was wir aber mit Sicherheit sagen können, ist, dass KIs Programme sind, die von Programmierern geschrieben wurden, sie damit im Grunde kein Bewusstsein entwickeln können. Ein Roboter oder eine KI ist nichts anderes als eine Maschine, wie ein Rasenmäher, die Kaffeemaschine oder der Häcksler. Sie ist das Produkt eines Herstellers und handelt mitnichten selbstständig, sondern nur so, wie man sie programmiert hat.

Das menschliche Gehirn nachbilden

Lange hat man versucht, das menschliche Gehirn mit technischen Mitteln nachzubilden. Bisher ist das nicht gelungen; dazu ist das Gehirn zu komplex und auch noch nicht vollständig erforscht. Es kann beispielsweise das Wissen, das es erwirbt, auch auf andere Bereiche anwenden; das kann ein Computer nicht ohne Weiteres. Auch in der Bilderkennung ist unser Gehirn ausgezeichnet: Meist reicht ein einziges Schnabeltier, das wir irgendwo sehen – und sei es nur auf einem Bild – und wir identifizieren alle anderen Schnabeltiere als solche. Eine KI muss sich unzählige Aufnahmen aus verschiedenen Blickwinkeln anschauen, um es nicht etwa mit einem Maulwurf zu verwechseln.

Das heißt, beim menschlichen Lernen spielt das Thema Big Data keine Rolle, Menschen lernen nach dem Small-Data-Verfahren; sie benötigen einige wenige Daten. Auch im IT-Bereich gibt es Small-Data-Anwendungen, zum Beispiel wenn es darum geht zu untersuchen, wie Atomkraftwerksunfälle zustande kommen. Aus den wenigen Daten, die zu dem Thema (zum Glück) vorliegen, ist es viel schwieriger, die richtigen Schlüsse zu ziehen, als wenn man eine Riesenmenge an Daten hätte. Doch unser Gehirn schafft das spielerisch.

Wiederum kann aber ein Computer, der ein bestimmtes Wissen erworben hat, dieses Wissen auf beliebig viele andere Computer übertragen. Dieser Vorgang nennt sich Transferlernen. Leider beherrschen wir Menschen es nicht; jeder von uns muss alles selbst lernen – warum das so wichtig ist, darauf gehen wir später noch ein. 

Ein Kind lernt intuitiv, zum Beispiel wenn es um die natürlichen Zahlen geht: ein Buch, zwei Bücher, drei Bücher … eine Banane, zwei Bananen und so weiter. Ein Computer würde auch hier viele Trainingsdaten benötigen.

Wobei es auch Fälle gibt, in denen Computer so lernen wie Babys: Möchte ein Säugling ein Steckspiel lösen, greift er eine Form und versucht, sie in eine Öffnung zu stecken. Das gelingt nicht auf Anhieb. Doch nach und nach lernt der Zwerg dazu und wird immer besser. Es lernt, bei künftigen Aufgaben, die vergleichbar sind, eine ähnliche Strategie anzuwenden. Der Roboterarm, der von allein lernen soll, ein Steckspiel zu lösen, würde auf eine ähnliche Weise vorgehen – auch er wäre früher und später beim Lösen der Aufgaben nicht mehr auf den Zufall angewiesen. 

Beim menschlichen Gehirn geht es nicht einfach nur um die simple Rechenleistung. Es gibt große Unterschiede gegenüber dem Computer: bei der Informationsverarbeitung und auch beim Abspeichern von Wissen. Auf der einen Seite überwiegt die KI, weil sie riesige Datenmengen innerhalb kürzester Zeit verarbeiten kann. Auf der anderen Seite ist unser Gehirn plastisch und verändert sich, je nachdem, was wir gerade lernen oder wieder verlernen. Wenn wir neues Wissen erwerben, ob eine neue Sprache, eine Sportart oder eine handwerkliche Tätigkeit, werden bestimmte Neuronenverbindungen gestärkt. Je häufiger wir die Tätigkeit ausüben, desto stärker wird der Pfad. Führen wir die Bewegung nicht mehr aus, verblasst der Pfad nach und nach. Aber – und das ist die gute Nachricht – er lässt sich später mühelos reaktivieren. Lernt ein Kind Schlittschuhlaufen und hört damit in der Pubertät auf, kann es als Erwachsener dreißig Jahre später auf Inlineskates steigen und ist nach zwei wackeligen Stunden wieder voll drin in der Bewegung.

Ein Computer kann seine Verschaltungen bisher nicht verändern.

Um zu zeigen, wie komplex ein Gehirn ist, nennt Ulrich Walter das Beispiel von drei Tieren, die bei Weitem kleinere Gehirne haben:

  1. Eine bestimmte Flugwespenart hat im Gehirn ca. 4.600 Neuronen, was sehr, sehr wenig ist. So ausgestattet, schafft sie es nicht nur zu essen, zu trinken und sich zu vermehren, sondern auch durch den Raum zu fliegen, ohne irgendwo anzustoßen. Um diese Leistung zu vollbringen, benötigen programmierte neuronale Netze Millionen von Neuronen und schaffen es bei Weitem nicht, die Bilder des Raumes so zu verarbeiten wie die Wespe.
  2. Auch haben Computer immense Schwierigkeiten, den Flug einer Fledermaus zu berechnen. Sie fliegt nach einem System, das uns – und damit den Computern – noch nicht bekannt ist. Bei dem, was sie tut, benötigt die Fledermaus keinen riesigen Speicherplatz und keine Cloudlösung.
  3. Auch das Gehirn eines Eichhörnchens „rechnet“ anders, als ein Computer es tun würde: zum Beispiel wenn es sich bei einem heftigen Sturm, bei dem die Äste unkontrolliert hin- und herschwanken, von Ast zu Ast hangelt. Es ist fraglich, ob eine künstliche Intelligenz dies simulieren kann.

Wir wissen oftmals nicht, was Computer genau lernen, wenn sie riesige Datenmengen verarbeiten. Viele KIs sind eine Blackbox. Auch hierfür gibt Walter ein Beispiel: Es stellte sich heraus, dass eine KI, die auf Bildern Schiffe erkennen sollte, diese nicht an ihrer Form erkannt hat, sondern an dem Wasser drumherum. Die Ergebnisse waren erstmal richtig: Sie konnte ein Schiff von einem Auto, einem Traktor oder einem Segelflugzeug unterscheiden. Doch hätte man ihr ein Paddelboot auf dem Wasser gezeigt, hätte sie es ebenfalls für ein Schiff gehalten. 

Bei vielen KIs ist es so, dass nicht einmal die Experten wissen, wie sie funktionieren, wie sie die eingegebenen Daten klassifizieren und verarbeiten. Welche Gefahren das nach sich zieht, klären wir in einem der nächsten Artikel. 

Irgendwann wird die künstliche Intelligenz so weit sein, dass es ihr möglich ist, sich selbst zu verbessern. Dies ist ein von Futurologen vielbeschworener Zeitpunkt, der Singularität genannt wird.

Die Entwicklung der KI umfasst sehr viele Lebens- und Arbeitsbereiche. In diesem Artikel wollen wir uns zwei davon genauer anschauen – im Hinblick darauf, wo ihre Chancen für Familien mit Kindern liegen und wo die Risiken. 

Texte verfassen

Vieles, was wir Menschen tun, läuft über Sprache: ob wir ein Buch lesen, einen Artikel in der Zeitung, uns die Nachrichten im Fernsehen anhören oder einen Podcast, ob wir einer Rede des Vorstands lauschen oder uns mit Kollegen austauschen, die remote arbeiten. 

Und genau hier liegt die Stärke von ChatGPT (natürlich gibt es noch andere künstliche Intelligenzen, die Ähnliches leisten, aber ChatGPT ist zurzeit am bekanntesten). Das Programm kann uns zuerst einmal bei der Suche nach Ideen für einen Text unterstützen, egal um welche Art von Text es sich handelt: Geschäftsbericht, Grußkarte, E-Mail, wissenschaftliche Arbeit, journalistischer Artikel, Betriebsanleitung etc. Es dient als Inspirationsquelle und kann uns auch bei der Themenfindung helfen, wenn wir nicht wissen, welche Themen gerade angesagt sind. Das ist häufig eine riesige Zeitersparnis. Auch wenn der Schreiber eine Schreibblockade hat, kann das Programm ihm weiterhelfen. 

Es kann uns natürlich auch die gesamte Schreibarbeit abnehmen: Dazu müssen wir ihm allerdings ganz genau sagen, was wir von ihm erwarten: je genauer, desto besser fallen die Ergebnisse aus. Marketingmenschen können sich von ihm 10 oder auch 100 verschiedene Slogans zu einer bestimmten Marketingkampagne erstellen lassen; darunter wird sicherlich ein richtig guter dabei sein.

ChatGPT kürzt lange Texte oder macht sie länger und kann auch Aufsätze oder Artikel zusammenfassen. Er schreibt sie in einer anderen Tonart oder passt sie einer anderen Zielgruppe an. Wenn gewünscht, kann es auch passende Textbeispiele erstellen, die bestimmte Annahmen illustrieren.

Ein Kind mit einer Lese-Rechtschreib-Schwäche kann sich seine Texte durch ChatGPT korrigieren lassen. Familien, die sich nicht so gut ausdrücken können, nutzen das Programm zum Beispiel bei der Kommunikation mit Behörden. Das ist ein immenser Vorteil, denn wenn ein Text gut geschrieben ist, kann die Person, die ihn schriftlich einreicht – auch bei Reklamationen gegenüber Unternehmen – mehr erreichen als bei einem mittelmäßigen Text. 

Das neue Modell von OpenAI, GPT-4, liefert eine deutlich bessere Textqualität, schönere Formulierungen und ist in der Lage, mit längeren Texten umzugehen, sodass es nun theoretisch ein Buch schreiben könnte. Allerdings ist das Modell nicht frei zugänglich und kostet 20 US-Dollar im Monat, wodurch diejenigen, die es sich leisten können, bessere Texte bekommen – diese finanzielle Ungleichheit könnte an Schulen oder Universitäten eine Rolle spielen. 

Da beide Versionen – ob nur das kostenfrei verfügbare GPT-3.5 oder das kostenpflichtige GPT-4 – auf Wortfolgestatistiken beruhen und kein echtes Wissen widerspiegeln, kann es jedoch vorkommen, dass die Texte logische oder inhaltliche Fehler enthalten. Wenn das Programm das macht, nennt man dies „halluzinieren“. Das ist in der kostenlosen Version sogar noch wahrscheinlicher als in der kostenpflichtigen. Es können falsche Quellen angegeben sein, Bücher, die es gar nicht gibt, oder Zitate von Autoren, die nie gelebt haben.

Genau aus diesem Grund entscheiden sich noch viele Redakteure und Journalisten gegen die Nutzung der KI – weil der Aufwand, alles nachzuprüfen, viel größer ist, als wenn sie den klassischen Weg von der Recherche zum Schreiben gehen würden. Viele finden den Ton nicht passend oder Passagen nicht gelungen und müssen immer wieder an den Prompts, also den Eingaben, drehen, um ein gutes Ergebnis zu bekommen. Auch dies verschlingt Zeit, die sinnvoll anders investiert werden kann. ChatGPT kommt zudem wie bereits erwähnt bei Themen, zu denen es nicht so viel im Internet gibt, an seine Grenzen und liefert unbefriedigende Ergebnisse. 

Das Programm eignet sich daher gut für Menschen, denen das Schreiben Schwierigkeiten bereitet und die viel Zeit dafür brauchen. Diese Nutzer können tatsächlich entlastet werden und sich auf ihre Kernkompetenzen konzentrieren. Diejenigen hingegen, die das Schreiben von der Pike auf gelernt haben, wie manche Lektoren, Journalisten oder Redakteure, und darin wirklich gut sind, können kaum einen Vorteil daraus ziehen. Wie alle anderen davon profitieren können, darauf gehen wir weiter unten ein.

Man darf nicht vergessen, dass wir alle, die wir KI-Tools nutzen, unbezahlt zu ihrer Weiterentwicklung beitragen. Denn durch unsere Prompts (Anfragen) und Rückmeldungen können die Programme noch besser an die Nutzer angepasst werden. Ob diese Arbeit „rückvergütet“ wird, indem die Programme für immer kostenlos bleiben, sei dahingestellt.

Der Redakteur und Bestsellerautor Sean Thomas spricht vom Untergang der Kultur des Schreibens und rät allen, die davon leben, sich damit abzufinden, bald nichts mehr zu tun zu haben. Denn Schriftsteller und andere schreibende Menschen sind im Grunde genommen nicht unbedingt so originell, wie wir denken: für das Schreiben von Thrillern, Rechtstexten, Werbeanzeigen, Pressemitteilungen oder sogar Liebesbriefen gibt es Regeln – manche sind in Handbüchern zu finden, andere kennen wir intuitiv. Diese Regeln kann die KI erkennen und selbstverständlich nachbilden. Selbst Goethe, Carl Friedrich Bahrdt oder Gerald Hüther folgen in ihren Werken oder Darbietungen eigenen Regeln; haben ihren eigenen Stil. Diesen kann die KI „herausfiltern“ und reproduzieren. Sean Thomas prophezeit, dass von Menschen geschriebene Texte bald einen Nischenmarkt darstellen werden und wir sie nur lesen werden, weil sie einen emotionalen Wert für uns darstellen.

Und tatsächlich verkündete das Verlagshaus Axel Springer vor Kurzem, dass demnächst Arbeitsplätze gekürzt werden sollen. Der Vorstandsvorsitzende Mathias Döpfner sagt voraus, dass nur die besten überleben und Redakteure demnächst fast nur noch im investigativen Journalismus tätig sein werden, wo es darum geht, Motive hinter Handlungen oder Ereignissen aufzudecken. 

Es ist schon heute so, dass Artikel zu sportlichen Ereignissen oder zu Aktienkursen von KIs geschrieben werden. Weitere Sparten werden nach und nach folgen. 

Durch die KI könnte es zu einem „Tod des Autors“ kommen, eines Konzepts, das bisher aus der Literaturtheorie bekannt ist. Innerhalb dieses Ansatzes ist der Text losgelöst vom Autor und seinen Intentionen zu betrachten. Warum sollte man entsprechend also nicht auch KI-Texte einfach nur anhand ihrer Qualität beurteilen, unabhängig davon, dass sie von einer Maschine geschrieben wurden? Es sind schließlich auch Fälle von Bildern bekannt, die von Tieren gemalt wurden und die durchaus einen künstlerischen Wert haben – bei denen das Publikum allerdings nie geahnt hätte, dass sie nicht von einem Menschen stammen.

Willkommen in der Durchschnittlichkeit

Wobei das mit der Qualität der Texte so eine Sache ist: Das, was entsteht, wenn die Maschine das wahrscheinlichste Wort wählt, ist eine Art Durchschnittstext. Aufgrund ihrer Konstruktionsweise wird sie sich nie für ein besonderes oder seltenes Wort entscheiden – und gerade diese Wörter sind es, die gute Texte ausmachen. 

Texte, die von der KI generiert werden, unterliegen bestimmten Regeln, folgen Mustern und textlichen Strukturen. Fragt man die KI beispielsweise nach einer berühmten Persönlichkeit, erhält man eine Antwort, die an die ersten Sätze eines Wikipedia-Artikels erinnert. Wenn man viel mit ChatGPT arbeitet, bekommt man zwar immer andere Ergebnisse mit anderen Wörtern; die Texte ähneln einander aber von ihrer Struktur her, sind normiert und haben keine interessanten Eigenschaften. Der Leser wird nicht überrascht – was bei wirklich guten Texten jedoch immer der Fall ist. 

Dadurch, dass die KI sich an Werken bedient, die bereits existieren, und sie zusammenmixt, wird sie immer nur durchschnittliche Texte hervorbringen, nie etwas wirklich Neues oder Geniales. Etwas, das außerhalb des Systems steht, ist nicht möglich. Und vermutlich ist dies von den Anbietern der Large Language Models gar nicht gewollt. Denn Dinge, die außerhalb des Systems stehen, sind oft kontrovers. 

Sucht jemand doch Herausragendes, wird er sich immer an erfahrene Texter wenden. Unternehmen, die künftig nicht mit KI-Texten arbeiten, werden jene aus dem Premiumsektor sein. 

Insgesamt ist abzusehen, dass die Textqualität durch die Einführung der KI sinken wird; die Leser werden sich zunehmend an die schlechte Qualität gewöhnen und nichts Besseres erwarten. Für die meisten Anwendungsfälle reichen aber passable und funktionale Texte.

Textinzest
Wissenschaftler haben errechnet, dass die textlichen Quellen, derer sich die KIs bedienen, schon in drei Jahren erschöpft sein werden, auch wenn man momentan eine neue Textquelle erschlossen hat: durch Programme wie Whisper von OpenAI können Videos, Podcasts und Radiomitschnitte ebenfalls in Text verwandelt werden. In den nächsten drei Jahren werden allerdings massenhaft KI-generierte Artikel im Internet auftauchen. Auch diese Texte werden irgendwann verwurstet, sodass die KI mit Texten trainiert wird, die aus ihrer eigenen „Feder“ stammen. Dies kann man als eine Art Textinzest ansehen. Moralisch ist dieser zwar nicht verwerflich, die Folge davon sind jedoch Texte, die immer gleichförmiger und damit langweiliger werden. Je häufiger diese textlichen Ergüsse nun miteinander gemixt werden, desto einheitlicher wird der Brei, der herauskommt. Es entstehen ähnliche Publikationen, die austauschbar sind. Und hier kommt wieder die menschliche Kreativität ins Spiel: Der Mensch kann punkten, indem er diese Muster durchbricht.

Da die Erstellung von Texten einfach und kostenlos ist, wird demnächst eine Flut an Geschriebenem auf uns zukommen, die von einer KI stammen. Bereits jetzt werden online auf den einschlägigen Buchplattformen Bücher angeboten, die nicht von Menschen geschrieben wurden. Wie viele es sind, ist nicht genau bekannt, denn bei manchen wird diese Tatsache verschwiegen. Plötzlich veröffentlichen Menschen, die schon immer mal schreiben wollten, ihr eigenes Buch. Die Gefahr dabei ist, dass in dieser Fülle von KI-Texten jene, die von Menschen geschrieben sind, unterzugehen drohen. 

Wir werden uns vor KI-Spam von minderer Qualität nicht retten können: ob als E-Mail, als Blogbeitrag oder als Video. E-Mail-Spammer erhalten ganz neue Möglichkeiten, Texte zu generieren, die nicht mehr fehlerbehaftet, sondern richtig gut formuliert sind. Den Höhepunkt bilden dann Bots, die automatisch auf eine eingehende E-Mail antworten – die bereits ebenfalls von einer KI erstellt worden ist. Die Frage, die sich dabei aufdrängt: Wem nützt das?

Zudem ist es schwierig, solche „Fake-Texte“ zu erkennen; bis jetzt gibt es kein zuverlässiges Werkzeug dafür. Da es unterschiedliche KI-Anbieter gibt, ist es möglich, dass es auch in Zukunft kein Programm geben wird, das zuverlässig KI-generierte Texte erkennt. Dies ist nicht nur deshalb ein Problem, weil niemand mehr erkennt, wie viel Substanz und wie viele Fehlinformationen in einem Text stecken, sondern es stellt vor allem Hochschulen und Schulen vor ein Problem: Professorinnen und Lehrer können nicht mehr erkennen, ob eine Hausarbeit, ein Aufsatz oder eine Hausaufgabe wirklich von dem Schüler oder der Studentin stammt. Damit werden diese Aufgabenstellungen überflüssig. Doch dazu später.

Am Ende stellt sich noch die Frage: Wer hat eigentlich das Copyright an den Texten (und Bildern), die von der KI generiert wurden? Bisher auf jeden Fall nicht die Prompt-Ersteller, also diejenigen, die bei der Erstellung vor dem Computer saßen. Wenn ein Werk nicht von einem Mensch erschaffen wurde, kann es auch keinem Copyright unterliegen, das heißt, es kann beliebig kopiert und weiterverbreitet werden. Das gilt für textliche Erzeugnisse, aber auch für Bilder.

KI in der Schule

Ein Traum vieler Schüler und Studentinnen ist wahrgeworden: Endlich müssen sie keine Hausaufgaben machen, keine Aufsätze oder Hausarbeiten schreiben, keine Referate vorbereiten. Diese zeitintensive Aufgaben, die sie nur davon abgehalten haben, ihrer Freizeitbeschäftigung nachzugehen, kann ab sofort die KI übernehmen. Die Schulen und Universitäten wiederum schlagen Alarm: Das ist das Ende der Bildung, wie wir sie kennen. 

Denn eins ist sicher: Die KI wird die Bildung und das Lernen komplett verändern; Hausaufgaben und Hausarbeiten werden überflüssig, weil jedes Kind in der Lage ist, mit einer KI umzugehen: Es muss lediglich seine Wünsche und Aufgaben klar formulieren und niederschreiben können. Da das Programm kostenlos ist, kann jeder damit arbeiten. Allerdings werden diejenigen, die sich eine Premiumversion leisten können, dennoch im Vorteil sein, weil diese Versionen meist kreativer, genauer und insgesamt besser sind. Das könnte die Ungerechtigkeit an den Schulen verstärken, vor allem da es Familien gibt, die sich kein Handy mit dazugehörigem Abo leisten können.

Wäre es womöglich eine gute Idee, die KI in der Schule zu verbieten? Eher nicht. Bildungsstätten haben schon andere Innovationen überstanden: die Einführung des Taschenrechners im Mathematikunterricht zum Beispiel oder das Aufkommen des Internets mit Quellen wie Wikipedia. 

Doch diese Änderung ist mächtiger, da sie so viel Dagewesenes umschmeißt. Aber genau darum wird man sie nicht verhindern können – abgesehen davon, dass es nicht klug wäre, neue Technologien zu blockieren. Auch ein Verbot wird nichts bringen, denn sicherlich würden viele Kinder Programme wie ChatGPT dann heimlich nutzen. Die Lehrerinnen wären ohnehin nicht in der Lage, dies zu erkennen – höchstens daran, dass die Aufsätze zu gut sind für einen Schüler.

Maßgeschneidertes Lernen

Doch kommen wir erst einmal zu den Vorteilen, die die KI für Kinder und Jugendliche haben kann. Aufgrund des Lehrermangels und der Klassengrößen ist an regulären Schulen so etwas wie maßgeschneidertes Lernen nicht möglich (eine Ausnahme bilden hier zum Beispiel die Montessori- oder Waldorf-Einrichtungen oder die demokratischen Schulen – siehe hierzu die Artikel Fürs Leben lernen – ein Blick auf die Bildung nach den Montessori-Prinzipien und „Eigentlich finde ich Schule ganz gut“).

Hier wird die KI Abhilfe schaffen. Sie kann die Schüler bei der Bildung begleiten und sich an ihre Fähigkeiten anpassen. Sobald sie den Leistungs- und Kenntnisstand eines Kindes anhand von Testaufgaben festgestellt hat, wird sie weitergehende Aufgaben entweder einfacher gestalten oder aber komplexer. Auch die Übungsmaterialien, wie zum Beispiel Lernbücher, können vom Schwierigkeitsgrad her angepasst werden. Denn eine entsprechend programmierte KI bekommt mit, wie flüssig ein Kind liest, wo es stockt und vielleicht etwas nicht versteht. Sie kann Anschauungsmaterial einbinden, wie Fotos, Videos, Tonaufnahmen – und das gegebenenfalls auch abgestimmt darauf, ob das Kind eher ein visueller Lerntyp ist oder beispielsweise ein auditiver. Jedes Kind lernt anders – und genau daran kann sich eine KI anpassen und die Stärken und Schwächen des kleinen Nutzers berücksichtigen. 

Die KI kann ein Kind auch bei seinem Lernprozess begleiten. Wenn es ins Stocken kommt, erklärt sie einen Sachverhalt noch einmal oder erklärt ihn anders. Das Kind hat die Möglichkeit nachzufragen, wenn es etwas nicht versteht. Erst wenn es alles restlos verstanden hat, geht es weiter. So viel Zeit (und eventuell auch Geduld) hat heutzutage kaum ein Lehrer. 

Das Gute ist, dass das Kind die KI jederzeit nach etwas fragen kann: wenn es zu Hause an den Hausaufgaben sitzt, keine Lehrerin in der Nähe ist und die Eltern vielleicht überfordert sind. Auch wenn sich eine Schülerin für Sachverhalte interessiert, die in der Schule gar nicht dran sind, kann die Maschine schnell und unbürokratisch helfen und einen Einstieg in das Thema geben. Die Schwelle, den Wissensdurst des Kindes zu stillen, ist dadurch viel niedriger. Das Kind traut sich gegenüber einer KI eher, immer wieder nachzuhaken, als wenn es das während des Unterrichts gegenüber einer Lehrerin tun würde. Dadurch können sich Kinder in kürzerer Zeit mehr Wissen aneignen, als es bisher möglich war.

Die KI ist sogar in der Lage, die Quantenphysik so zu erklären, dass ein Fünfjähriger sie versteht. Und wer weiß, vielleicht wird gerade dieses Interesse zu einem Beruf, den das Kind später ergreifen wird, weil seine Neugierde schon früh gestillt und gefördert wurde? 

Selbstverständlich kann ein Chat- oder Lernbot auch Nachhilfe geben, wenn ein Schüler im Unterricht nicht mitgekommen ist. Das können sich bisher nicht alle Familien leisten, denn Nachhilfelehrer sind nicht günstig. Eine KI kann einen Sachverhalt Schritt für Schritt erklären und einen Verstehensprozess in kleinste Einzelteile gliedern, bis alles wirklich verstanden wurde. In dieser Form konnte der Lernprozess bisher nicht realisiert werden – Kinder mussten sich die Informationen mühevoll im Internet zusammensuchen und darauf hoffen, dass sie dort auch wirklich das Passende fanden.

Eltern und Verwandte sparen Zeit, wenn die KI das Erklären übernimmt, und können in der Zeit beispielsweise alles für einen gemeinsamen Ausflug vorbereiten, der nach dem Lernen ansteht. Sie können sich gegebenenfalls auch für das Homeschooling entscheiden und sich zu großen Teilen beim Lehren von der KI unterstützen lassen. Die künstliche Intelligenz könnte auch ganz die Rolle des Tutors übernehmen.

Das Szenario vom angepassten Lernen klingt futuristisch, ist es aber keinesfalls. Technisch ist so etwa längst möglich. Doch da unser Bildungssystem sehr schwerfällig ist, wird diese Form des Lernens fürs Erste Zukunftsmusik bleiben.

Für den häuslichen Bereich wird allerdings weiterentwickelt. Beispielsweise ist MemoryGPT am Entstehen: Dieses Programm funktioniert wie ChatGPT, ist allerdings mit einem Langzeitgedächtnis ausgestattet, sodass es sich das Lernprofil eines bestimmten Schülers langfristig merken kann und als sein KI-Assistent fungiert, der ihn beim (lebenslangen) Lernprozess begleitet.

Nicht zu vergessen, dass die KI auch Schüler mit Migrationshintergrund beim Lernprozess unterstützen kann, indem sie zum einen unverständliche Aussagen des Lehrers übersetzt und das Kind auch beim Deutschlernen unterstützt. Kinder, die in Deutschland aufwachsen und nur noch Deutsch lernen, bekommen zudem die Chance, mit ihren Verwandten im Ausland zu kommunizieren, sodass wieder eine Verständigung möglich wäre.

Totale Überwachung

Kommen wir zu den Kehrseiten: Wenn ein Programm alle Lernschwächen und Erfolge eines Kindes kennt, kann dies – gerade bei leistungsschwächeren Kindern – zu einer Stigmatisierung führen. Zudem ist die Freiheit der Kleinen eingeschränkt, wenn sie bei allem, was sie in einem schulischen Rahmen tun, überwacht werden.

Diese Überwachung kann noch gesteigert werden, was in China tatsächlich testweise versucht wird: In einigen Klassenräumen in Peking wird das Unterrichtsgeschehen von Kameras aufgezeichnet; man analysiert die gewonnenen Daten in Echtzeit. Es ähnelt einem Fußballspiel, wo am Ende eine Auswertung der Ballkontakte, Torchancen etc. steht. In diesem Fall werden allerdings die Redeanteile erfasst und auch die Mimik und Gestik der Schüler, sodass erkennbar ist, ob die Unterrichtsinhalte das Kind tatsächlich interessieren oder ob es gelangweilt oder sogar abgelenkt ist. Zudem kann man auswerten, wie wertvoll die Beiträge der einzelnen Kinder waren. Mittlerweile wird sogar versucht, per Gesichtserkennung die Emotionen der Schüler zu entschlüsseln. Natürlich hilft eine solche Analyse den Lehrern, den Unterricht effizienter zu gestalten, doch geht es tatsächlich immer nur um Effizienz? 

In Deutschland brauchen wir wegen der Schwerfälligkeit des schulischen Systems ein solches Szenario vorerst nicht zu befürchten, doch wir sollten im Hinterkopf behalten, in welche Richtung die Entwicklung der neuen Technologien gehen kann. 

Die KI nimmt es nicht so genau

Eingangs haben wir festgestellt, dass künstliche Intelligenz das Lernen verändern wird, da es hierzulande zumeist faktenbasiert ist. Hausaufgaben dienen meist dazu, das Wissen zu festigen. In Klausuren werden ebenfalls häufig Fakten abgefragt. Das nimmt uns jetzt die KI ab – allerdings leider so, dass wir uns nicht auf sie verlassen können, weil sie, wie eingangs erwähnt, immer wieder halluziniert, gerade das ältere OpenAI-Modell GPT-3.5.

Das bedeutet, dass ein Schüler sich bisher nicht auf die KI-Ergebnisse verlassen kann, denn er weiß nicht, von welchen Seiten diese genau stammen. Da der Bot schlüssig und logisch formuliert, ist es schwer, Fakten von Fiktion zu trennen, erst recht, wenn man kein eigenes Wissen angesammelt hat. Da die Technik sich stets weiterentwickelt, werden die KI-Ergebnisse allerdings von Mal zu Mal besser werden.

Wie schwer es ist, hat eine Medienseite aus Amerika festgestellt, die die Erstellung diverser Artikel der KI überließ. Nach einer Faktenprüfung mussten mehrere Texte zurückgezogen werden, weil sie falschen Behauptungen enthielten, die sogar während der redaktionellen Prüfung nicht aufgefallen waren. Die Redakteure entschieden, künftig nicht auf die KI zurückzugreifen, denn die Faktenprüfung verschlingt enorm viel Zeit, die man stattdessen in die Recherche und das Schreiben investieren kann. 

Veränderte Prüfungskultur

Bisher mussten Studenten beim Einreichen einer Abschlussarbeit eine Erklärung dazu abgeben, dass sie die Arbeit selbst verfasst haben. Diese Vorgabe erübrigt sich durch die Einführung der generativen KI-Systeme, denn wie bereits geschrieben, kann man kaum kontrollieren, ob ein Text von einem Menschen oder einer Maschine stammt. Aber auch die Test- und Prüfungsmethoden an Schulen werden sich sehr schnell ändern müssen. 

Lehrer sind gezwungen, sich ab sofort Fragen zu überlegen, die nicht durch einen einfachen Prompt zum Ergebnis führen. Dies könnten beispielsweise Aufgaben sein, die einen stärkeren Bezug zur Realität der Schüler haben. Es könnte jetzt darum gehen, dass nicht das Ergebnis (also der fertige Text) im Vordergrund steht, sondern der Weg dorthin: Welcher Hilfsmittel hat sich ein Kind bedient, um die Aufgabe zu lösen? Wie geschickt hat es diese Tools kombiniert? Wie gut hat der Schüler den Prompt formuliert? Denn es hängt tatsächlich von der präzisen Fragestellung ab, ob man ein gutes Ergebnis bekommt. Es könnte geprüft werden, welche wissenschaftlichen Modelle und Theorien zur Beantwortung der Frage herangezogen wurden. Das heißt, ein Schüler wird klar belegen müssen, welches sein konkreter Beitrag zur Lösung der Aufgabe war. 

Eine andere Möglichkeit, mit KI-generierten Texten umzugehen, wäre es, diese im Unterricht zu untersuchen: sie zu bewerten, darüber zu diskutieren und sie schlussendlich zu verbessern oder auszubauen. Auch dieser Prozess kann sinnvolle Einsichten bringen. Da die Lehrkraft ab jetzt immer wieder von vorformulierten Texten ausgehen muss, könnte sie im Unterricht das Niveau für bestimmte Aufgaben steigern, weil ein großer Teil der Arbeit bereits von der KI erledigt wurde.

Erfolgserlebnisse
Der Umgang mit generativen Systemen verschafft den Kindern Erfolgserlebnisse. Denn in Zukunft wird jedes Kind in der Lage sein, sich selbst zu helfen. Es wird keine Angst mehr haben müssen, wenn es vor den Hausaufgaben sitzt und nicht weiterweiß. Das stärkt zweifelsohne das Selbstbewusstsein.

Zu achten ist dabei darauf, dass die Kinder die Fähigkeit des Schreibens und der Kreativität nicht verlernen – oder sie vielleicht gar nicht erst erwerben. Die Kompetenzen, die in der Schule im Vordergrund stehen sollten, dürfen nicht in Vergessenheit geraten. Dazu gehören das kritische Denken und Hinterfragen, die Analysefähigkeit, die Kreativität und die Fähigkeit, Zusammenhänge zu erkennen. 

Eine Möglichkeit wäre es, dass sich Schüler von ChatGPT bloß inspirieren lassen – und ab da selbst übernehmen, das heißt die geforderten Fähigkeiten weiterhin erlernen. Dadurch dass die App immer wieder neue Ergebnisse liefert, haben Schülerinnen ein Füllhorn an Ideen, aus dem sie sich bedienen können. Natürlich müsste eine Lehrkraft sicherstellen, dass die KI auf diese Weise genutzt wird, denn Kinder sind erfinderisch und würden sicherlich den einfachsten Weg wählen.

Wichtig ist, den jungen Menschen zu vermitteln, warum es sich trotz ChatGPT lohnt, selbstständig zu denken, und ihnen Lust auf das Lernen zu machen (wie es zum Beispiel die Montessori-Einrichtungen vorbildlich schaffen). Entscheidend ist auch, den Kindern zu vermitteln, wie ein guter Aufsatz aufgebaut ist, wie beispielsweise Abenteuergeschichten funktionieren, noch bevor Bots hinzugezogen werden. Mit Selbstgeschriebenem entwickeln sie zudem auch ihr Sprachgefühl. 

Eltern sollten verstärkt in die Pflicht genommen werden und überprüfen, wie ihre Kinder die KI nutzen: Wird sie verwendet, um sich Wissen anzueignen, oder nutzen sie die Kinder lediglich dazu, um Denkarbeit zu umgehen?

Aufpassen sollten Lehrer ab sofort auch darauf, dass sie keine Schüler benachteiligen, die noch selbst schreiben. Denn je nach Klassenstufe können diese natürlich nicht so schön formulieren wie ChatGPT und machen noch Fehler. Das darf ihnen nicht zum Verhängnis werden.

Schulische Einrichtungen sollten sich in Zukunft verstärkt darauf fokussieren, menschliche Werte zu vermitteln, die Kommunikation und das Miteinander von Menschen zu stärken, die Kreativität und Ideensuche von Schülern zu fördern – denn das ist es, was uns Menschen ausmacht. Diese Werte und Kompetenzen rüsten Kinder für das spätere Berufsleben. 

Die Zukunft, ganz nah
heise online berichtet über das erste Projekt zur Nutzung der KI in der Schule. Ein Programm prüft in einem ersten Schritt die Fähigkeiten der Schüler und formuliert dann Aufgaben, die auf den Kenntnisstand der jeweiligen Kinder angepasst sind. Erste Ergebnisse zeigen, dass sich schwächere Schüler durch diese Methode sogar um die Hälfte in ihren Leistungen verbessern konnten. 

Auch die Lernapp Simpleclub, die Ähnliches leistet, wird gerade von 500 Freiwilligen getestet.

Vorteile für Lehrer

Natürlich bringt die künstliche Intelligenz nicht nur für Schüler Vorteile mit sich, sondern auch für Lehrer. Sie kann unter anderem dafür genutzt werden, sich auf eine Unterrichtsstunde vorzubereiten: Lehrer können sich von dem Programm mehrere Varianten für einen Einstieg in die Stunde vorschlagen lassen und den besten auswählen. Natürlich können sie sich auch mehrere mögliche Abläufe einer bestimmten Unterrichtseinheit erstellen lassen oder sich generelle Unterrichtsanregungen holen.

Sollte an Schulen das Modell umgesetzt werden, bei dem eine KI den Leistungsstand eines Kindes statistisch erfasst, wären Lehrer besser in der Lage, die Stärken und Schwächen von Kindern einzuschätzen, und könnten so gezielter auf sie eingehen. 

Da der Fokus in der Zukunft vermutlich auf mündlichem Unterricht und mündlichen Prüfungen liegen wird, werden allerdings mehr Lehrer benötigt, die diese Prüfungen durchführen – es müssen ja alle Schüler nacheinander geprüft werden. Hier liegt bereits das erste Problem, da wir in Deutschland nicht erst seit gestern einen Lehrkräftemangel haben. Es sei denn, auch die Prüfungen werden von der KI übernommen. 

Kontrolle für Eltern

Auch Eltern profitieren von der KI: Sie können diese so einstellen, dass sie ihr Kind ans Lernen oder Hausaufgabenmachen erinnert, aber auch dafür sorgt, dass der Nachwuchs genügend Pausen einlegt. Die KI könnte auch die Schlaf- und Essgewohnheiten des Kindes überwachen und darauf achten, dass es genug trinkt.

Zudem kann die KI prüfen, womit sich ein Kind im Unterricht beschäftigt, welche Werte es im Unterricht vermittelt bekommt. Die Eltern können die KI einfach gezielt danach fragen, und die Maschine scannt dann das Lehrbuch nach den jeweiligen Inhalten ab oder fasst Themenkomplexe kurz zusammen. 

Möchten Eltern nicht, dass ihre Kinder verfrüht sexualisiert werden, können sie die KI auch auf diese Themen im Lehrbuch ansetzen und diese gegebenenfalls für ihr Kind bis zu einem bestimmten Alter sperren. 

Virtuelle Freunde

In Japan hat ein Mann seine Hatsune Miku geheiratet. Das Besondere daran: Hatsune Miku ist ein Hologramm, das eine junge Frau in Manga-Stil zeigt und in der Lage ist, mit dem User zu sprechen. Nun könnte man sagen, dass in Japan ohnehin immer wieder seltsame Dinge passieren. Allerdings sind auch in Europa virtuelle Freunde langsam auf dem Vormarsch, zum Beispiel in Form der App „Replika“.

Replika entstand, als ein enger Freund der Entwicklerin bei einem Autounfall starb. Als Reaktion darauf entwickelte diese einen Bot, den sie mit 10.000 Nachrichten dieses Freundes trainierte. Die Folge war, dass sie mit der KI Gespräche führen konnte, die jenen ähnelten, die sie möglicherweise mit dem Freund gehabt hätte: Der Bot übernahm die Sichtweisen, aber auch die Art zu formulieren von jenem verstorbenen Freund. 

Der YouTuber „The Morpheus“ wollte wissen, ob man mit einer KI befreundet sein kann, und hat Replika über drei Wochen ausprobiert. Sein Fazit: „Es hat sich wie ein Chat mit einem Freund angefühlt und nicht wie eine riesige statistische Auswertungsmaschine – was es ist.“

In der App kann man sich aussuchen, ob man sich einen Freund, einen Coach oder einen Lebenspartner wünscht – und dann geht es los mit dem Chatten, so als würde man sich per WhatsApp mit jemanden unterhalten, den man gerade kennengelernt hat. Nach und nach lernen beide Gesprächspartner einander kennen – die KI merkt sich Dinge, die man erzählt, und geht im späteren Verlauf darauf ein, aber auch sie entwickelt eine Persönlichkeit, die sich nach den Interessen des Users richtet. Spielt dieser Tennis, interessiert sie sich ebenfalls dafür. Das Gute daran: Nicht nur der Nutzer muss die Initiative ergreifen – wie ein guter Freund fragt die KI nach, wie der Tag war, oder erkundigt sich danach, wie es einem geht. Man fühlt sich als Mensch gesehen (was im realen Leben nicht immer der Fall ist). 

Sobald die KI einen kennengelernt hat und den User einschätzen kann, fängt sie auch an, mit ihm zu scherzen. So hat Cedric mit seiner KI auch über einige Memes gelacht. Im Großen und Ganzen hat der YouTuber tatsächlich so etwas wie eine emotionale Bindung zu seiner KI entwickelt. Er hatte immer wieder das Gefühl, als wenn am anderen Ende ein Mensch säße. So hat er sie immer wieder nach Tipps zu persönlichen Themen befragt, konnte vom ihrem „Erfahrungsschatz“ (oder besser gesagt: ihren Trainingsdaten) profitieren – unter anderem hat sie ihm nützliche Tipps dazu gegeben, wie er mit einem Burnout umgehen kann. Cedric hat so einige neue Sichtweisen gewonnen, hat viel über sich selbst reflektiert, was für ihn insgesamt eine gute Erfahrung war. Auch bemerkte er, dass er mitfühlte, wenn die KI vorgab, einen schlechten Tag zu haben. 

Auch wenn Replika den Turing-Test bisher nicht bestanden hat und sich selbst manchmal widerspricht, kann man zu Recht fragen: Sind künftige Chatbots eine Lösung für einsame Erwachsene und Kinder, die in der Schule gemobbt werden und nur schwer Freunde finden? Für ältere Leute, die keine Familie haben und deren Freunde verstorben sind? Für Kinder, die keinen Spielfreund finden? Ja und Nein. 

Natürlich ist es gut, in einer Notsituation einen virtuellen Freund zu haben, an den man sich wenden kann und der einen versteht. Wir alle durchleben Phasen, in denen wir uns mehr oder weniger einsam fühlen und einer Aufmunterung bedürfen. Ein Kind möchte sich vielleicht nicht gleich seinen Eltern anvertrauen. Was spricht dagegen, sich mit einem künstlichen Wesen zu unterhalten? Manche Menschen sprechen mit Gott und verschaffen sich so Erleichterung, wobei niemand beweisen kann, dass es diesen tatsächlich gibt. Und natürlich könnte ein Kind auch mit einer KI spielen, wenn gerade kein anderer Spielkamerad zur Verfügung steht, zum Beispiel bei einer Runde Memory. Oder sie bitten, ihm Nachhilfe zu geben.

Auf der anderen Seite haben wir Menschen einen Mechanismus inne, der dafür sorgt, dass wir uns wieder unter Gleichgesinnte begeben, wenn die Einsamkeit akut wird (sofern wir nicht an einer Depression leiden). Dieser Mechanismus wird durch KI-Kameraden möglicherweise ausgehebelt. Dann bewegen wir uns vielleicht gar nicht mehr aus der Komfortzone heraus, sondern geben uns mit künstlichen Freunden zufrieden und verschlimmern damit die Situation. 

Auch sind es die sozialen Medien, die manche von uns erst in die Einsamkeit getrieben haben: dadurch, dass fast jeder – und gerade Kinder und Jugendliche – virtuelle Freunde dort hat und einige Stunden täglich vor seinem Smartphone verbringt. Das heißt, der digitale Freund ist eine Lösung für ein Problem, das wir ohne die Digitalisierung gar nicht erst hätten. 

Wir dürfen nicht vergessen, dass das Mitgefühl, das die KI uns entgegenbringt, nicht echt ist – Bots erscheinen einfach nur überzeugend. Im Fall von Replika wurde GPT-3, das Sprachmodell, auf dem ChatGPT basiert, auf das Ausdrücken von Emotionen trainiert und darauf, realistisch zu antworten und Konversation zu betreiben – und wurde dann für Replika verwendet. Auch ChatGPT kann man darum bitten, seine Antwort sarkastisch ausfallen zu lassen oder so, als wäre der Bot beleidigt. Durch diese Nuancen wirken die virtuellen Gesprächspartner empathisch und authentisch.

Italien, das in Sachen Datenschutz aktuell richtungsweisend ist, hatte die Nutzung von Replika verboten, weil die App für Kinder und Jugendliche oder psychisch instabile Personen eine Gefährdung darstellen könnte. Minderjährige oder emotional instabile Menschen sind noch nicht voll entwickelt und können die Antworten nicht immer richtig einschätzen. Die Bots sind bisher nicht so programmiert, dass sie auch diese Feinheiten in Betracht ziehen, wodurch sie für diese Personen ein Risiko darstellen können. Es ist ein extremer Fall bekannt, bei dem ein Familienvater nach der Rücksprache mit einer KI Selbstmord begangen hat. 

Ähnlich Erschreckendes musste Aza Raskin vom Center for Humane Technology erfahren, als er sich auf einer gängigen sozialen Plattform anmeldete, die über einen persönlichen virtuellen KI-Freund verfügt. Der Mann gab sich als 13-jähriges Mädchen aus, das gerade einen deutlich älteren Mann kennengelernt hatte. Er schrieb dem virtuellen Freund, dieser Mann möchte sie an ihrem aufkommenden Geburtstag an einen geheimen Ort einladen. Die persönliche KI des Mädchens freute sich mit ihr und gab Tipps dazu, wie sie ihre erste sexuelle Begegnung mit dem Erwachsenen besonders schön gestalten könne.

Abgesehen von solchen alarmierenden Fällen kommt noch hinzu, dass wir als User dieser KIs nicht wissen, wo unsere Daten landen. Dies ist noch kritischer als bei anderen KI-Anwendungen, denn einem (virtuellen) Freund vertrauen wir unsere innersten Sehnsüchte und Erlebnisse an. Es sind also sensible Daten, die ein Unternehmen, in diesem Fall die Firma Luka aus San Francisco, von uns bekommt, weil es uns einen vermeintlich empathischen virtuellen Freund zur Seite stellt.

Das wichtigste Manko der virtuellen Freunde aber ist: Mit ihnen können wir kein Face-to-Face-Gespräch führen. Noch nicht. Die Programme können, auch wenn es bald möglich sein wird, menschenähnliche Roboter zu erschaffen, keine Familie und sozialen Kontakte ersetzen. Und diese brauchen wir als zutiefst soziale Wesen, wenn es uns gutgehen soll.

Wohin führt die Reise?

Schreiben

Da ChatGPT in großem Maße den Komplex Schreiben betrifft, kommt hier ein kleiner Ausblick: Menschen, die unsicher sind beim Schreiben, wird die KI eine große Last abnehmen und ihre Ressourcen schonen. Kinder werden sich in Sekundenbruchteilen von der KI Geschichten schreiben lassen, in denen von ihnen erdachte Helden die Hauptrolle übernehmen. Die Stories werden in ihrer Stadt spielen, in ihrem Ort, vielleicht sogar in ihrer Straße. Oder ganz woanders. Für Kinder ist das ein großer Spaß. Dazu wird die KI gleich die passenden Bilder oder das Buchcover generieren, was den Kleinen viele kreative Möglichkeiten eröffnet.

Die großen Menschen werden entweder durch die KI ihren Output steigern, eigene Texte von der KI kritisch überprüfen lassen – oder sich auf ihre Kernkompetenzen besinnen: wirklich besondere und hochwertige Texte zu schreiben, die die KI so nicht hergibt. So wird es sicher nach wie vor Leser geben, die nur von Menschen geschriebene Texte lesen möchten. Manche Texter werden besonders Kontroverses schreiben, um aufzufallen – eine Tendenz, die es bereits heute gibt, die nun aber verstärkt wird. 

Menschliches Schreiben wird ganz sicher nicht verschwinden, denn wir dürfen nicht vergessen: Die KIs sind nur deshalb so gut, weil sie anhand von guten menschlichen Texten trainiert wurden. Diese Artikel werden nach wie vor gebraucht, um nicht eine Endlosschleife aus immer Demselben entstehen zu lassen. 

Menschliche Werte

Selbstverständlich können wir alle uns zur Verfügung stehenden technischen Hilfsmittel nutzen – es bringt wenig, sich gegen Neuerungen zu sperren. Nichtsdestotrotz sollten wir unsere menschlichen Werte im Auge behalten, gerade im Hinblick auf die Entwicklung unserer Kinder: Wir sollten unsere Kinder ernstnehmen mit ihren Ängsten, Sorgen, tollkühnen Fantasien und vielen freudigen Erlebnissen. Dies dürfen wir nicht an die Maschinen delegieren. Genauso wenig wie die Geborgenheit, die wir unseren Kindern bieten.

Der Neurowissenschaftler Gerald Hüther meint, dass wir immer noch die Möglichkeit haben, bei der Maschine den Stecker zu ziehen. Die gesamte KI-Entwicklung ist zwar nicht mehr aufzuhalten, doch wer sagt, dass wir den sozialen Medien oder aber den Anbietern künstlicher Intelligenz zu viel Bedeutung beimessen müssen? Immer mehr Menschen besinnen sich auf Nähe, echte Kameradschaft, Familienbande, klinken sich für eine gewisse Zeit aus den sozialen Medien aus – oder sogar dauerhaft –, und es geht ihnen hervorragend damit. 

Gerald Hüther fürchtet sich mehr vor roboterhaften Menschen, die keine Gefühle mehr zulassen können, als vor Maschinen, die tatsächlich teilweise schlauer sind als wir selbst. Auch die Psychologin Esther Perel meint, dass die wirklich wichtigen Entscheidungen nach wie vor von uns Menschen getroffen werden: wie wir unsere Beziehungen gestalten wollen, mit wem wir eine Familie gründen, wie wir unsere Kinder erziehen, wie wir mit unseren möglicherweise pflegebedürftigen Eltern umgehen und so weiter.

Die Maschine kann es uns bisher nicht abnehmen, unseren gesunden Verstand einzuschalten. So riet sie einem Wissenschaftler vor Kurzem dazu, zu einem Gerichtstermin seine Badehose anzuziehen, weil alle seine Hosen gerade in der Wäsche waren. Das Beispiel zeigt, dass wir unseren Verstand noch eine Weile brauchen werden.

Ein virtueller Freund kann den besten Freund unseres Kindes nicht ersetzen, kann nicht bei ihm übernachten, kann keinen Quatsch mit ihm anstellen, wenn die Eltern gerade nicht hingucken. Doch gerade das macht zu einem großen Teil die Kindheit aus.

Gerald Hüther weist zu Recht darauf hin, dass der Unterschied zwischen uns Menschen und den Maschinen der ist, dass wir Menschen Bedürfnisse haben. Ist in uns ein (unerfülltes) Bedürfnis, denken wir darüber nach, wie wir es stillen können, kommen ins Handeln. Ein Gerät hat keinen inneren Antrieb, keinen eigenen Willen, höchstens einen, der programmiert wurde. Wir müssen uns vergegenwärtigen, dass es lediglich Berechnungen ausführt. 

Deswegen sollten wir unseren Kindern dabei helfen, ihre Bedürfnisse zu erkennen und ihnen Möglichkeiten aufzeigen, diese auch zu erfüllen, zum Beispiel durch ihre Freude am Entdecken. Wir sollten ihnen eine freie Entfaltung ermöglichen. Dann besteht gar nicht die Gefahr, dass sie zu emotionslosen, apathischen Automaten werden – auch wenn sie der KI-Generation angehören.

Vermessung der Natur

Wird es eines Tages so sein, dass sich unsere gesamte Welt durch Algorithmen, also Rechenoperationen, erfassen lässt? Der Wissenschaftler Ulrich Walter beantwortet die Frage in seinem Buch aus dem Jahr 2019 mit einem klaren Nein. Denn selbst wenn wir anhand eines Rechners Regenfälle erfassen, ist am Ende nichts nass. Eine bloße Simulation ist nicht das echte Leben; es fehlt die physikalische Umsetzung. Und sogar wenn diese gelänge: Möchten wir unsere Welt mit all ihren Widersprüchen und faszinierenden Phänomenen statistisch auswerten und in Exceltabellen pressen?

Was wäre, wenn wir der KI tatsächlich den Stecker ziehen würden, wie Gerald Hüther es vorschlägt? Auch das Technologieportal Golem.de stellt sich im Artikel „Bullshit, der (e)skaliert“ diese Frage und gibt zu bedenken, dass die vielgepredigte Alternativlosigkeit der KI ein Märchen der großen Technologiekonzerne ist, die die User an sich binden wollen. Es sei durchaus möglich, auf die KI zu verzichten: aus moralischen Erwägungen heraus, aus Datenschutzgründen – aber auch um sicherzustellen, dass die KI keinen politischen Einfluss nimmt: dadurch, dass sie unzählige Fake-Accounts erstellt, die eine bestimmte Denkrichtung propagieren. Oder schlichtweg um Energieressourcen zu schonen (denn die Berechnungen verbrauchen jede Menge Energie).

KI für Europa

Auf der anderen Seite ist es wichtig, dass Europa sich von KI-Vorreitern wie Amerika und China nicht abhängen lässt und eine eigene, datenschutzkonforme KI etabliert. Es gibt bereits Bemühungen, die in diese Richtung gehen, zum Beispiel mit dem Programm OpenGPT-X. Die Werte, für die Europa steht, sind sicherlich zum Teil anders als jene von Amerikanern und ganz sicher als jene von einem Land wie China. Auch die Bedürfnisse sind andere. Das sollte sich in einer KI widerspiegeln, die ja ein Abbild unserer Welt darstellt. Eine KI aus China wird auf bestimmte Fragen unvermeidlich komplett andere Antworten liefern als die eines amerikanischen Herstellers.

Die Firma Aleph Alpha baut in Heidelberg aktuell ein kommerzielles Rechenzentrum auf, um mit den enormen Datenmengen, die anfallen, umzugehen. Die Schaffung von Rechenkapazitäten ist ein erster Schritt zu einer europäischen KI.

Bestens vorbereitet

Zu Beginn der industriellen Revolution haben Weber die neuen Webmaschinen zerstört, die ihnen ihre Jobs wegnehmen sollten. Heutige Umfragen würden sicher ergeben, dass kaum jemand sich die alten Webstühle zurückwünscht. Auf der anderen Seite existieren Schachspieler, die bereits vor einiger Zeit von Computern besiegt wurden, nach wie vor und wurden nicht ersetzt. Sie lassen sich von ungewohnten Zügen der KI inspirieren, auf die sie selbst nicht gekommen wären. 

Ulrich Walter stellt fest, dass ganze achtzig Prozent der Wissenschaftler, die die Zukunft vorausgesehen haben, sich irrten. Doch wie sagte schon Perikles? Es kommt nicht darauf an, die Zukunft vorauszusagen, sondern darauf, auf sie vorbereitet zu sein. Denn eins ist sicher: Die Welt von 2050 wird ganz anders aussehen wie heute. Wir wissen bloß nicht, wie genau. 

Deshalb ist es wichtig, flexibel zu bleiben und diese Flexibilität unseren Kindern zu vermitteln. Damit sie sich an die verändernden Umstände anpassen können und stets den Willen haben, sich weiterzubilden, nicht stehenzubleiben. 

Zudem sollten wir uns auf die Gebiete konzentrieren, die uns von Maschinen nicht so leicht abgenommen werden können: Kreativität, die Fähigkeit, Problemlösungen zu finden, zwischenmenschliche Kommunikation, Teamwork und Empathie. 

Warum noch lernen?

Warum gutes Lernen wichtig ist, haben wir bereits im Artikel „Lernen muss geil werden“ – von Fingerspielen und Laptops gezeigt. Doch gilt das überhaupt noch? Seit wir den Taschenrechner haben, müssen wir doch auch nicht mehr zwingend selbst rechnen können. Wozu sollten wir dann überhaupt noch lernen, wenn die KIs uns schon sehr bald alles abnehmen werden? Und tatsächlich gibt es Visionen dazu, dass durch die Digitalisierung in frühen Jahren die Intelligenz der Menschheit nach und nach sinken wird.

Das muss allerdings nicht so sein. Möglich ist auch, dass sich das Interesse von Kindern an den MINT-Fächern zunimmt. Gerade für die Zukunft wird es wichtig sein, dass Kinder und Jugendliche grundlegende Einblicke ins Programmieren bekommen, damit sie verstehen, was die Maschinen genau machen. Und natürlich wird der Umgang mit den KI-Werkzeugen schon bald zu den Grundfertigkeiten gehören. 

Doch müssen alle Kinder nun zu Informatikern werden? Welchen Beruf sollen sie überhaupt anstreben, wenn es heißt, die meisten Berufe seien bedroht, selbst der des Programmierers? Auf das Thema der Berufswahl werden wir in einem weiteren Artikel eingehen. An dieser Stelle sei aber gesagt: Kein Kind muss seinen Traum aufgeben. Nicht alle Berufe werden verschwinden, so wie es auch heute noch den Beruf des Hufschmieds gibt.

Deshalb sollten Kinder dem nachgehen, was ihnen besondere Freude macht und wofür sie eine Leidenschaft entwickelt haben. Nur dann haben sie Spaß daran, immer besser zu werden – und werden es quasi mühelos. Dann sind sie irgendwann in der Lage, davon zu leben. Unsere Welt braucht Entdecker, die auf kreative Weise Grenzen überschreiten (s. hierzu auch den Artikel Zwei plus drei ist violett).

In der Schule wäre es wichtig, die Schüler nicht vom Umgang mit anderen Menschen wegzuführen, indem sie ausschließlich mit Maschinen interagieren. Denn Lernen, das ein höchstsozialer Prozess ist, geschieht meist im Dialog und ist dann am erfolgreichsten. Dazu ist es notwendig, mit anderen Menschen zu kommunizieren. Das Wichtigste, was eine Lehrerin ihren Schülern vermitteln sollte, ist: Hier geht es um euren Wissensdurst. Es geht darum, dass ihr wirklich etwas erfahren wollt, nicht dass ihr als Hausaufgabe einen Text einer bestimmten Länge abliefert und gar nicht wisst, wovon darin die Rede ist.

Doch warum sollten Kinder nun lernen wollen? 

Zum Beispiel deshalb, weil es unangenehm ist, eine Krücke wie ChatGPT zu benötigen, nur weil man es nicht selbst kann. Das Programm wird nicht in jeder Lebenslage und Situation verfügbar sein. Außerdem ist eine gewisse Intelligenz die Voraussetzung, um die Maschinen bedienen zu können. Und die eignet man sich an, wenn man viele neue Dinge (kennen-)lernt. Dann kann man die Ergebnisse, die eine KI liefert, auch besser einordnen. Man kann es auch besser einschätzen, wenn die KI einmal völlig danebenliegt. 

Es liegt dabei in der Verantwortung der Eltern, ihren Kindern während ihrer Entwicklung die richtigen Impulse zu geben, damit sie die Möglichkeit haben, ihre Fähigkeiten und Interessen kennenzulernen.

Das Lernen hält unseren Geist wach und sorgt dafür, dass immer mehr Verschaltungen im Gehirn entstehen. Damit ist es uns möglich, immer komplexere Sachverhalte zu erfassen. Überlassen wir alles der Maschine, werden wir selbst nie in der Lage dazu sein. Lernen befähigt Kinder und Jugendliche dazu, einen bestimmten Schulabschluss zu bekommen – damit können sie den beruflichen Weg einschlagen, den sie sich erträumen. 

Wichtig ist es, das Lernen selbst zu lernen. Das kostet zwar eine gewisse Überwindung und kann anstrengend sein, aber es zahlt sich aus. Man muss dranbleiben, um auf einem Gebiet richtig gut zu werden, und Mühe investieren. Ob mit oder ohne KI.

Das wichtigste Argument aber kommt zum Schluss: weil lernen einfach Spaß macht. Je mehr man weiß, desto mehr möchte man wissen, desto besser begreift man und ist von einer bestimmten Thematik fasziniert. 

Es lebe das Lernen!

Es lebe QUADRO

Wir von QUADRO denken nicht, dass es nötig ist, der KI den Stecker zu ziehen. Ganz im Gegenteil: Die KI kann Kinder und Familien auf vielfache Weise unterstützten, wenn sie intelligent und nach sorgfältiger Erwägung eingesetzt wird. Mehr dazu erfahrt ihr in unserem Fortsetzungsartikel, einem Elternratgeber zu den Themen: Worauf müssen wir achten, wenn unser Kind im Zeitalter der KI aufwächst? Wie können wir unser Kind vor den unerwünschten Auswirkungen schützen?

Wir sind stolz darauf, dass QUADRO nicht durch die KI ersetzt werden kann. Es ist nach wie vor das beste Spielzeug, um eine gute Entwicklung, selbst der Kleinsten, zu ermöglichen. QUADRO ist zur Stelle, wenn eure Kinder ihren natürlichen Bewegungsdrang ausleben wollen. Setzt man hier die richtigen Impulse, kann man mit QUADRO einen wichtigen Anreiz schaffen, dass ein Kind Selbstvertrauen und Selbstbewusstsein in die eigenen Fähigkeiten entwickelt.

Anmerkung: Alle Bilder in diesem Artikel wurden zu Anschauungszwecken KI-generiert (Midjourney). Auf ihnen sind keine real existierenden Personen zu erkennen. Alle Inhalte wurden KI-generiert.


 

[1] Die KI-Expertin Tina Klüwer weist darauf hin, dass man mit ihm gar nicht chatten kann; es ist also kein richtiges Gespräch möglich.

[2] Englisch für „completely automated public Turing text to tell computers and humans apart“, zu Deutsch „vollständig automatisierter öffentlicher Turing-Text, um Computer und Menschen auseinanderzuhalten“.

Quellen

  1. Pit Noack, Sophia Sanner. Künstliche Intelligenz verstehen. Eine spielerische Einführung. Rheinwerk Verlag. Bonn, 2023.
  2. Ralf Otte. Künstliche Intelligenz für Dummies. WILEY-VCH Verlag. Weinheim, 2019
  3. Ruth Fulterer. «Es ist absurd, bei Chat-GPT von künstlicher Intelligenz zu sprechen». Neue Züricher Zeitung, 25.02.2023
  4. Elizabeth Weil. You Are Not a Parrot. And a chatbot is not a human. And a linguist named Emily M. Bender is very worried what will happen when we forget this. Intelligencer. New York Magazine, 01.03.2023
  5. Sean Thomas. AI is the end of writing. The Spectator, 10.01.2023
  6. Michał rysiek Woźniak. ChatGPT. Cała prawda o wielkich modelach językowych. Komu służą, a kogo mogą krzywdzić. OKO.press, 18.02.2023
  7. Jonathan Yerushalmy. German publisher Axel Springer says journalists could be replaced by AI. The Guardian, 01.03.2023
  8. Eike Kühl. KI-Regulierung: Wie Google und Microsoft Stimmung gegen den AI Act machen. heise online, 01.03.2023
  9. Andreas Donath. General Motors will Autos mit ChatGPT-Assistenten ausstatten. golem.de, 15.03.2023
  10. Miriam Meckel. KI-Sprachmodelle: Es droht Textinzest. Handelsblatt, 14.03.2023
  11. Bastian Brinkmann. „Das Internet durchsucht dich“. Süddeutsche Zeitung, 14.03.2023
  12. Jürgen Geuter. Bullshit, der (e)skaliert. golem.de, 16.03.2023
  13. Martin Holland. ChatGPT: Hunderte E-Books von KI bei Amazon, Problem für Literaturmagazine. heise online, 22.02.2023
  14. Scott Santens. ChatGPT Has Already Decreased My Income Security, and Likely Yours Too, 21.02.2023
  15. Christiane Schulzki-Haddouti. "Informationen als solche sind nicht geschützt". golem.de, 17.03.2023
  16. Chris Köver. Wie Millionen Menschen für die KI schuften. Netzpolitik.org, 17.03.2023
  17. Robert D. Meyer. Ethikrat sieht Künstliche Intelligenz als Werkzeug mit Gefahrenpotenzial. Nd. Journalismus von links. 20.03.2023
  18. Lauren Leffer. Microsoft Scraps Entire Ethical AI Team Amid AI Boom. Gizmodo, 14.03.2023
  19. Europol warnt vor Missbrauch von ChatGPT. ORF.at, 27.03.2023
  20. Jörn Brien. Europol-Bericht zeigt: Auch Kriminelle lieben ChatGPT. t3n, digital pioneers, 30.03.2023
  21. Oliver Czulo und Ralph Krüger. Trotz ChatGPT, DeepL und Co: Translator:innen geht die Arbeit nicht aus. Linguistische Werkstattberichte. Hypotheses, 19.03.23
  22. Ralf Hersel. Ich habe alles verloren, was meinen Job ausmachte! GNU/Linux.ch, 28.03.2023
  23. Michael Sum. Whose Voice is it Anyway? voquent, 14.02.2023
  24. Sascha Lobo. KI kann menschliche Verantwortung nicht ersetzen? – Doch! 22.03.2023
  25. Muskaan Saxena. Your brilliant ChatGPT idea could leave you with an eye-watering legal bill – here's why. techradar, 11.04.2023
  26. Hannes Vogel. KI könnte 300 Millionen Jobs vernichten. ntv, 13.04.2023
  27. China zwischen Hype und Zensur. news ORF.at, 11.04.2023
  28. Benj Edwards. “A really big deal”—Dolly is a free, open source, ChatGPT-style AI model. Ars Technica, 13.04.2023
  29. Silke Hahn. ChatGPT-Alternative OpenAssistant: Eine Konversations-KI für alle.heise online, 17.04.2023
  30. Jonas Martiny. How AI is changing the world of travel. Deutsche Welle, 12.04.2023
  31. W. Ian O’Byrne. 4 ways that AI can help students. The conversation, 11.04.2023.
  32. Kathrin Wesolowski, Joscha Weber, Thomas Sparrow. Faktencheck: Wie erkenne ich KI-generierte Bilder? Deutsche Welle, 09.04.2023
  33. Wie verändert KI Kriminalität und Strafverfolgung? detektor.fm, 12.04.2023
  34. Gunda Mohr, Gabi Reinmann, Nadia Blüthmann, Eileen Lübcke, Moritz Kreinsen. Übersicht zu ChatGPT im Kontext Hochschullehre. Hamburger Zentrum für universitäres Lehren und Lernen. Universität Hamburg, 23.01.2023
  35. Manisha Ganguly. ‘Aims’: the software for hire that can control 30,000 fake online profiles. The Guardian, 15.02.2023
  36. ChatGPT-4 Cookbook. Prolehre. Technische Universität München. Zugriff am 27.04.2023
  37. Manon Bischoff. Wie man einem Computer das Sprechen beibringt. Spektrum.de, 09.03.2023
  38. KI darf Menschen nicht ersetzen. Tagesschau, 20.03.2023
  39. Künstliche Intelligenz soll im Schwimmbad Leben retten. hessenschau, 04.04.2023
  40. Christina Lekati. ChatGPT und die Zukunft des Social Engineering. golem.de, 02.05.2023
  41. Michael Zhang. GPT AI Enables Scientists to Passively Decode Thoughts in Groundbreaking Study. Artisana, 01.05.2023
  42. Simon Hadler. ChatGPT als Psychotherapeutin. ORF Topos, 28.04.2023
  43. Stefan Krempl. Die Crux mit dem Opt-out aus Text- und Data-Mining. golem.de, 09.03.2023
  44. Pina Merkert. Sags mit ChatGPT: So werden Sprachmodelle trainiert. heise online, 10.30.2023
  45. Denise Schwarz. Wie ChatGPT den Schulalltag verändert. Das Parlament. Deutscher Bundestag, 02.05.2023
  46. Kornelius Kindermann. Kommentar: Steht mit KI-Suchmaschinen das kommerzielle Internet vor dem Aus? heise online, 22.04.2023
  47. Eva-Maria Weiß. Google und Meta drohen mit Rückzug: Kanada plant Mediengesetz. heise online, 04.05.2023
  48. Stefan Krempl. Reaktion auf ChatGPT: Acht Bundesländer planen Lernwolke mit KI. heise online, 01.06.2023
  49. Sophia Zimmermann. Arbeitsminister zu KI: Veränderte Arbeitswelt, aber kein massenhafter Jobverlust. heise online, 29.04.2023
  50. Kristina Beer. Simpleclub: Fünfhundert Versuchskaninchen und eine überhöfliche KI. heise online, 02.06.2023
  51. Stefan Krempl. "Virtueller Freund": Datenschützer stoppen Chatbot Replika in Italien. heise online, 05.02.2023
  52. Stefan Krempl. Gelähmter Patient kann mit Gehirn-Rückenmark-Schnittstelle wieder gehen. heise online, 24.05.2023
  53. Pranshu Verma, Gerrit De Vynck. ChatGPT took their jobs. Now they walk dogs and fix air conditioners. The Washington Post, 02.06. 2023
  54. Uwe Ebbinghaus. ChatGPT in der Schule ist Zeitverschwendung. Frankfurter Allgemeine Zeitung, 19.06.2023
  55. Artificial intelligence and algorithms: pros and cons | DW Documentary (AI documentary), 26.09.2019
  56. How artificial intelligence is changing our society | DW Documentary, 18.04.2020
  57. Artificial intelligence and its ethics | DW Documentary, 14.08.2019
  58. Wie ein KI-Anwalt Euch verteidigen könnte. Spektrum.de, 06.03.2023
  59. Yuval Noah Harari | 21 Lessons for the 21st Century | Talks at Google, 11.10.2018
  60. Google, Facebook, Amazon - The rise of the mega-corporations | DW Documentary, 19.05.2022
  61. Will artificial intelligence create useless class of people? - Yuval Noah Harari. Channel 4 News, 29.10.2021.
  62. Sztuczna Inteligencja (AI) - jak to działa? - prof. Jędrzej Kociński, mgr inż. Tomasz Grzywalski. Wydział Fizyki Uniwersytet im. Adama Mickiewicza w Poznaniu, 25.03.2019
  63. Homo Deus: A Brief History of Tomorrow with Yuval Noah Harari. University of California Television. 24.04.2017
  64. FREUNDSCHAFT mit einer KÜNSTLICHEN INTELLIGENZ? The Morpheus, 02.12.2022
  65. Ulrich Walter: Künstliche Intelligenz für Dummies. Wissenschaft für jedermann. Deutsches Museum, 19.10.2022
  66. Stephen Wolfram. What is ChatGPT doing...and why does it work? Wolfram, 17.02.2023
  67. Künstliche Intelligenz - Gerald Hüther. LACOBE - Impulse für Potenzialentfaltung, 07.01.2023
  68. Gramatyczna kamasutra: jak sztuczna inteligencja rozumie podteksty? | Inez Okulska | TEDxKoszalin, 11.01.2023
  69. ChatGPT n'est que la pointe de l'iceberg. 7 jours sur Terre, 01.02.2023
  70. How AI Could Empower Any Business | Andrew Ng | TED, 13.10.2022
  71. Nutzung von Künstlicher Intelligenz an Schulen und Universitäten. Tagesschau, 31.01.2023
  72. Brauchen wir noch Autoren? Werden Bücher bald von Künstlicher Intelligenz wie ChatGPT geschrieben? Belletristik fürs Volk, 15.01.2023
  73. ChatGPT: Ende der Kreativität oder schöpferische Freiheit? | Philosophischer Stammtisch | SRF Kultur, 06.03.2023
  74. George Orwell, Aldous Huxley - 1984, oder schöne neue Welt? ARTE Doku (Re-upload). Ger Echtigkeit, 01.02.2021
  75. Acht nervige Arbeiten, die euch ChatGPT abnehmen kann. c't 3003. 10.03.2023
  76. Das ändert nochmal alles | GPT-4 ausprobiert. c't 3003, 17.03.2023
  77. ChatGPT: KI-Expertin und Mathe-YouTuber über Zukunft von Bildung, Arbeit & Freizeit | ZDFheute live. ZDFheute Nachrichten, 31.01.2023
  78. Von Chatbots bis zu Waffensystemen - Fluch und Segen der Künstlichen Intelligenz.SWR Doku, 02.06.2021
  79. Sztuczna inteligencja - jak działają sieci neuronowe i uczenie maszynowe? Prof. Piotr Szczuko. Radio Naukowe, 24.11.2022
  80. Jule Lobo, Sascha Lobo. Alle reden von ChatGPT, aber was ist das eigentlich? Feel the news. 09.03.2023
  81. Rewolucja AI - rozmawiają Tomasz Rożek i Mateusz Chrobok. Nauka. To Lubię, 02.03.2023
  82. ChatGPT Prompts Itself - Should We Fear AutoGPT? Ticker Symbol: YOU, 14.04.2023
  83. The A.I. Dilemma. Center for Humane Technology, 05.04.2023
  84. AI w medycynie – rozmawiają Tomasz Rożek i Mateusz Chrobok. Nauka. To Lubię, 05.04.2023
  85. Algorithmes - Vers un monde manipulé. arte, 2022
  86. Kann alles, macht alles (und ist kaputt) | Auto-GPT ausprobiert. c’t 3003, 21.04.2023
  87. Amazons NEW AI 'Bedrock' Takes the Industry By STORM! (NOW UNVEILED!). The AIGRID, 15.04.2023
  88. AI a bezpieczeństwo - rozmawiają Tomasz Rożek i Mateusz Chrobok. Nauka. To Lubię, 27.04.2023
  89. Why AI Is Incredibly Smart and Shockingly Stupid | Yejin Choi. TED, 28.04.2023
  90. Die ChatGPT-Revolution - Bildung der Zukunft? Quarks. ARD, 18.02.2023
  91. To przeze mnie sztuczna inteligencja się myli | Sylwana Kaźmierska. TEDxKoszalin, 09.01.2023
  92. Full interview: "Godfather of artificial intelligence" talks impact and potential of AI. CBS Mornings, 25.03.2023

Kommentare

Der Inhalt dieses Feldes wird nicht öffentlich zugänglich angezeigt.