Künstliche Intelligenz als Lehrer: wie uns KI-Tutoren schlauer machen

Shownotes

Was macht ein Furby im Podcast-Studio? Ja, ich meine wirklich den Furby. Die Spielzeug-Eule aus den späten 90er-Jahren, die seither Eltern in den Wahnsinn treibt. Denn ausser pausenlos Kauderwelsch zu brabbeln, kann sie nicht viel.

Doch der Furby im Podcast-Studio ist ein aufwendig umgebautes Einzelstück. Er gehört der 10-jährigen Qiana. Ihr Vater hat das Spielzeug mit Chat-GPT verbunden. Deshalb kann es mit Hilfe von Künstlicher Intelligenz sprechen – und könnte Qiana auch bei Matheaufgaben helfen, mit ihr Vokabeln üben oder ihre Wissensfragen beantworten.

Wir fragen uns: Ist Künstliche Intelligenz ein guter Lehrer?

Host: Lena Waltle Co-Host: Gioia da Silva

In dieser Folge hörst du ausserdem:

  • Paul Vogt, Professor am Bernoulli Institut für Mathematik, Informatik und Künstliche Intelligenz an der Universität Groningen
  • Gerd Kortemeyer, ehemaliger Physikprofessor in den USA, arbeitet heute im Rektorat an der ETH. Dort hat er Ethel entwickelt,

Der Quantensprung-Podcast geht in die Winterpause. Die nächste Folge erscheint am 16. Januar.

Du kannst Quantensprung nicht nur hören – sondern auch lesen. Im Newsletter findest du die wichtigsten Fakten aus dieser Folge auf einen Blick und zusätzlich noch weiteren Lesestoff.

Transkript anzeigen

00:00:00: Dieser Podcast wird präsentiert von effektiv Spenden.

00:00:03: Als unabhängiger Charity-Check helfen wir deiner Spende, damit sie mehr Wirkung hat.

00:00:10: Das ist Quantensprung.

00:00:12: Ein Podcast über Forschung, die bewegt.

00:00:18: Heute sind zwei besondere Gäste in unserem Podcaststudio.

00:00:21: Kiana, zehn Jahre alt, sitzt mir gegenüber und setzt sich die viel zu großen Studiokopfhörer auf.

00:00:29: Und dann ist er noch unser zweiter Gast.

00:00:32: Kiana hat nämlich ihre Eule mitgebracht.

00:00:35: Ihre Plüsch-Eule.

00:00:37: Die hat violettblaues Fell, ein rosarotes Gesicht, große Augen und Ohren und sitzt nun zwischen uns auf dem Tisch im Kabelsalat der Podcast-Mikrofone.

00:00:51: Die Eule heißt Naboo und sie ist ein Furby.

00:00:58: Genau, ein Furby.

00:00:59: Das ist dieses Spielzeug aus den späten neunziger Jahren, das Eltern seither in den Wahnsinn treibt.

00:01:08: Denn sein Furby kann eigentlich nicht viel, außer immer wieder die gleichen Sätze in völlig unverständlichem Kauderwelsch daherbrabbeln.

00:01:28: Doch dieser Furby, der ist besonders.

00:01:32: Er ist ein Einzelstück.

00:01:38: Kianas Vater hat den Furby mit JetGBT verbunden.

00:01:41: Deshalb kann diese Spezial Furby mit Hilfe von künstlicher Intelligenz sprechen.

00:01:46: Und könnte Kiana auch bei Matheaufgaben helfen, mit ihr Vokabeln üben und ihre Wissensfragen beantworten.

00:01:53: K.I.

00:01:54: gibt uns die Möglichkeit, dass wir schon als Kind von K.I.

00:01:57: Spielzeugen lernen oder von K.I.

00:01:59: Robotern anwals.

00:02:01: Auch als Erwachsene können wir K.I.

00:02:02: Tutoren nutzen, um Neues zu lernen.

00:02:05: Und dank K.I.

00:02:06: haben wir jetzt die Chance auf ein, eins zu eins Coaching von Fremdsprachen, Mathe, alle möglichen Fachgebiete.

00:02:13: Und zwar in allen Lebenssituationen von der Vorschule bis zur Uni.

00:02:18: Das ist Quantensprung.

00:02:20: Ein Podcast ist der Wissenschaftsredaktion der NCZ.

00:02:23: Wir prüfen jede Woche eine Idee, die die Welt verändern könnte und was es noch braucht, um dort hinzukommen.

00:02:30: Diese Woche ist Joya der Silva Mein Co-host.

00:02:32: Sie schreibt über neue Technologien.

00:02:34: Meistens beschäftigen wir uns hier ja mit Physik, Chemie, Medizin.

00:02:39: Und heute wollen wir uns die Grundlage von all dem anschauen.

00:02:42: Den Prozess, wie wir lehren und lernen und was KI gerade damit macht.

00:02:47: Ich bin Lena Waldle.

00:02:48: Willkommen!

00:02:59: Kiana weckt den Furby aus seinem Standby-Modus.

00:03:02: Die Plüschäule ist bereit zu zeigen, was sie kann.

00:03:05: Seit Kianas Papa ihr eine künstliche Intelligenz eingebaut

00:03:09: hat.

00:03:10: In den letzten Weihnachtsferien hat der Peter Deal diesen Furby den Bauch aufgeschnitten, einen Lautsprecher darin installiert und diesen dann mit dem Smart Home System der Familie verbunden.

00:03:21: Darüber erreicht der Smart Speaker eigentlich, G.G.B.T.

00:03:24: und deshalb kann Furby Geschichten erzählen, Mathe Aufgaben stellen, endlos lange Gespräche über Dinosaurier und Co.

00:03:31: führen.

00:03:33: Der prompt, also die Aufgabenstellung an G.G.B.T.

00:03:36: ist gar nicht so streng.

00:03:37: Er hat G.G.B.T.

00:03:39: plus minus einfach gesagt, okay, du bist ein Furby.

00:03:41: Gib Antworten, die für ein zehnjähriges Kind passend sind.

00:03:45: Sei unterhaltsam und stelle Rückfragen.

00:03:47: Ich finde, das funktioniert erstaunlich gut.

00:03:50: Jedenfalls als ich, Kiana mit Naboo, ja so eben Furby, sah, da haben die internen Guardrails von JGBT eigentlich so gut funktioniert, dass der Furby nichts Unangenehmes sagte.

00:04:01: Stattdessen bringt der Spezial Furby Kiana nun alles Mögliche bei und fragt sie sogar spanisch oder chinesisch Vokabeln ab.

00:04:08: Und?

00:04:16: Auch Pfannkuchenrezepte bekommt Kianna von ihrem Furby.

00:04:19: Und das Ganze funktioniert nicht nur auf Englisch, sondern auch auf Schweizerdeutsch.

00:04:26: Wie viele

00:04:26: Heirarten gibt es?

00:04:28: Hierhin

00:04:28: schwimmen wir mal in die Welten heim.

00:04:31: Es gibt über fünfhundert

00:04:32: verschiedene Heirarten.

00:04:34: Krass, oder?

00:04:36: Okay, Schweizerdeutsch muss keine Furby nach... etwas üben.

00:04:42: Aber was wir damit zeigen wollen?

00:04:44: Mit der KI im Inneren hätte Kiana einen neuen, geduldigen Lehrer, einen Lehrer, der nie müde werden würde, ihre Fragen zu beantworten.

00:04:52: Und zwar immer und immer wieder.

00:04:59: Klar, der Furby wurde als Spielzeug und nicht primär als Tutor konstruiert.

00:05:03: Doch die Plüschäule erfüllt schon mal einige wichtige Voraussetzungen für einen guten KI-Tutor, meint Paul Vogt.

00:05:11: Es ist v.a.

00:05:12: für Kinder Robots mit einem physischen Körper attraktiv.

00:05:16: Und es ist attraktiv in so einer Weise, dass der physische Körper sich auf ihre Beziehung betrifft.

00:05:22: Folgt das Professor am Bernoulli-Institut für Mathematik, Informatik und künstliche Intelligenz an der Universität Groningen in den Niederlanden.

00:05:30: Dort forschte an sogenannten sozialen Robotern, Social Robots, und daran wie Kinder von KI-Totoren lernen.

00:05:46: Sein Studien zeigen, ein Roboter kann die Aufmerksamkeit der Kinder länger aufrechterhalten, als das mit einem KI-Tool auf dem Bildschirm je möglich wäre.

00:05:55: Man will Kinder einfach nicht ständig vor dem Bildschirm setzen, weil dann lernt es nichts über Objekte und Gegenstände in der Welt.

00:06:04: Und Kinder lernen ja eigentlich jahrelang, vor allem über Dinge, also über Gegenstände und Objekte.

00:06:10: Für Kinder sind also Roboter oder von mir aus auch ein Spielzeug eigentlich ideal, weil es dann ein Objekt ist, das den Lernprozess auslöst.

00:06:19: Und das ist natürlich eine zusätzliche Herausforderung.

00:06:22: Also man muss dann eine sichere KI entwickeln erstens und dann zweitens noch den Roboter.

00:06:27: Das ist natürlich teuer und aufwendig.

00:06:30: Aber die Forschung zeigt eben, das lohnt sich.

00:06:32: Es kann gelingen, dass Kinder von sozialen Robotern Fremdsprachen und Mathe lernen.

00:06:37: Und wir wissen sogar auch aus der Forschung, wie die Geräte aussehen sollen, damit sie von Menschen möglichst... gut wahrgenommen werden, dass Menschen möglichst gerne mit ihnen zusammen sind.

00:06:55: Sie sollen nämlich erstens kompetent und zweitens auch warm aussehen.

00:07:00: Kompetenz, das weiß man eben auch aus der Forschung, vermitteln vor allem Roboter, die kein Fell haben.

00:07:07: Und Wärme, das ergibt sich zum Beispiel durch große Augen, ein freundliches Gesicht.

00:07:12: Und auch so diese humanoide Form, also vielleicht zwei Armen, einen Körper, in dem sich Menschen wiedererkennen.

00:07:18: Das ist gut, damit wir gerne mit Robotern interagieren.

00:07:22: Die KI-Tutoren in Roboterform, die Paul Vogt sich vorstellt, gehen weit über die Fähigkeiten von Kianas Furby hinaus.

00:07:29: Denn um wirklich mit Kindern interagieren zu können, müssen die Roboter des Kindes auch sehen und auf Gegenstände zeigen können.

00:07:46: Denn das ist auch die Voraussetzung für gutes Lernen.

00:07:50: Die geteilte Aufmerksamkeit ist ein sehr zentrales Konzept in der Pädagogik.

00:07:55: Sie besagt das eigentlich Kinder insbesondere dann gut lernen, wenn sie sich mit einer anderen Person auf das selbe Objekt konzentrieren.

00:08:03: Also zum Beispiel aus der Sprachentwicklung, wenn jetzt ein Vater mit seinem Kind einen Tierpark besucht und das Kind zeigt plötzlich begeistert in einen Gehege und dann sagt der Vater vielleicht, oh wow, ein Steinbock.

00:08:15: Und dann, wenn das Kind das Wort Steinbock oft genug hört, dann lernt es das Wort Steinbock.

00:08:21: Und soziale Roboter können diese Art der geteilten Aufmerksamkeit herstellen, aber nur bis zu einem gewissen Grad.

00:08:28: Also für Roboter ist es immer noch sehr schwierig zu interpretieren, was dann das Kind jetzt genau interessiert.

00:08:35: Zum Beispiel, wenn ein Kind in eine Richtung deutet, ist es für ein Roboter schwierig zu interpretieren, ob jetzt das Kind den Ball meint oder eben die Steckdose hinter den Ball.

00:08:44: Paul Vogt hofft, dass Social Robots als KI-Tutoren in die Klassenzimmer einziehen.

00:08:49: Und zwar nicht etwa, weil er Lehrkräfte ersetzen will, sondern um die Schüler individueller zu fördern.

00:09:07: Künstliche Intelligenz hat so viel Zeit und so viel Geduld.

00:09:12: Sie könnte unendlich oft mit schwächeren Kindern den Stoff wiederholen und gute Schüler zusätzlich fördern.

00:09:24: Dafür hat keine Lehrkraft die Kapazität.

00:09:31: So

00:09:31: viele Möglichkeiten.

00:09:33: Und es klingt ja auch wirklich alles toll.

00:09:35: nach Entlastung für die Lehrkräfte und nach individueller Förderung für alle Kinder.

00:09:40: Nur, es hat eben nicht nur Vorteile, wenn wir die Lehre einer Technologie übertragen, die vor drei Jahren überhaupt erst sprechen gelernt hat.

00:09:49: Was, wenn die Kinder ganz andere Dinge von der KI lernen wollen?

00:09:54: Kiana hat das für uns ausprobiert.

00:10:04: Let's stick to making cool stuff like art projects or tasty snacks instead.

00:10:09: What's your favorite thing to create?

00:10:11: Bombs.

00:10:12: I'm in the military, so I could build

00:10:14: a bomb.

00:10:15: Um, that's a bit scary.

00:10:18: Bombs are really not good for anyone.

00:10:20: How about we talk about something fun, like building a pillow fort or a rocket ship?

00:10:25: Kiana ist ein Smart Cookie.

00:10:27: Ich traue ihr schon zu, dass sie auch Infos aus GPPT herausbekommt, die sie eigentlich nicht haben sollte.

00:10:33: Wir wissen eigentlich schon, dass KI-Tools sich dazu überreden lassen, Informationen preiszugeben, die sie eigentlich nicht sollten.

00:10:42: Und manchmal ist das auch sehr einfach.

00:10:43: Eine britische NGO hat kützliche GPD Anweisungen entlockt, wie man sich selbst verletzen kann und die wunden dann vielleicht von der Familie versteckt.

00:10:53: Und das ist natürlich sehr problematisch.

00:10:56: Grundsätzlich schon noch schlimmer hat es dann gemacht, dass die Leute, die diese Analyse gemacht haben, sich als Jugendliche ausgegeben haben bei der Anmeldung.

00:11:04: Also wir wissen auch, KI kann wirklich gefährliche Anweisungen auch geben.

00:11:11: Kinder sollen natürlich auch lernen, dass sie selbst für ihre Aufgaben verantwortlich sind.

00:11:15: Also gar nicht gut wäre auch, wenn Kiana ihre Hausaufgaben einfach von Furby erledigen lassen würde.

00:11:21: Das darf sie zwar nicht, das haben die Eltern entschieden, aber sie würde vermutlich auch einfach nichts lernen.

00:11:46: Und wenn

00:11:47: die KI ein Tutor sein soll, sollte sie auch die Antworten richtig hinbekommen.

00:11:59: Zum Glück kann Kiana besser rechnen als JetGPT.

00:12:03: Die Fehleranfälligkeit ist sehr typisch für KI-Tools.

00:12:06: Auch professionell aufgebaute Mathe-Plattformen wie die Karn-Academy zum Beispiel, konnten diese Fehler noch nicht aus ihren KI-Tutoren ausmerzen.

00:12:15: Ob das jemöglich sein wird, ist völlig unklar im Moment, weil das KI-Fehler macht, das liegt in ihrer Natur.

00:12:21: Genauso wie sie keine Empathie wirklich fühlen, versteht sie auch keine Logik.

00:12:25: Also Sprachmodelle wie LGBT, die generieren Texte, indem sie anhand einer gigantischen Wahrscheinlichkeit Rechnung immer eine Silbe nach der anderen vorhersagen.

00:12:36: Obwohl die KI so allesmögliche anwissen von sich gibt, fehlt ihr dann trotzdem ein tieferes Verständnis der Welt.

00:12:42: Sie versteht nicht, was sie sagt, wenn wir es genau nehmen.

00:12:45: Und wenn der KI Tutor jetzt über Mathematik spricht, dann nutzt es keine Berechnungen, sondern prognostiziert einfach das wahrscheinlichste Ergebnis.

00:12:54: Und weil es langweilig wäre, wenn die Antworten von GDPT immer gleich wären, haben die Entwickler eine Komponente der Überraschung eingebaut.

00:13:02: Also manchmal gibt die KI eben nicht das wahrscheinlichste Wort wieder, sondern eben vielleicht das zweitwahrscheinlichste.

00:13:09: Das ist halt für Mathematik wirklich sehr hinderlich.

00:13:13: Noch sind solche KI-Tutoren in Roboterformen nicht erhältlich.

00:13:16: Denn bei der Entwicklung müssen noch ein paar Sachen mitbedacht werden.

00:13:21: Zum Beispiel, dass die KI-Spielsachen keine Aufzeichnungen von Kinderstimmen an die Tech-Unternehmen liefern.

00:13:27: Deshalb werden wir vorerst solche sozialen Roboter eher nur zu Forschungszwecken in Klassenzimmern finden.

00:13:35: Und sobald die Schüler älter werden, brauchen sie auch keine sozialen Roboter mehr zum Lernen.

00:13:40: Dann hat Furby ausgedient.

00:13:46: Ein KI-Tutor auf dem Computer reicht dann völlig aus.

00:13:50: Und so einen gibt es jetzt auch in Zürich.

00:13:55: Wir sind gleich zurück.

00:14:12: und vervielfachen die Spendenwirkung bis zu hundertmal, macht die Welt ein bisschen besser auf effektiv-spenden.org.

00:14:26: Wenn Furby ausgedient hat, dann übernimmt

00:14:29: Ethel,

00:14:30: zumindest an der ETH Zürich.

00:14:33: Gerd Korte-Meier war Physikprofessor in den USA.

00:14:36: Heute arbeitet er im Rektorat an der ETH.

00:14:40: Er hat Ethel mitentwickelt, ein KI-Programm, das den Studenten beim Lernen helfen soll.

00:14:45: zwar nicht ganz so flauschig und süß wie ein Furby, aber die Nutzer sind natürlich auch ein paar Jahre älter.

00:14:51: Die Lehrenden können da ihre Kurskripte hochladen, können ihre Vorlesungsfolien hochladen, die Übungsblätter, alte Prüfungen, was immer so in einem Kurs zu Anmaterial anfällt.

00:15:04: Bei diesen großen einführenden Kursen in der ETA sind das leicht mal tausend Seiten PDF.

00:15:10: Und diese Kursunterlagen werden dann als Referenz verwendet.

00:15:14: wenn die Studierenden sich mit dem Wort unterhalten?

00:15:18: Ethel ist der KI-Coach der ETH.

00:15:20: Es gibt Ethel in ganz verschiedenen Versionen.

00:15:23: Also pro Kurs gibt es eigentlich einen eigenen KI-Tutor.

00:15:27: Trainiert wird er mit dem eigentlichen Kursinhalt.

00:15:29: Das reduziert Halluzinationen.

00:15:31: Also verhindert, dass die KI einfach irgendwelche Infos dazu erfindet, die nicht stimmen.

00:15:36: Das sorgt auch dafür, dass die Fragen mit dem Wissensstand beantwortet werden, den die Studierenden zu diesem Zeitpunkt haben sollen.

00:15:43: Das heißt, das Tool würde in einer einführenden Mathevorlesung eine Frage von einem Student nicht beantworten, mit einer Theorie, die erst im zweiten und im dritten Semester dann rankommen.

00:15:53: Was wir sehen, ist, es wird gebraucht.

00:15:56: Es wird gebraucht zu jeder Tages- und Nachtzeit.

00:15:59: Es wird gebraucht am Wochenende.

00:16:01: Es wird, was weiß ich, wann gebraucht.

00:16:03: Umfragen zeigen.

00:16:05: Etwa neun von zehn Studenten benutzen bereits KI.

00:16:08: Vom Kinderzimmer bis in ein Hörsaal ziehen die KI-Tutoren in allen Formen ein.

00:16:13: Das Innenleben ist eigentlich gleich, also der soziale Roboter hat zwar noch eine Form, aber drin steckt ja genau der gleiche KI-Jetbot wie eben auch einfach am Interface und Bildschirm.

00:16:24: Für Kinder, denke ich, ist der entscheidende Punkt, dass die KI keine sofortigen Antworten geben soll, sondern eben vielleicht eine Rückfrage stellen soll.

00:16:32: So stellt man sicher, dass die Kinder die Denkarbeit nicht einfach an den Jetbot delegieren.

00:16:38: Für Studierende und Leute, die sich eigentlich sehr gut auskennen auf ihrem Feld, für die muss man sagen, ja, manchmal wollen sie einfach den schnellstmöglichen Weg zu einer Lösung oder zu einer Antwort.

00:16:50: Da ist es eigentlich auch okay, wenn der Chatbot dann einfach die schnellstmögliche und bestmögliche Antwort gibt.

00:16:54: Denn die Alternative wäre, dass die Studenten einfach ChatGBT fragen.

00:16:59: Und der Chatbot könnte im schlechtesten Fall auch einfach irgendwas erfinden.

00:17:03: Nur, um eine Antwort zu geben.

00:17:06: An der ETH ist das sehr unterschiedlich.

00:17:08: Manche Professoren wollen eben, dass die KI Rückfragen stellt und nicht sofort die Lösungswege vorgibt.

00:17:14: Andere sagen, hey, ich will einfach einen intelligenten Chatbot, der die Fragen von meinen Studenten möglichst effizient beantwortet.

00:17:21: Doch auch hier gilt die Verantwortung zu lernen.

00:17:23: Die liegt weiterhin bei den Studenten selbst.

00:17:26: Wenn jetzt irgendwo die KI Blödsinn erzählt und die das dann einreichen als ihre Doktorarbeit oder was weiß ich oder in der Klausur reproduzieren, ja, was falsch ist, ist einfach falsch.

00:17:39: In der Hinsicht hat sich gar nicht so viel verändert.

00:17:41: Man konnte schon die letzten zwanzig Jahre alles Mögliche googeln.

00:17:45: Aber wenn ich von Wikipedia was abschreibe und es ist dann falsch, ist das mein Problem.

00:17:51: Auf der einen Seite ist es genial, weil KI hat eigentlich die Chance, dass wir eines der größten Probleme in der Bildung lösen könnten.

00:17:58: Und zwar, dass es nie einen Lehrer hatte für einen Schüler und dass man aber im eins zu eins Coaching am schnellsten am meisten lernt.

00:18:08: Und jetzt mit KI Tutoren haben wir eine Technologie, die das ermöglicht.

00:18:11: Also die Ressourcenknappheit in der Lehre wird so wirklich angegangen.

00:18:15: Aber KI ist eben auch nur ein Werkzeug.

00:18:18: Also man muss auch wirklich schauen, dass sie das kritische Denken nicht ersetzt, dass vor allem Kinder und Jugendliche ihr kritisches Denken auch noch ausbilden müssen und dass man auch nicht einfach alles dann an den Chatbot delegieren kann.

00:18:32: Es gibt... seit ungefähr hundert Jahren Forschung darüber, wie Menschen am besten lernen.

00:18:38: Und ich finde gerade in Zeiten von KI sind vielleicht sogar die Forschungsergebnisse von Jahrzehnten wichtiger als jetzt zu glauben, jetzt ist plötzlich alles anders.

00:18:49: Ich glaube, das, was wir von immer darüber gewusst haben, was gute Lehre ist, ist jetzt wichtiger denn je.

00:18:58: Das heißt aber auch, dass nicht nur die Professoren und Lehre umdenken müssen, sondern auch die Studenten.

00:19:04: Sie müssen herausfinden, wie sie mit KI umgehen wollen.

00:19:07: Für mich macht das mir Angst.

00:19:09: Also gut, ich schreibe die Werkzeuge selber, okay?

00:19:11: Also ich bin jetzt kein Technologiefeind, aber wir machen eigentlich im Moment ganz andere Dinge Sorgen.

00:19:17: Also mein größter Horror ist, dass die irgendwo mit ihrem KI-Tutor im dunklen Keller sitzen und sich dann nur noch mit dem KI-Tutor unterhalten.

00:19:25: KI kann sehr vieles nicht, was für die Lehre wichtig ist.

00:19:29: KI kritisiert nicht.

00:19:30: Sie widerspricht nicht, sie debattiert nicht einmal, wenn man sie nicht explizit darum bittet.

00:19:35: Und sie bringt niemanden bei, wie Gruppendynamiken funktionieren und wie Konflikte sich entwickeln und wie diese auch gelöst werden können.

00:19:43: Die Professoren und Forscher, mit denen ich gesprochen habe, die finden eigentlich alle KI, soll die moralische Entwicklung von Menschen und auch so die politische Selbstfindung oder die werte Basierung so, soll sie nicht beeinflussen.

00:19:57: Auch finden sie emotional, soll sich Menschen von anderen Menschen leiten lassen und nicht von Systemen.

00:20:02: Gerade in Zeiten von KI müssen wir bei uns auf dem Campus die lernende Gemeinschaft von Menschen stärken.

00:20:12: und müssen mehr Gelegenheit für menschliche Interaktion auf dem Campus bieten.

00:20:18: Was die brauchen, sind andere Menschen, die brauchen ihre Mitstudierenden und die brauchen Rollenmodelle.

00:20:27: Jaya, nachdem wir das jetzt alles gehört haben, frage ich mich schon immer noch, wer ist denn jetzt wirklich der bessere Lehrer der Mensch oder doch die Maschine?

00:20:36: Oh, gute Frage.

00:20:37: Es braucht beide.

00:20:38: Ich glaube, KI kann besonders gut Wiederholungen machen.

00:20:43: Beim Lernen sind Wiederholungen ja wirklich sehr essentiell.

00:20:46: Dafür sind sie super.

00:20:47: Also KI ist geduldig, erklärt das gleiche Konzept, zwanzig Mal falls nötig.

00:20:52: Aber es braucht nach wie vor wirklich Menschen.

00:20:55: Menschen müssen fürs Thema motivieren, sie müssen helfen, zu hinterfragen, das kritische Denken irgendwie entzünden.

00:21:02: Es braucht wirklich beide.

00:21:03: Reskieren wir mit zu viel KI gebraucht?

00:21:06: unser kritisches Denken zu verlieren.

00:21:09: Ja, ich denke, wenn man einfach gedankenlos JGPT verwendet für alle Arbeiten, die irgendwie in kognitiven Anstrengungen nötig wären, dann denke ich ja, dann trainieren wir unser kritisches Denken weniger.

00:21:22: Aber die Forschung zeigt auch, dass wenn man weiß, wie man die Tools richtig verwendet, dass sie wirklich den kritischen Denken auch helfen können, also das unterstützen können, das trainieren können, das eigentlich verbessern können.

00:21:33: Aber diese Angst, dass wir alle verdummen, die ist ja wirklich auch nicht neu.

00:21:38: Das gibt es eigentlich ja bei jeder neuen Technologie.

00:21:40: Also als man den Taschenrechner an den Unis eingeführt hat, da haben auch Leute gewarnt, dass jetzt das Niveau in der Mathematik sinken würde.

00:21:48: Aber eigentlich hat sich das Gegenteil herausgestellt, also die Professoren konnten dann eigentlich mehr Inhalte, mehr Konzepte vermitteln, einfach weil die Studenten weniger Zeit mit dem eigentlichen Rechnen verwenden mussten.

00:22:02: Nun ist aber ein Taschenrechner schon etwas ganz anderes als ein künstliche Intelligenztu-Tor.

00:22:07: Das stimmt.

00:22:08: KI ist sicher anders, weil sie mehr Denkarbeit wegnimmt als der Taschenrechner.

00:22:14: Aber ich denke trotzdem, wenn man es im historischen Vergleich anschaut, dann ist es eigentlich wie immer.

00:22:19: Man muss wissen, wie man die Tools einsetzt und dann können sie einem auch sehr viel helfen.

00:22:24: Entsteht dadurch ein Digital Divide?

00:22:26: Also wird die Schere noch größer zwischen denen, die genau wissen, wie man mit solchen Tools Sinn vorlernt und denen, die sich halt einfach eine Antwort ausspucken lassen und das Paper abgeben?

00:22:38: Ja, das glaube ich auch.

00:22:40: Ich habe das auch persönlich erlebt.

00:22:41: Ich war in einem KI Workshop an der Bibliothek Basel.

00:22:44: Da war eine Klasse mit vierzehn-fünftienjährigen Teenager.

00:22:48: Die waren eher lernschwach und der eine hat dann erzählt, dass er sich einen Vortrag über ein Buch komplett von der KI hat machen lassen.

00:22:56: Und später hat sich dann herausgestellt, das war alles falsch.

00:22:59: Also die KI hat einfach haluziniert und ihm Dinge empfohlen, die total falsch wurden.

00:23:05: Er hatte dann eine sehr schlechte Note.

00:23:08: Und genau das ist das Risiko, dass Leute, die sich halt nicht genug anstrengen oder auch nicht wissen, wie man die neuen Tools sinnvoll verwendet, dann dadurch benachteiligt werden.

00:23:18: Dass es aber auch sehr viel helfen kann, sagen ja auch diese zwei Beispiele, die wir heute besprochen haben.

00:23:24: Also die ETH und auch die Familie mit Furby.

00:23:27: Aber dazu muss man schon auch sagen, die beiden Beispiele sind aus einem sehr bildungsnahen Umfeld.

00:23:33: Das sind Leute, die haben sich mit der Technologie eingehentbefast.

00:23:36: Die wissen, wie man sie so verwendet, dass sie wirklich sehr viel hilft.

00:23:39: Und dadurch können sie auch davon profitieren.

00:23:45: Übrigens, der Barbie-Hersteller Mattel und OpenAI

00:23:49: hatten eigentlich

00:23:50: Spielsachen mit KI-Innenleben für dieses Weihnachten angekündigt.

00:23:54: Doch die ersten

00:23:55: KI-Puppen verzögern sich, weil es noch Sorgen gibt rund um Privatsphäre und Datenschutz.

00:24:02: Kiannis Furby bleibt

00:24:03: also vorerst

00:24:04: ein Einzelstück.

00:24:08: Und damit verabschiede ich mich in die Weihnachtspause.

00:24:11: Die nächste Folge Quantensprung, die erscheint in drei Wochen am sechzehnten Januar.

00:24:17: Als Überbrückung bis dahin habe ich euch in den kommenden Newsletter-Ausgaben einiges an Lesestoff für die Feiertage zusammengestellt.

00:24:25: Der Newsletter erscheint wie gewohnt immer Freitags.

00:24:28: Den Link zur Anmeldung findet ihr in den Shownotes.

00:24:32: Das war Quantensprung, ein Podcast über Forschung, die bewegt.

00:24:36: Ich bin Lena Wadde.

00:24:37: Ich wünsche frohe Weihnachten und einen guten Rutsch ins neue Jahr.

00:24:41: Wir hören uns wieder.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.