Superintelligente KI: Wie ChatGPT zum Genie wird
Shownotes
Wie nah sind wir wirklich an einer Artificial General Intelligence (AGI) oder sogar an Superintelligenz? In dieser Folge von „NZZ Quantensprung“ ordnen wir ein, was heutige KI-Systeme leisten – und warum sie trotz rasanter Fortschritte noch weit von menschlicher Intelligenz entfernt sind.
Ausgehend von Aussagen führender KI-Forscher wie Demis Hassabis, Daniel Kokotaijo, Andreas Krause und Yann LeCun diskutieren wir zentrale Fragen der aktuellen KI-Debatte: Was unterscheidet die uns bekannte KI von AGI? Reicht es, bestehende Modelle weiter zu skalieren – oder braucht es völlig neue Ansätze wie Weltmodelle, bessere Erinnerung und effizienteres Lernen? Und welche Rolle spielen Kreativität, Logik und menschliche Erfahrung?
Co-Host: Ruth Fulterer: Technologie-Redaktorin Host: Lena Waltle
In dieser Folge hörst du ausserdem:
- Daniel Kokotaijo, unabhängiger Zukunftsforscher, ehemals OpenAI
- Andreas Krause, Professor für Informatik, ETH Zürich, Vorsitzender ETH AI Center
Du kannst Quantensprung nicht nur hören – sondern auch lesen. Im Newsletter findest du die wichtigsten Fakten aus dieser Folge auf einen Blick und zusätzlich noch weiteren Lesestoff.
Transkript anzeigen
00:00:00: Dieser Podcast wird präsentiert von der Gruppe Mythiel, ihrem Partner für Gesundheit und Vorsorge.
00:00:09: Das ist Quantensprung.
00:00:11: Ein Podcast der NCZ
00:00:13: über Forschung, die bewegt.
00:00:19: Es ist
00:00:29: die große Vision der KI Branche.
00:00:33: Eine Maschine, die das gesamte geistige Können des Menschen abbildet.
00:00:38: Auch die von Demis Hassabis, dem Nobelpreisträger und CEO von DeepMind, Googles KI Labor.
00:00:45: Er sprach vergangene Woche auf einem Panel am Weltwirtschaftsforum in Davos.
00:00:54: Es wäre eine KI, die wirklich kreativ ist, die bahnbrechende neue Ideen hat, die denken kann, wie große Wissenschaftler und Künstler es
00:01:02: tun.
00:01:04: Eine sogenannte AGI, eine künstliche generelle Intelligenz.
00:01:08: Daran arbeiten Google DeepMind, OpenAI, Anthropic.
00:01:13: Und sie gehen noch weiter.
00:01:20: Ihr übernächstes Ziel?
00:01:22: Die Superintelligenz.
00:01:24: Systeme, die den Menschen geistig sogar noch überlegen sind.
00:01:27: Von diesen Genies im Rechenzentrum erhoffen sich die Entwickler enorme Fortschritte.
00:01:33: Während andere, wie KI-Forscher Daniel Cocotayo, vorsichtig
00:01:37: sind.
00:01:40: für alle, depending on the details of how this goes.
00:01:54: Eine künstliche Intelligenz mit solchen Fähigkeiten würde vieles verändern.
00:01:58: Und es könnte in welcher Richtung es geht.
00:02:19: Wir wollen heute wissen, wie sich KI noch weiterentwickeln muss, damit sie zur Superintelligenz wird.
00:02:24: Und was das dann für uns alle bedeutet.
00:02:27: Ich bin Lena Waldler.
00:02:28: Willkommen.
00:02:31: Spätestens seit es Computer gibt, gibt es eben diese Fantasie, wie cool wäre das eigentlich, wenn man den Computer so umbauen könnte oder so weiterentwickeln, dass er uns wirklich anfängt, Arbeit abzunehmen, dass er uns über Trifzachen cooler macht, als wir ... Und jetzt im Moment haben wir eine kleine Renaissance dieser Idee, seit es ChatGPT gibt, seit man das so ausprobieren kann, weil sich das eben so anfühlt, als würde da auf der anderen Seite jemand denken.
00:02:59: Und das hat wie diese Fantasie diesen Traum nochmal neu angeregt.
00:03:02: Meine Kollegin Ruth beobacht es die KI-Branche seit Jahren und hat einen sehr guten Überblick darüber, wo die Entwicklung gerade wirklich steht.
00:03:11: Diese Sprachkai, also ChatGPD, ChatBots, mit denen wir alle interagieren, die kann Frank beantworten und wirkt deswegen vielleicht intelligent, aber es sind sich jetzt schon alle ernst zu nehmen, den Experten einig, dass das nicht AGI ist.
00:03:27: Denn dahinter ist ein System, das mit Wahrscheinlichkeiten arbeitet und eben wenn die KI was weiß, dann weiß sie das anders als ein Mensch.
00:03:34: Also man kann nicht richtig von Wissen reden, wie wir uns das normalerweise vorstellen.
00:03:39: Aber zugleich gibt es natürlich auch andere KI-Systeme, die den Menschen in vielen Dingen schon lange übbar getroffen haben.
00:03:45: Darunter
00:03:45: fällt zum Beispiel das Programm Alpha Fold von Google DeepMind.
00:03:49: Demis Hasabis hat für die Entwicklung dieses Programms, in dem wir den Nobelpreis in Chemie bekommen.
00:03:57: Denn ihr KI-Programm kann vorhersagen, wie ein Protein sich faltet.
00:04:02: Und das viel besser als ein Mensch.
00:04:04: Und ein anderes vielleicht einfacheres Beispiel ist Gesichtserkennung.
00:04:08: Das können Maschinen einfach viel besser als jeder Mensch.
00:04:11: Einfach sehen, wo habe ich dieses Gesicht schon mal gesehen.
00:04:14: Das sind aber alles Narrow AI-Systeme, sagt man auf Englisch, also schmale KI würde man auf Deutsch sagen.
00:04:21: Im Sinn von, dass sie spezialisiert sind und eben nicht generell.
00:04:25: Doch genau von so einer generellen KI, die flexibel in ganz verschiedenen Bereichen gute Ergebnisse bringt, darf von träumen KI-Entwickler.
00:04:33: Dabei können sie sich noch nicht einmal darauf einigen, wie AGI, also Artificial General Intelligence, definiert werden soll.
00:04:40: Aber dass sie unser Leben verändern wird, darin sind sich die KI-Experten einig.
00:04:51: Auch
00:04:51: Daniel Cocotayo.
00:04:57: Falls der Name keine Assoziationen weckt, dann vielleicht seine Geschichte.
00:05:01: Er hat für OpenAI gearbeitet, das Unternehmen hinter JetGPT.
00:05:05: Vor zwei Jahren hat er dort gekündigt und wäre bereit gewesen, auf eine Millionenabfindung zu verzichten.
00:05:12: Nur damit er offen über die Pläne von OpenAI sprechen kann.
00:05:16: Jetzt ist er ein unabhängiger Zukunftsforscher und beschäftigt sich mit der Frage, was passiert eigentlich, wenn es gelingt, eine AGI zu erschaffen.
00:05:29: Kokotayo
00:05:30: vergleicht die KI-Entwicklung mit der industriellen Revolution.
00:05:37: Damals führte der technologische Fortschritt in vielen Fällen zu besserer Lebensqualität.
00:05:46: Wenn es aber gelingt, die Risiken zu vermeiden, sagt er, dann hätte AGI auch so ein Potenzial.
00:05:55: Nehmen wir all die Ideen, über die wir in Quantensprung jede Woche reden.
00:05:59: Sehr viele, sehr intelligente Menschen arbeiten Jahre und Jahrzehnte an diesen Forschungsprojekten.
00:06:05: Sie forschen an neuen Medikamenten, an autonom fahrenden Autos, an der Kernfusion.
00:06:10: Eine AGI.
00:06:11: könnte man in jedem dieser Gebiete als Experte einsetzen.
00:06:15: Es wäre eine unbegrenzte Intelligenzressource, die nie schläft, die nie ist und die nicht für jedes neue Fachgebiet jahrelange Ausbildung benötigt.
00:06:25: Das wäre eine AGI.
00:06:27: Es gibt aber auch eine konkretere Definition von Sam Altman, also dem CEO von OpenAI.
00:06:33: Der sagt AGI ist eine KI, die den Großteil unserer Jobs übernehmen kann.
00:06:39: Aber der KI-Experte Andrew Ang zeigt, dass dann so was wie ein Traktor AGI wäre.
00:06:45: Weil vor der Revolution der Landwirtschaft haben ja neunzig Prozent der Menschen in der Landwirtschaft gearbeitet.
00:06:50: Das heißt, jede Art von großem Fortschritt könnte dann AGI sein.
00:06:54: Demis Hasabis erwartet außerdem ein EGI System, das vor Kreativität nur so strotzt.
00:07:17: Es soll wie Picasso ganz neue Genre erschaffen können.
00:07:20: oder meisterhaft Musikstücke komponieren, wie Mozart.
00:07:28: Das können die aktuellen KI-Modelle nicht, nicht mal annähernd.
00:07:37: Aber wie kommt man von der heute besten KI zu einem Modell, das wir als AGI oder darüber hinaus sogar als Superintelligenz bezeichnen können?
00:07:47: Die Forscher verfolgen dazu verschiedene Ideen.
00:07:52: Erstens.
00:07:53: Die heutigen Systeme besser machen.
00:07:55: Also, dann müssen wir jetzt erst mal unterscheiden.
00:07:58: Künstliche Intelligenz ist ein sehr großer Begriff und eben auch so Sachen wie Alpha Fold oder Gesichtserkennung fallen darunter.
00:08:04: Aber heute sprechen wir jetzt über diese Large Language Models, also diese Sprachmodelle, alles, was hinter GEPT und so weiter steckt.
00:08:12: Und das sind Modelle, die trainiert wurden, um Wörter vorherzusagen.
00:08:16: Also sie trainieren ihre künstlichen neuronalen Netze mit ganz vielen Texten, mittlerweile auch Videos und Bildern aus dem Internet.
00:08:24: Und kommen zu einer Art großen Rechnung, die im Hintergrund läuft und die eben die Fragen beantwortet.
00:08:31: Das hat aber so gut funktioniert, dass sie heutzutage Auch in der Lage sind gewisse Schlüsse zu ziehen und wirklich auch komplexe Aufgaben oft richtig zu beantworten.
00:08:41: So die großen Innovationen in den letzten ja vielleicht so fünf und mehr Jahren, die das ermöglicht haben, sind so erstmal, dass immer mehr Daten reingeflossen sind in diese Modelle.
00:08:54: Zweitens, dass sie immer mehr so Kontext für jede Frage berücksichtigen können.
00:08:59: Und der dritte große Schritt in den letzten vielleicht so ein, zwei Jahren.
00:09:02: ist dieses Reasoning und das ist im Grunde seine Art Selbstgespräch, also das simuliert die KI in Worten so ein Nachdenken und kommt damit auch wieder zu besseren Antworten und macht nicht mehr diese ganz dummen Fehler, die wir vielleicht vom Anfang kennen.
00:09:16: Die Idee der KI-Entwickler ist deshalb noch mehr Daten, noch besseres Training, noch mehr Rechenpower.
00:09:23: Das soll die heutigen KI-Systeme verbessern, denn noch scheitern sie oft.
00:09:27: Und noch etwas anderes ist entlarvend, nämlich die Art, wie die KI scheitert.
00:09:32: Sie sagt nämlich nicht, irgendwie verstehe ich diese Aufgabe nicht, sondern sie erfindet eine Antwort, die plausibel klingt.
00:09:39: Und das zeigt ja auch schon, dass im Hintergrund eben nicht so ein Verständnis der Welt steckt, wie jetzt ein Mensch hat, sondern dass es im Grunde eine sehr fancy Wortvorhersagemaschine immer noch ist.
00:09:50: Die Intelligenz, könnte man sagen, ist eine Simulation.
00:09:54: Vielleicht bracht es auch eine ganz neue Art von KI.
00:10:01: Mit dieser Idee beschäftigt sich auch Andreas Krause.
00:10:04: Ein Punkt, der oft diskutiert wird beispielsweise, ist inwieweit aktuelle Modelle, sowas wie eine Art Weltmodell besitzen, implizit besitzen.
00:10:14: Er ist Professor für Informatik an der ETH Zürich und Vorsitzender des ETH E-Eisentes.
00:10:20: Also Weltmodelle ist sozusagen die Idee, vorher sagen zu können, was die Konsequenz gewisse Handlungen sind, also gewisse kausale Effekte auch beschreiben können.
00:10:29: Worldmodels kann man sich vorstellen als Simulationen unserer Welt, in der die KI-Dinge ausprobieren kann.
00:10:37: Weil im Moment muss man sich vorstellen, die KI interagiert eigentlich mit Text oder sie verarbeitet Text, aber sie war ja nie in einem Raum, also sie hat eigentlich wenig Verständnis.
00:10:48: von unserer Welt und es ist kein Wunder, dass sie keine Kausalität versteht.
00:10:52: zum Beispiel.
00:10:53: Ein Beispiel.
00:10:54: Eine KI generiert ein Video von einer Gymnastikübung.
00:10:58: Die Tonerin macht einen Salto.
00:11:00: Beim Absprung gehen beide Beine in die Luft.
00:11:03: Auf einmal sind es aber fünf Beine.
00:11:05: Und dann bei der Landung wieder zwei.
00:11:08: Und in dem Fall nennt man das zum Beispiel die Objektpermanenz, also irgendwie unsere Intuition des Menschen, wenn es ein Objekt gibt, dann verschwindet das nicht einfach oder wird doppelt und dann wieder alleine.
00:11:18: Also das sind so ganz simple Sachen, Realitäten über die Welt.
00:11:22: Wir Menschen müssen diese Sachen ja auch lernen.
00:11:25: Zum Beispiel ist es recht lustig, wenn man einem Baby unter einem gewissen Alter, das ist so um die acht Monate, Wenn man dem ein Video zeigt, in dem man zum Beispiel eine Flasche von einem Tisch töst und die Flasche bleibt in der Luft sozusagen schwebend hängen, dann gibt es ein Alter, vor dem das Baby das komplett uninteressant findet.
00:11:46: Und dann irgendwann lernen wir Menschen, nein, Dinge fallen runter, es gibt sowas wie Schwerkraft.
00:11:51: Und dann finden wir so Videos total erstaunlich und die Aufmerksamkeit vom Baby steigt.
00:11:56: Und diesen Lernprozess, den wollen KI-Forscher nachbilden.
00:11:59: Und zwar ... sind das dann eben diese Worldmodels.
00:12:02: Und die basieren auf dieser Idee, dass in der KI eine Art Simulation stattfindet, von dem was jetzt als nächstes passiert.
00:12:10: Und dann lernt die KI immer daraus, also entweder das passiert, was sie vorher gesehen hat, oder etwas anderes.
00:12:18: Und dann muss sie sozusagen ihr System updaten, also ihr Weltmodell.
00:12:22: Das heißt, Man hofft, wenn man lang genug verschiedene Sachen simuliert, dass man am Ende eine Art Grundlage hat, wie die Welt funktioniert und auf diese Grundlage immer zurückgreifen kann, wenn man nachdenkt.
00:12:36: Also irgendwie ähnlicher, wie es der Mensch macht und eben nicht nur auf Textbeispiele wie bisher die KI.
00:12:42: Der Mensch lernt noch effizienter und vor allem merkt er sich Dinge.
00:12:47: Ein Beispiel gibt Phänomene, wie das sogenannte Katztrophale vergessen, dass die Modelle, was wir schon mal gelernt haben, wieder vergessen, weil es durch andere Daten überschrieben wird.
00:12:55: KI-Entwickler sind sich einig.
00:12:57: Eine AGI muss sich besser erinnern.
00:13:00: Und sie muss lernen.
00:13:01: Menschen sind viel besser darin, aus... minimale Erfahrungen viel, viel effizienter zu lernen und das gelernt dann auch auf unterschiedlichste Art und Weise zu übertragen.
00:13:12: Viel, viel effizienter sowohl was die Information angeht, aber natürlich auch was den Energieverbrauch angeht, um die auf diese Schlüsse zu kommen.
00:13:21: Erfahrungen und Erinnerungen.
00:13:22: Das sind die Grundlagen für menschliches Denken.
00:13:26: Wir können gar nicht denken ohne den Kontext von Erinnerungen und allem, was wir irgendwann gelernt haben.
00:13:32: Bei der KI ist es aber nicht so.
00:13:34: Und das ist ein Problem.
00:13:35: Und es gibt jetzt vielleicht mehrere Arten, wie man das angehen kann.
00:13:38: Eine, die auch schon ein bisschen gemacht wird, ist wie so eine Art Notizzettel.
00:13:43: Also die KI löst ihre Aufgaben und beantwortet deine Fragen und dann merkt sie sich noch ein paar Stichpunkte über dich, Punkt von Punkt.
00:13:52: Aber das erscheint ja eben eher wie so eine Notlösung und nicht so richtig zielführend, weil bei uns Menschen ist ja auch nicht einfach so eine Liste von Fakten irgendwo, sondern es ist wie Verknüpfter.
00:14:03: Und das ist vielleicht die andere Hoffnung, dass man irgendwie die Systeme so bauen kann, dass das Denken und das Erinnern stärker verknüpft sind, so ein bisschen ähnlich wie in unserem Gehirn.
00:14:14: Da gibt es noch sehr viel an Hardware und ein Software zu forschen und da ist man noch nicht so weit, um dieses Problem zu lösen.
00:14:22: Um noch einen wichtigen Namen in dieser Debatte zu nennen, ist sogar der Meinung, dass es eine Art menschenähnliche KI geben muss, um AGI zu erreichen.
00:14:33: Wir sind gleich zurück.
00:14:43: Wir bieten Ihnen maßgeschneiderte Lösungen für Ihre Gesundheit.
00:14:55: Entdecken Sie jetzt unsere Angebote auf grobmütuell.ch.
00:15:11: Jan Leckhan ist aktuell Chief AI Scientist beim Facebook-Konzernmeter.
00:15:17: Er sagt klar, mit heutiger KI kommen wir nicht zur AGI.
00:15:25: Sein Beispiel, ein siebzehnjähriger kann in zwanzig Stunden Autofahren lernen.
00:15:30: Eine KI schafft das derzeit nicht.
00:15:32: Nicht einmal nach Millionen von Trainingsstunden.
00:15:35: Also vielleicht muss eine KI wirklich mehr wie ein Mensch gebaut sein.
00:15:39: Eigentlich wissen wir das nicht.
00:15:40: Ich meine, wir kennen halt jetzt nur uns oder Tiere als Beispiel für Intelligenzen.
00:15:45: Aber wir haben auch Flugzeuge, obwohl sie nicht mit den Schwingen schlagen wie Vögel.
00:15:50: Also... Natürlich ist es wichtig, irgendwie nicht zu einseitig die Biologie nachzubauen und kreativ zu bleiben.
00:15:56: Aber zugleich ist das Nachbauen der Biologie auch auf eine Art, vielleicht das Einfachste oder die klarste Hoffnung, die wir haben.
00:16:04: Und im Moment tun wir das noch nicht so sehr.
00:16:06: Auch wenn man sagt, KI sei ein neuronales Netz, eine Nachbindung des Gehirns, das sind alles eher so Metaphern.
00:16:13: Aber das Gehirn ist viel komplizierter.
00:16:15: Da ist auch Chemie drin.
00:16:16: Das sind nicht einfach Nullen und Einzen.
00:16:19: Insgesamt sind die Unterschiede zwischen Mensch und KI riesig.
00:16:23: Also wir sortieren ja schon, wenn wir etwas sehen, sortieren wir die Informationen, was wichtig ist.
00:16:28: Wir nehmen jetzt nicht Pixel für Pixel unserer Umgebung wahr.
00:16:31: Und wir sind verbundene Wesen, wir sind eingebettet.
00:16:35: Da kann man wieder an das Beispiel Baby denken, ein Baby zum Beispiel, was die heiße Herdplatte angreift und dann... eben macht es diese Erfahrung von Schmerz und dann kommt der Papa und tröstet es und es ist alles irgendwie sehr stark in der Welt, es ist emotional.
00:16:50: Wir wissen halt wirklich nicht, welche von diesen Punkten, die KI und Mensch noch auseinanderhalten, welche davon jetzt wichtig sind für Intelligenz und für AGI und welche auch egal sind.
00:17:06: Also... Mit Weltmodellen, menschenähnlicher KI, mehr Daten und Erinnerungsspeichern versuchen KI-Entwickler, AGI und Superintelligenz zu erreichen.
00:17:16: Ja, vielleicht gibt es den nächsten Quantensprung in der KI-Technologie.
00:17:21: Es weiß niemand genau.
00:17:26: Ruth, wer haben jetzt die verschiedensten Wege aufgezeichnet, wie künstliche Intelligenz noch leistungsfähiger werden kann?
00:17:32: Aber bis künstliche Intelligenz zur AGI kommt oder sogar superintelligent wird, Bis dahin scheint es mir doch noch ein recht weiter Weg zu sein, wenn man unseren Experten zuhört.
00:17:44: Und dann frage ich mich schon, wie kommt denn die KI-Brosche darauf, dass zwanzig sechsundzwanzig das Superintelligenz-Jahr wird?
00:17:53: Ja, es hat ja schon letztes Jahr geheißen.
00:17:55: oder von Sam Altman, der meinte, wir haben jetzt eigentlich verstanden, wie wir AGI bauen und werden das zwanzig fünfundzwanzig sehen.
00:18:03: Haben wir bisher jetzt noch nicht.
00:18:04: Und ich glaube, man muss sich halt immer daran erinnern.
00:18:07: dass das vor allem Salespitches sind.
00:18:10: Das ist vor allem Marketing.
00:18:12: Wenn man sich anschaut, die Techindustrie versucht eben, die Leute so bei der Stange zu halten.
00:18:17: Es braucht immer einen Hype.
00:18:18: Man muss immer weiter wachsen, die Investoren begeistert halten.
00:18:23: Und ich würde das so ein bisschen in diesem Kontext sehen, wo wir diese Schlagwörter Metaverse, Krypto... AI und dann eben die Agents und dann AJI und Superintelligenz.
00:18:34: Also diese ganzen Wörter, dass es jedes Jahr so was Neues braucht, um uns begeistert zu halten.
00:18:38: Ich würde das alles so in einen Topf werfen.
00:18:42: Das heißt nicht, dass es keine coolen Anwendungen gibt und dass es keinen Fortschritt gibt.
00:18:45: Aber so wie das geframed wird und dass es immer kurz bevorsteht, ich glaube, das ist sehr inspiriert von Werbung.
00:18:52: Aber diesem Hype und dieser Begeisterung gegenüber, da stehen ja noch zwei andere Lager.
00:18:57: Da gibt es diejenigen, die künstliche Intelligenz verfällig unfähig und nutzlos halten.
00:19:02: Und dann gibt es natürlich auch noch die, die wirklich Angst davor haben, was diese Entwicklung bringt und dass künstliche Intelligenz auch viele von uns und unsere Jobs ersetzen wird.
00:19:13: Teilen wir sie mal ein in die Optimisten, in die Duma und dann gibt es noch die Zweifler.
00:19:19: Wer würdest du sagen, wer hat da recht?
00:19:21: Da muss man zuerst mal unterscheiden zwischen KI jetzt und dann dieser anderen Frage AGI und weitere Entwicklung in der Zukunft.
00:19:30: Beim Stand jetzt, würde ich sagen, dass sicher einige Jobs gefährdet sind.
00:19:35: Da habe ich eben selber die Erfahrung gemacht, dass irgendwie vor zwei Jahren, wenn ich KI um irgendwelche Ideen für Titel oder so gefragt habe, dann waren die nie besonders cool.
00:19:45: Und in letzter Zeit kommt mir vor, doch, es ist schon hin und wieder brauchbar.
00:19:49: Und natürlich hat das Auswirkungen.
00:19:50: Und ich habe ähnliches gehört von Grafikern, nicht zu reden von so Übersetzern und, weiß ich, Synchronsprechern.
00:19:57: Da wird es in den nächsten Jahren gewisse Ja, Veränderungen geben im Arbeitsmarkt.
00:20:02: Und natürlich ist die Frage offen, wie wir jetzt damit umgehen, wenn Leute ihre Arbeit verlieren, wie die umgeschult werden, das sind eher gesellschaftliche Fragen.
00:20:10: Die andere Frage und die ist halt, was passiert, wenn wir jetzt auf einmal wirklich AGI oder sowas wie Superintelligenz hätten.
00:20:17: Ich würde sagen, dann würde sich schon alles verändern.
00:20:20: Gut, dann nehmen wir mal diesen Case.
00:20:23: Was würde dann deiner Meinung nach passieren?
00:20:25: Das ist natürlich super schwer voraus zu sagen.
00:20:27: Aber so per Definition würde man dann ja sagen, okay, wir brauchen keine einzelnen Journalisten mehr, sondern wir haben jeweils eine KI, die diesen Job übernimmt, weil man sozusagen alles an Maschinen auslagert, weil die ja sowieso intelligenter sind und das besser machen und wir Menschen konsumieren eigentlich nur noch.
00:20:46: Und das ist wie so eine Vorstellung.
00:20:47: Das
00:20:48: klingt so ein bisschen wie diese Vorstellung aus diesem Kinderfilm Wally, in dem die Menschen nur noch in einem Raumschiff sitzen und konsumieren und alle furchtbar dick und gelangweilt sind, weil das eigentlich nichts mehr für sie zu tun gibt.
00:21:00: Ja, und das ist tatsächlich diese Angst, die wirklich, glaube ich, manche Leute bei Open AI, die treibt diese Angst um, die haben das Gefühl, da müssen wir jetzt aber schon Gedanken machen, weil, was macht der Mensch noch?
00:21:10: Findet er noch Inspiration oder verdummen wir dann alle komplett?
00:21:15: Aber es gibt eben auch noch andere Leute, wie eben dieser Daniel Cocotailo, mit dem ich gesprochen habe.
00:21:20: Und der hat eben auch all das sehr ernst genommen.
00:21:24: Aber dann, sodass geschlossen, na ja, unser Problem ist dann irgendwie nicht, dass wir alle faul werden, sondern das Problem könnte sein, dass vielleicht die K.A.I.
00:21:32: aus irgendeinem Grund nicht mehr kontrollierbar ist und sich dann gegen uns wendet oder dass irgendwie Kriege eskalieren deswegen und man irgendwie super Waffen hat und krasse Dominanz.
00:21:43: Oder auch... Einfach diese Frage, was passiert, wenn alle Jobs von drei, vier Firmen verrichtet werden?
00:21:50: Ist der Rest zu uns glücklicher Konsument oder sind wir dann alles Klafen?
00:21:54: Der denkt halt in den negativen Szenarien.
00:21:57: Er denkt aber eigentlich auch noch diesen Schritt weiter.
00:22:00: Er denkt über eine künstliche Intelligenz nach, die nicht nur dem Menschen ebenbürtig ist, sondern die dem Menschen eigentlich fast schon überlegen ist, also in dieser Superintelligenz.
00:22:10: Macht das dann nochmal einen Unterschied für uns Menschen, für unsere Wirtschaft, für unsere Jobs?
00:22:15: Ich finde das nicht so unüberzeugend.
00:22:17: So Leute wie Ihnen, die sagen, wenn wir so etwas wie eine AGI haben, eine allgemeinfähige Intelligenz und dann multiplizieren wir die total offen und dann sollten die auch sich selbst zu verbessern können, dass es den Menschen übersteigt.
00:22:31: Zugleich ist natürlich die Frage, was soll denn Superintelligenz überhaupt sein?
00:22:36: Ist das was, was man ewig maximieren kann?
00:22:38: Ist das irgendwie ein schnelleres Denken?
00:22:41: Ist das irgendwie noch bessere Ideen?
00:22:43: Das ist ja auch nicht ganz eindeutig.
00:22:45: Und ich glaube, was auch manchmal unterschätzt wird, es gibt ja auch noch die reale Welt, es gibt Rohstoffe, es gibt auch physikalische Gesetze, weil wenn man jetzt einfach davon ausgeht, wenn wir genug Intelligenz haben, können wir alle Probleme lösen.
00:22:58: Ich weiß nicht, ob das stimmt.
00:22:59: Ebenso was wie Nuklearfusion.
00:23:01: Können wir das auf der Erde nachbauen, wenn wir genug Intelligenz haben?
00:23:05: Who knows, so.
00:23:06: Das ist, glaube ich, immer noch offen.
00:23:08: Noch mal zurück zu diesem Thema, dass die künstliche Intelligenz unsere Aufgaben als Menschen ersetzt.
00:23:14: Demis Hassabis brachte zum Beispiel noch das Beispiel, das er gesagt hat.
00:23:18: Seit Jahren können Computer besser Schachspielen als Menschen und trotzdem spielen die Menschen weiterhin Schach.
00:23:27: Ja, das ist... Auf eine Art beruhigen, nicht?
00:23:30: Absolut.
00:23:31: Und zugleich ist natürlich Schachspielen kein Job oder für die meisten Leute ja kein Job, oder?
00:23:36: Und dann ist die Frage, also wenn ich jetzt Designerin bin oder eben Texterin oder vielleicht auch Journalistin und wird dann für mich bezahlen, wenn ich das noch mache, auch wenn es die KI besser kann oder mache ich es dann noch zum Spaß, kriege ich dann ein Grundeinkommen, da ist schon viel offen und zugleich... glaube ich darf man auch nicht zu viel Panik haben, weil eben aus meiner Sicht wird sich das wahrscheinlich irgendwo stabilisieren vor AGI oder wird ein bisschen langsamer alles gehen.
00:24:00: und das haben wir in der Geschichte oft erlebt.
00:24:02: und bisher ist uns immer noch was eingefallen, was die Menschen tun können und wofür wir sie bezahlen wollen.
00:24:08: Aber genau, es ist dann Spekulation auf hohem Niveau, würde ich sagen.
00:24:12: Vielleicht
00:24:13: bekommt ja auch das Label Hand gemacht oder von Menschen gemacht, dann wieder mehr Wert.
00:24:18: Ja, sicher.
00:24:19: Ich glaube, das ist jetzt schon zum Teil so.
00:24:21: Kann man denn diese KI-Revolution überhaupt noch aufhalten?
00:24:25: Ich glaube, das ist schwierig.
00:24:27: Dieser Kokotahilo, der... setzt sich für mehr Transparenz ein und meint, es braucht ein Moratorium und das soll man jetzt langsamer entwickeln.
00:24:36: Aber wenn man sich jetzt den Stand der Welt anschaut, sehe ich das jetzt nicht so, es ist eher dieser Wettlaufgedanke.
00:24:44: Zugleich ist eben auch nicht klar, wie es weitergeht.
00:24:46: Weil das ist mein Problem mit diesem Duhmann, die argumentieren immer sehr so logisch, dass A passiert, dann passiert B, C, da, da, da und das ist nicht mehr aufzuhalten.
00:24:56: Aber ich glaube, die Mensch ist halt viel komplexer als diese kleine Kausalereinfolge.
00:25:01: Und deswegen glaube ich, wir wissen einfach sehr viel nicht und vor allem über die Zukunft.
00:25:07: Danke, Rot.
00:25:08: Danke, Lena.
00:25:09: Ihr könnt Quantensprung nicht
00:25:11: nur hören,
00:25:11: sondern auch lesen.
00:25:13: Im Newsletter findet ihr die wichtigsten Fakten aus dieser Folge auf einen Blick und zusätzlich noch weiteren Lesestoff.
00:25:19: Den Liege zur Anmeldung findet ihr in den Show notes.
00:25:22: Das war Quantensprung.
00:25:24: Ein Podcast über Forschung, die bewegt.
00:25:26: Ich bin Lena Walte.
00:25:27: Wir hören uns wieder nächste Woche.
Neuer Kommentar