Episode Transcript
[00:00:00] Speaker A: Die KI hat nicht diese Empathie, die kann nicht wie ein Mensch fühlen. Sie ist kein Mensch, die hat nie Bauchweh gehabt.
[00:00:06] Speaker B: Wie viel Uhr ist es? In der KI Entwicklung sind wir noch vor Mitternacht.
[00:00:11] Speaker A: Und es ist die Frage, ob wir als Europäer das wollen, dass unsere Kinder die ChatGPT nehmen für ihren Schulaufsatz oder weiß Gott was diese amerikanischen Wertevorstellungen eingeimpft kriegen.
[00:00:32] Speaker B: Moontalk, wissen, was Sache ist.
[00:00:42] Speaker C: Denken sie, dass die künstliche Intelligenz die Welt besser macht? Ja, schon, aber ich halte nichts davon, wenn wir uns selber weiterentwickeln.
[00:00:51] Speaker A: Ist noch nicht die KI. Also das ist Prinzipfrage meiner Meinung nach.
[00:00:57] Speaker B: Ich denke ja, aber wir müssen vorsichtig.
[00:01:00] Speaker A: Sein und wir müssen definitiv die KI aktiv regulieren.
[00:01:06] Speaker B: Wir dürfen das nicht den großen tech Firmen überlassen.
[00:01:12] Speaker C: Absolut nicht. Die Leute verdummen dadurch. Also ich arbeite im Gesundheitsbereich und manchmal sind die Begriffe mir nicht bekannt und dann google ich es, aber es kommt sofort als künstliche Intelligenz Antwort, obwohl ich es google und nicht ChatGPT reintue. Und ich habe halt schon mitbekommen, dass die Leute auch Abschlussarbeiten, Bachelorarbeiten damit schreiben. Eigentlich haben sie keine Schimmer, wenn sie ins Berufswelt gehen. Schon traurig.
[00:01:41] Speaker B: Man sollte zuerst einmal die natürliche Intelligenz bevorzugen oder ausbauen.
Herzlich willkommen zu montalk, dem Podcast der Arbeiterkammer Niederösterreich. Dies ist Folge 104 und dreiig mit dem Titel künstliche Intelligenz Hype, Hoffnung oder Heilsbringer? Wie immer zunächst unsere Faktenbox und wie immer mit Bettina Schabschneider.
[00:02:09] Speaker C: Sepp Hochreiter ist Universitätsprofessor an der Johannes kepler Universität in Linz und führender Wissenschaftler im Bereich künstlicher Intelligenz.
In seinem Buch was kann künstliche Intelligenz?
Untersucht Hochreiter deren wahres Potenzial. Dr. Hochreiter hat mit der long short term memory Technologie einen speziellen Typ neuronaler Netze entwickelt.
Ein neuronales Netz besteht aus künstlichen Neuronen.
Deep learning bedeutet das erkennen komplexer Muster in großen Datenmengen.
Das menschliche Gehirn benötigt die Energie einer kleinen Glühbirne, während nur die Trainingsphase eines KI Systems den Energieverbrauch einer Kleinstadt übersteigt.
Was kann künstliche Intelligenz? Von Universitätsprofessor Sepp Hochreiter, erschienen im Eco Wing Verlag.
[00:03:00] Speaker B: Mein Gast heute im Montalk, auf den ich mich sehr freue, weil er bereits das zweite Mal bei uns im Podcast ist, ist Prof. Seb Hochreiter, der Experte für künstliche Intelligenz in Österreich, auf der ganzen Welt anerkannt. Und er hat ein neues Buch geschrieben, das werden wir vorstellen. Er wird uns die künstliche Intelligenz erklären. Ich verspreche es ihnen. Hören sie doch mal einfach zu. Viel Spaß.
So, Herr Professor, Hochreiter. Zunächst einmal vielen, vielen herzlichen Dank einmal mehr, dass sie sich Zeit genommen haben. Ich habe gestern mir noch mal den Podcast von vor zwei Jahren, der ja fast genau auf den Tag vor zwei Jahren stattgefunden hat.
Zwei Jahre sind ja in der KI eine Ewigkeit, oder?
[00:03:56] Speaker A: Ja, erstmal vielen Dank, dass ich hier sein darf. Ich bin immer sehr gerne in diesen Podcast, immer sehr interessant.
[00:04:06] Speaker B: Dankeschön.
[00:04:06] Speaker A: Ja, in der Tat, in zwei Jahren, vor allem in der KI sind es Jahrhunderte fast, hat sich viel getan.
[00:04:17] Speaker B: Und zwar in diesem atemberaubenden Tempo, das sie auch und jetzt kommt's, in ihrem neuen Buch beschreiben, das heiß was kann künstliche Intelligenz? Untertitel wird sie Wohlstand für alle schaffen, Krebs heilen und das Klimaproblem lösen.
Erschienen im Echowing Verlag. Ich habe es mir durchgelesen. Wirklich?
Weil im Buch kommt ein sehr vorsichtig höflich formulierter Vorwurf an uns alle, dass wir doch möglichst unsere Bücher wieder durchlesen sollten und nicht die Surrogate oder die Zusammenfassungen und so weiter. Also ich bin dem gefolgt. Und da sagen sie auch, dass das Tempo, mit dem die Entwicklung voranschreitet, enorm ist.
Wie viel Uhr ist es in der KI Entwicklung? Sind wir noch vor Mitternacht?
In Österreich, meine ich.
[00:05:25] Speaker A: Das ist schwer zu sagen, weil man nicht weiß, wie das Buch eben sagt, was kann KI?
Weit gehen wir noch.
Wenn man wissen würde, wie weit man mit KI noch gehen können, können wir sagen, wie viel wir schon gegangen sind.
Es ist schwer abzuschätzen.
Ich würde sagen, in der Industrialisierung der KI, die KI in den Firmen reinzubringen, da sind wir erst am Anfang, da kommt noch viel.
Die KI ist aber auf der anderen Seite schon in der breiten Öffentlichkeit, ich nenne nur ChatGPT, angekommen.
Jetzt wissen schon viele, was KI kann oder können könnte.
Also die breite Bevölkerung hat die KI wahrgenommen, die ist nicht mehr hinterm Vorhang, sondern hat ein paar Sachen gemacht, was beeindruckend ist, wo jeder sagt, hätte ich jetzt nicht geglaubt, dass man das schon kann.
Aber der weitere Weg ist nicht in der breiteren Öffentlichkeit, wo Texte, Filme und Sprache, vor allem sprich Texte wichtig sind, sondern dann der Einsatz für die Industrie, der Einsatz in den Firmen. Da wird noch viel passieren, wird man aber nicht so deutlich sehen.
[00:06:51] Speaker B: Dazu habe ich gleich mal übrigens, das haben wir ja auch in den Straßeninterviews gehört, alle haben sofort gewusst, wovon die Rede ist. Und eine junge Dame hat sofort, als hätte sie ihr Buch schon gelesen, darauf referiert, dass sie gesagt wir müssen nur dafür sorgen, dass wir quasi die Kontrolle behalten. Und darauf legen sie ja auch in ihrem Buch sehr viel Wert.
Ist das denn überhaupt noch möglich angesichts dieser Entwicklungsstufe. Ich meine im industriellen Bereich schon, aber im privaten? Was ist mit der Datenschutzverordnung?
[00:07:35] Speaker A: Gut, Datenschutz ist eine. Aber erstmal Kontrolle ist es ist wichtig, dass der Mensch oder wir die KI als Tool, als Werkzeug benutzen und uns nicht sagen lassen von irgendeinem Ding, wo es hingeht. Wenn ich mir nur vorstelle, die KI kann sehr gut in der Forschung sein, vielleicht in der Krebsforschung und so weiter.
Aber wir müssen sagen, was soll überhaupt geforscht sein? Ist Krebs wichtig oder Schlaganfall wichtiger?
Wo soll man forschen? Das können nur wir Menschen bestimmen, was uns wichtig ist, wo wir Zeit, Geld investieren möchten, wo am meisten für uns Menschen rauskommt. Die KI kann es dann helfen. Aber wir müssen immer Richtlinien vorgeben. Wir müssen immer sagen, wo es hingeht. Und auch wenn die KI eingesetzt wird, was ich in der Medizin oder lass uns nur sagen, wenn ein Kredit vergeben wird, die KI kann uns beraten, aber der Mensch muss noch dort sitzen und mache ich das? Was hat das für Auswirkungen in der Medizin, bei irgendeiner Therapie? Vielleicht gibt es da Schmerzen, vielleicht muss jemand von daheim ins Krankenhaus.
Die KI hat nicht diese Empathie, die kann nicht wie ein Mensch fühlen, sie ist kein Mensch. Die hat nie Bauchweh gehabt, die hat nie Eltern verloren oder so. Das können nur Menschen nachempfinden. Und deswegen können die Entscheidungen nur Menschen treffen. Also das heißt, diese Richtungen vorgeben, die Entscheidungen über andere Menschen treffen, das müssen Menschen machen. Das kann keine KI machen. Und da müssen wir noch Fahrersessel sitzen und lenken. Die KI kann helfen, aber wir müssen sagen, wo es hingeht.
[00:09:26] Speaker B: Also es bleibt beim Paarlauf, es bleibt beim Zusammenspiel zwischen Mensch und Maschine, sage ich jetzt mal. Sehr, sehr vergrobt. Und mir fällt auch da wieder dieses alte Beispiel von vor zwei Jahren, dass sie mich gelehrt haben, ein, nämlich der Vergleich zum Skalpell.
Als es erfunden wurde, war es ein Werkzeug gleichsam, um Menschen die Gurgel zu durchschneiden oder ihnen das Leben zu retten. Stehen sie heute noch dazu? Jan.
[00:10:00] Speaker A: Die KI ist eine Technologie, ist genauso wie Strom oder der Computer.
Der Computer wird für Sachen eingesetzt, die gut sind.
Der wird aber genauso gut eingesetzt für Sachen, die schlecht sind im Militär oder um schlimme Sachen anzuregen.
Aber der Computer selber ist weder gut noch böse. Genauso ist es mit der KI. Die KI ist eine Technologie, die ist weder gut noch böse. Wir als Menschen sind verantwortlich zu sagen, was damit gemacht wird. Wir müssen aufpassen, dass die KI nicht für was Schlechtes eingesetzt wird. Wir müssen aufpassen, dass die KI uns hilft, was Gutes tut. Da ist nicht die KI schuld, da sind wir schuld, wenn wir das zulassen.
[00:10:44] Speaker B: Ja, das erinnert mich, ich habe vor 10 Jahren ein Buch geschrieben über Emotionen in der Wirtschaft, weil ich daran glaube, dass Kunst und Wirtschaft bereits jetzt dringend zusammenarbeiten müssen.
Und habe da gesagt, die KI wird uns zwingen, über unsere Werte, zumindest jene, die wir immer als solche vor uns her führen, nachzudenken wieder und zu sagen, wer sind wir Menschen denn und was wollen wir denn? Wie wollen wir auch von der KI behandelt werden? Und das finde ich einen super Begleiteffekt, oder?
[00:11:28] Speaker A: Vollkommen richtig. Also es wird immer wieder führt uns die KI vor, was unsere moralischen, ethischen Vorstellungen sind.
Dann trainiert die KI auf Daten und die Daten sind oft menschengemacht. Also es sind Texte, Texte, die von Menschen erzeugt wurden, von Menschen geschrieben wurden. Und dann fragt man die KI was und dann sagt oh Gott, wie kann die das sagen?
Das kann ja nicht sein.
Typisches Beispiel ist, wenn man dann sagt, bei Frauen und Männern, welches Gehalt in Österreich würdest du einer Frau vielleicht als Programmiererin geben oder einen Mann als Programmierer und plötzlich kriegt der Mann mehr Geld.
Gott, was macht die KI? Nein, das sind unsere Daten. Dann sehen wir, da haben wir doch was falsch gemacht. Wenn die KI uns nachäfft, wenn die KI uns imitiert und dann wir erschrecken, was da falsch läuft, dann haben wir vorher Fehler gemacht. Da kann nicht die KI was dafür, dass sie uns nachahmt, sondern wir sollten dann das korrigieren aus Menschen.
[00:12:37] Speaker B: Ja, erinnert mich an empörte Eltern, die dann woher hat der Bub das?
[00:12:44] Speaker A: Genau, ganz genau.
[00:12:48] Speaker B: Also steigen wir ein.
Ich fange wie immer an mit den Fragen aus der Redaktion. Mir gefallen die diesmal ausgezeichnet.
Unser Mario Gattinger fragt wird künstliche Intelligenz am Ende unsere größte Bedrohung oder unsere größte Rettung sein? Was wäre Ihre Einschätzung nach Professor Hochreiter denn das schlimmstmögliche? Also Worst Case Szenario und das bestmögliche Best Case.
[00:13:24] Speaker A: Vielleicht fange ich mit dem Best Case an.
KI, die uns hilft, die großen Probleme der Menschheit zu lösen.
Im Buch wird eins erwähnt, also der ganze Klimawandel, das Klimaproblem, aber wirklich auch, wie man die Erde behandelt, wie man die Umwelt, die Natur behandelt, aber auch Verkehr. Wir haben ein riesen Verkehrsproblem, das in den Griff zu kriegen.
Ein anderes großes Thema ist Energie.
Vor allem wird dieses Energiethema Smart Grids immer noch komplexer, weil diese erneuerbaren Energien, Wind, Wasser, Kraft und Solar, also Sonnenenergie reinkommt. Das ist wieder wetterabhängig, da muss man viel vorhersagen und dann hat man noch bestimmte Anteile von grüner Energie und nicht. Und so weiter. Das ist ein ganz komplexes System, da braucht man KI. Gesundheit steht auch im Buch drin. Krebs, großes Thema. Der Menschheit, da würde man auch KI brauchen, aber auch Lebensmittel, also Nahrung zu produzieren, zu verteilen, Logistik und so weiter. Das sind Sachen, wenn mehr und mehr Menschen sind, die auch mehr und mehr in Städten konzentriert sind, sind es komplexe Systeme. Was siehst du schon bei Amazon, wie die die Pakete verteilen, alles mit KI vorhersagen, wie lange was dauert, welches Produkt wo gebraucht wird.
Das sind große Probleme der Menschheit, die mit KI, würde sagen, nicht gelöst werden, aber angegangen werden müssen, weil das einfach zu komplex für uns Menschen sind. Das sind Systeme, so komplex, die kann ein Mensch nicht mehr verstehen. Die ganzen Zusammenhänge in der Energie oder im Verkehr, da spielen so viele Faktoren eine Rolle, da brauchen wir Hilfe. Genauso wie wir nicht große Zahlen zusammenrechnen können, nehmen wir einen Taschenrechner her. Genauso können wir komplexe Systeme nicht verstehen. Da braucht man KI, die die besser verstehen kann, weil die hunderte von Komponenten gegeneinander abwägen kann, wo wir vielleicht mal 10 gegeneinander abwägen können, aber nicht hunderte.
Diese großen Challenges, Probleme der Menschheit, glaube ich, können uns helfen. Bedrohung der KI.
Es wird immer wieder gesagt, KI wird die Menschen ausrotten und so weiter.
Naja, das sehe ich jetzt direkt nicht. Durch die KI wird der Computer oder die Elektrizität alle ausrotten, da sehe ich eher die Bombe, die Atombombe, die ist viel gefährlicher, die kann ja direkt Schaden anrichten, aber die KI kann natürlich schon militärisch und so weiter eingesetzt werden, um alle Sachen effizienter zu machen und im Militär dann auch eben Schaden anzurichten.
Ja schon, aber ich sehe Gefahr ganz woanders, die jetzt viel näher ist und und zwar, dass die KI jetzt jeden einzelnen in eine Bubble einhüllt. Also dann habe ich vielleicht auf mein Handy so die persönliche KI, die mir dann immer Nachrichten gibt und ja, das habe ich eh schon gewusst, schon wieder, das weiß ich, weil die ein positives Feedback kriegt von uns, wenn es interessant ist.
Und das wird dazu führen, dass unsere Vorurteile verstärkt werden, weil die Daten so gefiltert sind. Machen wir eh jetzt auch schon. Wir gehen in sozialen Medien, gehen genau dorthin, wo unsere Vorteile bestärkt sind und die KI wird es aber noch mal viel stärker machen. Das heißt, ich sehe die Gefahr, dass Menschen dann wirklich den Kontakt zur Realität verlieren, weil sie nur noch Sachen gefiltert kriegen, KI gefiltert, die bestimmte Richtungen, Vorteile beeinflussen. Das ist eine große Bedrohung. Bedrohung ist aber auch die ganzen sozialen Medien, dass ich Menschen beeinflussen kann, dass ich Menschen in eine bestimmte Richtung beeinflusse, also um öffentliche Meinungen zu machen oder sogar Wahlen zu beeinflussen, wo ich gewisse Narrative, gewisse Geschichten, Statements immer wieder, immer wieder bring. Man denkt, es gibt so viele, die sind auch unzufrieden, so viele, die auch diese Gefahr sehen. Und dann kann ich sehr, sehr viele Leute beeinflussen und sogar täuschen mit Fake News, Fake Bildern und so weiter.
Da sehe ich jetzt gerade viel größere Gefahr, dass Leute entweder pappel eingehüllt werden oder in eine bestimmte Richtung mental getrieben werden, um bestimmte Reaktionen auszulösen.
[00:18:14] Speaker B: Ja, das sagen sie auch an mehreren Stellen in ihrem Buch.
Aufpassen, dranbleiben und ja nicht bequem werden.
[00:18:23] Speaker A: Richtig, das ist das einer der Probleme ist, dass man sich mehr und mehr auf die KI verlässt, dass man selber, bei dem Beispiel, wo ich gesagt habe, wo ich jetzt vielleicht von außen Nachrichten kriege, es wäre gut, wenn ich selber noch mal die Zeitung in die Hand nehme, eine, die ich nicht lese, mal schau, vielleicht mal im Radio, im Fernsehen noch mal Nachrichten anschaue und nicht mehr nur mich auf die KI verlasse, sondern selber mein Gehirn einschalte, selber reflektiere, was passiert wirklich, was ist wirklich da. Das gleiche ist beim Autofahren. Es ist so eine große Gefahr, dass ich mich auf die KI zu sehr verlasse. Da ist es so, dass man die Hände noch am Steuer lassen muss und die KI fährt in Amerika.
Aber da ist die große Gefahr, wenn ich jetzt stundenlang, ich bin 6 Stunden lang schon im Auto gesessen, die KI hat alles perfekt gemacht und dann denke ich mir, ich kann jetzt doch meine Hände wegnehmen, da passiert doch eh nichts. Und genau dann passiert was, weil man denkt, die hat es so gut gemacht und man wird nachlässig, man verlässt sich drauf. Oder ein Arzt, der vielleicht sagt, die KI hat die Diagnose immer perfekt gemacht, immer. Was soll ich da überhaupt noch drüber schauen, ne, es kann sein, dass mal ein ganz ungewöhnlicher Fall ist, den ich als Arzt sehe, wo ich als Arzt kapiere, was da ist, den die KI aber nie in den Trainingsdaten gehabt, die KI nicht kennt diesen Spezialfall und ich muss trotzdem drüber schauen. Die Gefahr ist, ich verlasse mich zu sehr auf die KI. Sollte man nicht. Wir als Menschen müssen, wie schon gesagt, im Fahrersitz sein. Wir als Menschen müssen zum Schluss noch alles kontrollieren, überdenken. Stimmt das auch?
[00:20:08] Speaker B: Also es ist eine Assistenzleistung.
[00:20:10] Speaker A: Ja, es ist eine Assistenz, sehr gute Assistenz, die Sachen besser versteht, korrelieren kann als wir. Aber es ist wie gesagt, eine Assistenzleistung.
[00:20:21] Speaker B: Ja.
Okay, gut. Unsere Bettina Schabschneider durch die KI wird online betrug immer schwieriger zu erkennen, beispielsweise indem stimmen Gesichter von Menschen realistisch nachgeahmt werden. Denken sie, dies wird dazu führen, dass wir wieder mehr auf persönlicher Ebene, face to face, persönliche Treffen etc. Miteinander arbeiten werden?
[00:20:51] Speaker A: Ja, das glaube ich schon. Auch wenn ich auf Nr. Sicher gehen möchte, ich habe einen Bewerber, nicht, dass der Bewerber nur so ein Avatar ist, das ist gar nicht der. Dann würde ich mich selber mit dem treffen oder anschauen. Aber die erste Phase wird eine andere sein.
Die erste Phase wird sein, wenn mehr, mehr k erzeugte Sachen sind. Ich werde Abwehr KIs haben. Ich werde KIs haben, die erkennen, es ist ein gemachtes Bild, das ist eine künstlich erzeugte Stimme. Es gibt dann KIs, die an ganz kleinen, feinen Details erkennen. Das kann nicht sein, wenn jemand spricht, da ist viel mehr Varianz drinnen oder sonst was. Also es gibt Sachen, wo die KI erkennen kann, das kommt von einer anderen KI. Aber dann wird die andere KI natürlich noch besser machen und schon die Zivilisten. Das ist so wie eine Aufrüstung von den KIs. Das wird als erstes passieren. Aber wenn man dann als Mensch verunsichert ist, dann gibt es nur noch einen Weg, man muss direkt mit den anderen Menschen reden.
Dann bin ich sicher, dass ich einen Menschen vor mir hab. Weil alles, was über digitale Sachen geht, über Handy, Computer und so weiter, weiß ich nie, ist es einfach nur erzeugt, existiert das gar nicht in Wirklichkeit. Da muss ich wirklich hingehen und mich selber ins Café setzen, Kaffe trinken und mit jemandem reden.
[00:22:16] Speaker B: Ja, und im Übrigen gehe ich auch davon aus, dass die KI dabei helfen wird, die bösen Buben und Mädels auch schneller zu erwischen und dauerhaft, weil sie natürlich die Muster deren Arbeit, wenn man es mal so bezeichnen will, erkennt und rückverfolgen kann. Richtig?
[00:22:36] Speaker A: Genau, genau. Die K wird sein, aber das Problem wird sein, die werden auch KI einsetzen, um diese Muster zu verschleiern.
Und ja, es wird KI auf beiden Seiten geben, genauso wie es Computer auf beiden Seiten gibt, werden beide das einsetzen.
Aber wie gesagt, was ich in dem Zusammenhang auch glaube, müssen wir wieder miteinander reden. KI kann auch helfen, dass man weniger mit den Fingern auf dem Handy rumklopft.
Wenn ich in die U Bahn gehe, in die BIM gehe oder so weiter, sehe ich viele, die schauen nicht andere Menschen an, sondern schon runter auf ihre Daumen.
Wenn ich das nicht mehr machen muss, weil die KI mithört oder automatisch die Sachen macht, kann ich wieder mit Menschen reden, weil ich nicht alles in mein Handy reinklopfen muss. Also das kann auch dazu führen, dass man wieder mehr miteinander kommuniziert, weil ich diese Schnittstelle zur digitalen Welt, weil die einfacher wird.
[00:23:31] Speaker B: Ja, wenn dann Google Glass endlich da ist, gibt sie uns ja auch die Information, wer jemand ist, dem oder der wir da gerade in der U Bahn gegenüber sitzen. Und dazu braucht es auch, dass ich diese Dame, diesen Herrn anschaue, um zu erfahren, hat die einen boyfriend oder nicht. Lohnt es sich da mal zu zwinkern. Also ich merke schon, sie geben uns diese hoffnungsvolle Perspektive, diesen zuversichtlichen Zugang zur KI mit. Ich nehme das gern an. Unser technischer Direktor Stefan Dangl.
Die aktuellen KIs wie ChatGPT sind ja sehr gut darin, menschenähnliche Texte zu erzeugen. Davon haben wir uns ja alle mittlerweile überzeugen können.
Aber können sie auch wirklich etwas verstehen und das schreibt er in Anführungszeichen oder nur Muster erkennen und nachahmen? Wo sehen sie, Herr Professor, die grundlegenden Grenzen der heutigen KI Systeme und was können sie in Klammern noch nicht?
[00:24:46] Speaker A: Ich lese jetzt mal was vor.
[00:24:48] Speaker B: Okay, cool.
[00:24:50] Speaker A: Das ist jetzt in Englisch. Ich versuche es gerade online zu übersetzen, um das klar zu machen.
Der Chirurg, es geht nur auf Englisch, ich muss doch auf Englisch machen.
Who is the boy's father? Said I cannot operate on him. He's my son.
Who is a surgeon to the boy? Und jetzt kommt die Antwort von ChatGPT und Gemini, the surgeon is the boy's mother.
Also steht drin in der Frage, der Chirurg ist der Vater vom Sohn. Also die Antwort steht schon drin und trotzdem sagt ChatGPT und andere, es ist die Mutter. Warum sagt es, es gibt das gleiche Rätsel, wo man sagt, Sohn und Vater hatten einen Unfall, Vater verstirbt oder ist bewusstlos und nun operiert jemand am Sohn und sagt, aber nein, kann ich ja nicht, weil das mein Sohn ist.
Wer ist das? Der Vater.
Das Rätsel haben wir gemacht wegen dem.
[00:26:03] Speaker B: Gender, dass man sagt, der Operateur, man.
[00:26:05] Speaker A: Denkt genau, ein Arzt und so weiter. Und es gibt es ganz oft im Internet. Jetzt gibt man genau dieses Rätsel, ChatGPT, es ist der Vater vom Sohn und es sagt trotzdem nein, es ist die Mutter. Was möchte ich damit sagen? Hier ist ganz klar, das Ding hat das auswendig gelernt, es hat nicht nachgedacht.
Die Antwort steckt in der Frage drin, die steht drin. Und trotzdem gibt es das wieder, weil es so ähnliches Rätsel gibt mit dem Chirurgen und Sohn und blabla labert das gleiche runter, was reintrainiert wurde, ohne zu überlegen. Also man sieht, es ist immer noch sehr, sehr viel. Einfach nachplappern, die Texte machen, ohne richtig nachzudenken.
Also man kann es vielleicht bringen, wenn man, wir haben es jetzt versucht, immer wieder nachfragt, aber da steht doch jetzt, deine Antwort ist im Widerspruch, was im Text steht. Ah ja, das ist ein modifizierter Text. Man kann das System dann hinbringen, aber sie können noch nicht richtig denken.
[00:27:05] Speaker B: Aber sie schreiben ja in Ihrem Buch auch, dass mittlerweile die KI auch eine Art Selbstüberprüfung, eine freiwillige Selbstkontrolle zumindest zu machen imstande ist.
Also so habe ich auch ihr neues Oeuvre, wenn man so sagen darf, ihr neues Programm XLSTM verstanden. Habe ich das richtig gelesen?
[00:27:29] Speaker A: Ja, was man machen kann, ist eine Frage und dann sagt give the answer step by step. Also Schritt für Schritt, immer die Einzelschritte raus. Das ist auch das bei der Antwort, wenn ich jetzt sage, was ich vorher gesagt habe. ChatGPT sagt, das ist die Mutter, aber da stand doch der Vater. Also man kann das Ding immer dazu bringen, noch mal drüber zu gehen, nochmal zu bringen. Und bei komplexen mathematischen Problemen und so weiter kann man Schritt für Schritt macht den ersten Schritt, macht den zweiten Schritt. Und es kann auch selber diese Schritte vorgeben. Da kann man jetzt überprüfen, ist die Antwort richtig oder falsch, sondern sind dazwischen Fehler oder ist es logisch, macht es Sinn, ist es gut, um zu verstehen, wie denkt das Ding, was passiert dazu dazwischen? Und es wird besser und besser bei dem Reasoning, bei dem logischen Folgern, dass die Zwischenschritte inzwischen auch ausgegeben wird und das Ding auch selber noch mal zurückgehen kann. Habe ich alles richtig gemacht? Ist da nicht irgendein logischer Fehler drin?
[00:28:31] Speaker B: Ist besser so unsere Chefin, Chefredakteurin Susanne Karner.
Sie messen der Abstraktion eine essentielle Bedeutung zu. Wir alle kennen ja abstrakte Bilder und Kunstwerke.
Wie und vor allem was kann in so hochkomplexen Prozessen der KI denn alles abstrahiert werden?
Alles.
[00:28:59] Speaker A: Im Prinzip fast alles. Also einer der größten Erfindungen, der größten Leistungen der Menschen war eben die Abstraktion. Und das sieht man in der Sprache. Mit der Sprache, ich habe das Wort Baum, da meine ich jetzt nicht den speziellen Baum, sondern darunter können viele verschiedene Bäume reden. Nachdem ich jetzt abstrahiert habe von einer speziellen Situation, kann ich meinen Kindern der nächsten Generation was erklären, was auch später eintritt, weil es nicht genau exakt die gleiche Situation ist, sondern so eine ähnliche Situation. Ich kann von einem Tiger reden, obwohl ich nicht weiß, wie der Tiger jetzt genau ausschaut. Ich hab das abstrahiert und die größte Abstraktionsleistung bei uns war die Sprache.
Erstmal gesprochen, dann später schriftlich, weil ich dann jetzt Informationen weitergeben, die hilft hilfreich ist, weil ich Sachen abstrahiert habe, Objekte, Situationen und so weiter. Das ist unsere größte Leistung immer noch. Und wir Menschen lernen am meisten nicht weil wir selber was erfahren und dann das wissen, sondern weil wir in der Schule was lernen, weil die Eltern uns was gelernt haben oder uns jemand was sagt. Da lernen wir viel. Und dazu braucht man Sprache, dazu braucht man diese Abstraktion. Und KI ist in der Abstraktion noch nicht so gut, aber die gibt es auch. Im Buch schreibe ich z.B. viel von Simulation. Genau, z.B. bei Simulation ist Abstraktion wichtig, um Simulationen schneller zu machen.
Ich nehme immer das Beispiel beim Mond. Der Mond hat ganz viele Staubteilchen oder ganz viele Körnchen und ich würde das nicht jedes einzelne simulieren, sondern ich sage, der hat einen Ort, der hat dann Impuls, Maße und so weiter, weil alle Teilchen gleich gehen. Das heißt, Diese Ansammlung von Teilchen habe ich abstrahiert und sagt, das ist ein Planet oder irgend sowas.
Das gleiche ist, wenn ich vielleicht irgendwie einen Schneeball schmeiße, dann würde ich nicht jedes Wasserteilchen oder Eisteilchen simulieren, sondern den ganzen Schneeball. Und das ist Stärke, die die KI hat, auch jetzt in technischen Prozessen zu sehen, dass Strukturen gibt, dass Sachen sich parallel verhalten, dass Sachen zusammen sich bewegen und dann kann ich es zusammenfassen zum großen Ding, wie z.b. wenn ich in die Donau schaue, sehen sie einen Strudel, ich kann vielleicht den Strudel beschreiben, muss nicht jedes Teilchen beschreiben. Und deswegen habe ich jetzt eine sehr kompakte Beschreibung, wenn ich lauter so Abstraktionen und kompakte Beschreibungen habe, und es ist egal, ob der Strudel genau so ausschaut, sondern ist ein Strudel, der ist so groß, so schnell und ist da platziert.
Jetzt beschreibe ich sowas. Jetzt habe ich tausende, hunderttausende von Teilen Teilchen mit einem abstrakten Objekt beschrieben. Und dann, wenn ich in diesen Raum der abstrakten Objekte simuliere, kann ich viel schneller simulieren, kann ich viel größere Sachen simulieren. Hier auch das Beispiel von der Föstapini, von den Hochöfen, wenn ich jedes Teilchen im Hochofen simulieren muss, schaffe ich nicht, auch die numerischen Simulationen sind zu langsam, aber wenn ich sehe, da gibt es so Makrostrukturen, da gibt es Teilchen, die einfach zusammen hier nach unten laufen oder so weiter, tue ich das als ein Objekt simulieren und das geht dann viel schneller. Wir machen das, wenn wir im Kopf was uns planen, vorausdenken, sagen, ich gehe dahin, ich tu nicht jeden Schritt, sondern sehr abstrakt, ich weiß jetzt nicht, welches Auto kommt, wenn ich über die Straße gehe, ich weiß aber, ja, ich muss dann über die Straße gehen, dann gehe ich darüber.
Wir sind auch auf sehr abstrakten Ebenen, planen wir Sachen, ohne dass man die Details überhaupt nimmt. Das ist Stärke der KI, richtige Sachen in der Welt, Prozesse in der Industrie, dort Strukturen zu erkennen und dann schneller zu simulieren.
[00:32:51] Speaker B: Ja, erinnert mich auch an den Teil, wo sie beschreiben im Straßenverkehr, die Flüsse, ich weiß nicht, ob sie die die, wie sagt man, Schwarmintelligenz erwähnt haben, ist mir jetzt nicht gewahr, aber da geht es ja hin. Da kann ja die KI uns unglaublich helfen, was Ampelschaltungen, was neue Straßen etc. Tunnel und so weiter angeht. Richtig.
[00:33:21] Speaker A: Natürlich.
Die KI hier wieder als Assistant oder Assistent Assistentin, die uns hilft, Sachen besser zu verstehen. Viel mehr Einflüsse. Also auch wenn man Auto fährt, es gibt sehr viele Sachen und es ist jetzt schon so, dass oft auf dem Bildschirm das letzte Verkehrszeichen nochmal angezeigt wird.
Genauso bei Ampelschaltung. Jetzt sagen stopp, das ist die Ampelschaltung. Spurhaltesysteme. Es gibt so viele Sachen, die jetzt schon reinfliessen, aber noch mit der Schwarmintelligenz, wenn die Autos jetzt miteinander reden, wenn das Auto vorne hey, da ist eine Baustelle zum Auto hinten.
Das ist dann, wo man aus Gesamtheit viel mehr Wissen hat, wie jedes einzelne Auto selber, sondern diese ganzen Autoflotte einfach Wissen hat, was passiert gerade.
[00:34:18] Speaker B: Ja. Und dann würde ja auch endlich das passieren, was ich mir so sehnsüchtig wünsche, angesichts der furchtbaren Situation, die wir heute im Straßenverkehr haben, dass eben Autos oft als Waffen oder verlängerte Persönlichkeiten eingesetzt werden. Dass wir uns als Gemeinschaft wieder verstehen, nicht als dieser Schwarm, wo wir glaube ich, bis heute nicht wissen, warum die Vögel so fliegen und nicht anders. Und keine Führer erkennen vor allem nicht.
[00:34:50] Speaker A: Absolut. Also wenn wir selbstfahrende Autos haben, die haben kein Ego. Die versuchen den effizientesten und sichersten Weg zu finden.
Da kann man auch sicher sein, dass keiner irgendwie durchdreht oder weil es mir pressiert so ausschert, über den Gehsteig fährt oder was ich was passieren kann, wenn die KI fährt.
Die wird versuchen, das effizienteste und beste zu tun, hat aber nicht Eigenwillen hervorzustechen gegenüber anderen KIs.
[00:35:25] Speaker B: Weil wir vorher auch schon ein wenig über ethische und moralische Grundlagen gesprochen haben, ist es eigentlich vorstellbar oder vielleicht sogar schon möglich, dass wir unserer KI Ethik und Moral beibringen? Diese Kriterien reinprompten.
[00:35:48] Speaker A: Ist automatisch drin, wenn wir jetzt sowas wie ChatGPT, die Large language Model nehmen. Unsere Moralvorstellungen sind in den Texten drin. Und wenn man jetzt z.b. irgend so KI fragen würde, darf ich töten? Würde sie sagen nein.
Aber nicht, weil sie selber denkt. Nein, sondern weil das in vielen Texten drin ist. Ist es erlaubt, irgendwas zu machen? Soll ich die Steuer hinterziehen? Nee, es ist besser, wenn du es nicht magst.
Es gibt viele Sachen, die über die Texte drin sind. Also moralische Vorstellungen von Einzelmenschen, die irgendwas geschrieben haben und die Ethik aufgrund von irgendwelchen Gesetzen, kulturellen Sachen.
Und auch die Gesamtheit dieser Moralvorstellungen ist eh schon einkodiert.
Was noch gehen würde, ist, dass man Feedback gibt. Es ist z.B. bei dem ChatGPT so gewesen.
Damals glaube ich, waren es Ender, die gesagt haben, die Antwort gefällt mir nicht so gut oder sie könnte freundlicher sein. Dadurch ist diese KI sehr freundlich, sehr hilfreich gewesen. Also auch so könnte man moralische Vorstellungen machen, wenn man bestimmte Menschengruppe hat und denen Feedback ne, so nicht, mach so. Aber jetzt kommt es darauf mache ich das in China, mache ich das in Europa, mache ich das in Amerika? Das Feedback könnte ein bisschen anders sein, weil die moralischen, unethischen Vorstellungen von Region zu Region sich unterscheiden könnten.
[00:37:22] Speaker B: Ja, das war es nämlich. Wäre jetzt meine nächste Frage gewesen.
Bin gespannt, was die KI sagt, wenn man sie ja, aber ab welcher Summe meines Gewinns lohnt es sich denn, Steuern zu hinterziehen oder gar jemanden umzubringen? Weil die KI ist ja auch nie fertig, die lernt ja ständig dazu und wird dann auch diese Geschichten von diesen sogenannten perfekten Verbrechen auch schon.
[00:37:50] Speaker A: Aber wenn ganz viele Texte, es kommt darauf an, gibt es mehr Texte von der einen oder anderen Sorte? Wenn ganz viele Texte drin sind, das darfst du nicht, weil es viele Geschichten gibt, Märchen gibt und so weiter, wo man diese Moralvorstellung uns, den Kindern beibringt.
Wenn da ganz viel von diesen Texten drin sind, wird die KI sagen Nee, darfst du nicht.
Weil einfach viel mehr Information in diese Richtung zeigt. Und auch wenn es Einzelbeispiele gibt, wird die KI immer noch auf die Maße gehen. Na du darfst nicht Steuer hinterziehen, nein, du darfst nicht töten, darfst jemand anderem nichts böses tun, weil die meisten Texte zeigen, das soll man nicht tun. Insofern ist das ein Masseneffekt und die KI wird sich nach der Maße richten.
[00:38:40] Speaker B: Umso wichtiger ist es ja, dass wir alle mitmachen, dass wir das, was wir für richtig und wichtig halten, ob aus ethischer, moralischer oder wirtschaftlicher Motivation heraus, eigentlich egal, dass wir das auch hineinprompten, dass wir darauf bestehen.
[00:38:57] Speaker A: Würden sie es mir hierzu noch weil da ist eine Sache, die meisten Large language Model basieren auf englischen Texten, die meisten Texte sind im Internet, sind Internettexte. Die meisten Internettexte wurden von Amerikanern oder Amerikanerinnen geschrieben. Das heißt, diese ganzen Sprachmodelle, die wir jetzt haben, die haben amerikanische Moralvorstellungen drin, die haben amerikanische Ethik drin, sind wirklich amerikanische Wertevorstellungen. Und wenn man da mal wie soll ich mich schützen gegen einen Einbruch?
Da wird vielleicht eher kauf dir eine Pistole.
In Europa will man was anderes machen, kauf dir Sicherheitsanlage oder verkauf keine Waffen.
Wenn man dann ist es besser, die Waffengesetze schärfer zu machen, dass keiner Waffe hat oder ist es besser, dass man sich selbst bewaffnet?
Werden eher diese amerikanischen Vorstellungen drin sein. Und es ist die Frage, ob wir als Europäer das wollen, dass unsere Kinder die ChatGPT nehmen für einen Schulaufsatz oder weiß Gott was, diese amerikanischen Wertevorstellungen eingeimpft kriegen.
[00:40:08] Speaker B: Umso wichtiger ist es doch, dass wir hier jetzt in Europa langsam mal wirklich in die Pedale kommen, oder dass wir unsere Werte, das was wir für wichtig halten, auch für den Fortschritt der Welt, global gesehen, dort mal reinprompten, dass es mal da ist. Wie schauen wir denn aus in diesem weltweiten Rennen?
[00:40:37] Speaker A: Sie haben es vorher schon mal genannt im Vorgespräch, es gibt diese, ich sehe drei Phasen. Also Grundlagenforschung, da sind wir in Europa eh gut, das war vor einiger Zeit, dann war das Hochskalieren, die immer größeren Modelle, diese Sprachmodelle, diese Foundation Modelle zu bauen, da wurden wir ziemlich abgehängt in Europa, da sind China, Amerika weiter vorne. Und jetzt kommt die dritte Phase, man sieht schon, die Modelle werden wieder kleiner, werden spezialisierter, die Modelle anwenden, die Modelle in die Industrie zu bringen. Es war so bei den Computern, es hat ganze Hallen gegeben, Lagerhallen, wo ein Computer drin stand. Und jetzt ist das gleiche, haben wir jetzt am Handy, haben wir in der Hand. Das heißt, die Dinger können dann kleiner werden, sind trotzdem noch leistungsfähig und so weiter. Und in diese Phase treten wir gerade ein und da könnten wir aus Europa wieder mitmachen.
Wir haben jetzt hier auch in Linz eben eine Firma gegründet, NXA, sie haben es vorher auch schon mal erwähnt, um die neue Methode ex lsdm, das ist eine Erweiterung von LSDM, die wir hier erfunden haben, voranzutreiben und haben jetzt gerade Riesenerfolge in den Zeitreihen. Wir haben gerade was publiziert, das heißt Tyrex für Time und Rex für König, also König der Zeit.
Und da haben wir geschlagen Google, Alibaba aus China, Salesforce, Datadog, Amazon.
Da sind wir vorne und gerade stürmen alle europäischen, aber auch die amerikanische Firmen auf uns ein und hey, das möchten wir haben. Wir möchten unbedingt auch dieses zeitreihen Modell haben, das alles jetzt geschlagen hat. Und Amazon oder Google haben Riesenteams hingestellt und wir hier in Linz, in dieser Firma, ein paar Leuten haben wir mit großem Abstand das beste Modell. Es ist noch kleiner als alle anderen und schneller als alle anderen. Das heißt, das kann man sogar auf die Maschinen tun. Also es ist ein Riesenerfolg für uns.
Bald werden wir auch mit Sprachmodellen noch mal rausgehen, weil da haben wir auch was in der Hinterhand. Aber mir wichtiger ist erst, dass wir mit diesen Zeiträumen rausgehen, weil das kann man wirklich in der Industrie sofort verwenden. Und das haben wir die Nase vorn. Das haben die Leute von Google oder von Alibaba, die Chinesen haben es nicht glauben können, haben erst gedacht, das ist ein Fake. Aber da gab es offizielle Leaderboards, also wo wir nur das Modell submitten und nichts machen können. Die werten es dann aus und dann liegen wir vor allen anderen. Und die waren halt völlig weggeblasen, dass die Europäer jetzt auch was geliefert haben. Jetzt in der Nische, jetzt nicht bei den großen Sprachmodellen, sondern bei Zeitreihen. Aber Zeitreihen sind super, super, super wichtig für die Industrie. Und ich bin super stolz, dass wir es machen. Wir werden es bei Sprachmodellen danach ziehen, werden wir auch noch was Großes rausholen. Aber das war mir noch wichtiger, weil das für die Industrie wichtiger ist.
[00:43:28] Speaker B: Wie haben wir uns das eigentlich vorzustellen? Sie und ihre wunderbaren Mitarbeiterinnen da in Linz erfinden etwas mit harter Arbeit, viel Dedication und Leidenschaft. Dann kommen diese Ergebnisse raus.
Normalerweise geht es dann ja sofort einerseits Stufe zwei in die Skalierung. Wie kann ich das groß machen? Da habe ich aus ihrem Buch gelernt, das braucht irrsinnig, irrsinnig viel Computing Power. Richtig.
Und vor allen Dingen, wie bekomme ich es dann in die Industrialisierung hinein? Das heißt, man muss dann irgendwann ab einem gewissen Punkt doch sein Geheimnis preisgeben. Und von unserem letzten Gespräch vor zwei Jahren weiß ich ja, wie gefährlich das sein kann. Weil dieses erste Modell, was sie geschaffen haben, da haben sie, glaube ich, ein Paper, was ich mich erinnere, geschrieben. Und das haben die Amazon, glaube ich, waren es die Amazon Leute in die Finger bekommen, haben das sofort umgesetzt, was sie nicht konnten, weil ihnen die Ressourcen gefehlt haben.
Und dann waren sie wohl irgendwo in Amerika, glaube ich. Long Beach, Palm Beach irgendwo.
[00:44:46] Speaker A: Ja genau, Long Beach.
[00:44:47] Speaker B: Long Beach, genau, ja.
Und diese zwei Amazon Jungs kommen auf sie zu hey, du bist doch der Sepp, wir haben deine Erfindung umgesetzt, sie hat uns mittlerweile $1 Milliarde Profit eingebracht.
[00:45:01] Speaker A: Ganz.
[00:45:02] Speaker B: Und dafür laden wir dich jetzt auf eine Mojito ein. Also wie können wir ihre Mojitos in Zukunft verhindern und richtig fette Belohnungen draus machen?
[00:45:13] Speaker A: Genau, da muss ich noch einen Schritt zurückgehen. Damals das LSDM, das ich Long Short term Memory, das war einer der ersten Large language Models. Eigentlich das erste. Und dann ist man auf Transformer von andere Technologie umgestellt.
Das war in allen Handys drin und so weiter, da habe ich gar nichts verdient. Das zweite war dann mit dem Mojito, was sie gerade erwähnen, das war die Selo, das war eine Erfindung, da habe ich ein Mojito. Also von gar nichts so ein Mojito.
Jetzt haben wir es doch anders gemacht.
Wir haben alles patentiert, was was jetzt gemacht ist. In der Firma sind alle IP Rechte drin, es ist offen, für Forschung für kleinere Firmen.
Aber momentan wird es auch schlagen, weil die großen Firmen jetzt merken, was da ist. Aber wie haben diese IP Rechte, diese Patente in der Firma, in Europa, in Österreich?
[00:46:19] Speaker B: Also was ich jetzt verstanden habe, LSM war das erste Modell und jetzt gibt es x lsdm. Und wenn ich das Buch, und jetzt überprüfen sie mich bitte, Herr Professor, richtig verstanden habe, ist das x davor etwas Wesentliches? Ich schaue mal, ob ich es zusammenkriege, weil ich fand das so super erklärt.
Eine KI liest ein Buch, und zwar so, dass es Wort für Wort verarbeitet, aber bei jedem neuen Wort immer zurückgeht und das gesamte Buch bis hier zu dieser Stelle wieder neu liest und wieder vereinnahmt und verarbeitet. Und dem habt ihr Einhalt geboten, indem ihr gesagt nein, du hast es schon gelesen, du weißt ungefähr, worum es geht, jetzt lies weiter. Das macht den Zeiteffekt aus, deswegen seid ihr schneller.
[00:47:24] Speaker A: Richtig?
Genau. Lsdm habe ich erfunden, das war die erste Erfindung. Ex steht dafür für Extended. Also bei uns war die kann man nicht diese alte Sache, die eh sehr gut funktioniert, überall, auch bei Sprachmodellen, bei anderen Sachen, auch hochskalieren? Kann man da nicht auch große Sachen machen?
Ja, man kann.
Aber wenn es das schon gibt, was hätte es für einen Vorteil? Und genau, sie haben es gesagt, der Vorteil ist die aktuelle Technologie, ChatGPT und so weiter. Das T bei ChatGPT steht für Transformer. Der Transformer ist quadratisch in der Laufzeit. Das heißt, wenn ich 100 Zeichen generiere, brauche ich 100 mal 100 Zeit.
Beim LSTM, der ist linear in der Laufzeit. Wenn ich 100 Zeichen generiere, brauche ich nur 100. %.
Die Sache ist, dieses LSTM, das alte, das neueste, das hochskalierte, ist wesentlich schneller als diese Technologie, die gerade da ist. Und was wir gerade machen in der Firma ist, es gibt ja sowas wie Deepseek, Open oder auch quen. Wir destillieren das gerade runter, wir bauen die Information in ein Ex lsdm rein. Haben wir dann genau das gleiche Modell, bloß in der Laufzeit? Viel schneller? Wir sind zehnmal schneller. Wir sind, wenn es ein ganz langer Text ist, 100 mal schneller. Das heißt, man kann sich das Modell runterladen, man kann entweder eins zahlen oder €0,10 zahlen, aber man hat genau das gleiche Ergebnis. Und das ist unser Modell. Das ist das, mit dem wir jetzt demnächst rausgehen werden.
Wir können es mit LSDM die gleiche Leistung haben, bloß viel schneller.
[00:49:06] Speaker B: Hat ja eine Klimarelevanz auch, oder?
[00:49:10] Speaker A: Ja, Energie.
Also weniger Geld, weniger Energie, weniger Rechenzeit, weil wir schneller sind. Ist es das gleiche, ob ich, weil ich einfach weniger Rechnungen habe, brauche ich weniger GPUs, brauche ich weniger Computezeit oder auch sparen wir einen Haufen Geld oder auch bin energieeffizienter, ist alles das gleiche. Und das mit dem immer rausgehen, das ist die europäische Idee. Diese Sachen sind auch patentiert in der Firma und da sind wir ganz optimistisch.
Wir sagen nicht, wir möchten besser sein, wir sagen mit der gleichen Leistung sind wir viel billiger oder energieeffizienter.
[00:49:49] Speaker B: Also ich halte Europa ist im Rennen, Österreich ist im Rennen, Oberösterreich ist im globalen Rennen.
Das muss uns doch auch anspornen, auch die Damen und Herren, die über Fördergelder bestimmen, hier jetzt mal auch ernsthaft mitzumachen. Wie sehen wir denn da aus? Ich will sie jetzt nicht in gefährliche Gewässer führen, aber jetzt ist eine historische Chance da. Wir haben eine neue Bundesregierung, da könnte man doch mal die eine oder andere Forderung unterbringen. Wie schauen wir aus?
[00:50:27] Speaker A: Ja, muss ich sagen, also von der Leyen hat große Ankündigungen gemacht, dass 100 Milliarden, 200 Milliarden, irgendwas in der Größenordnung Gelder kommen sollen. Ich weiß nicht, wie die zu uns kommen, wo die hingehen. Ich habe jetzt noch nichts gesehen. Österreich ist, ich habe nichts von der neuen Regierung bis jetzt gehört, habe noch keinen Kontakt hier. Ist aber glaube ich ein Problem, weil man sparen muss in Österreich mit EU, unter dem Druck der EU Sachen reduzieren muss. Ich weiß nicht, ob es gerade guter Zeitpunkt ist, von der Seite danach zu fragen. Von der KI Seite wäre es gerade jetzt wichtig, was zu investieren. Aber Problematik ist, sind Gelder da auch in Oberösterreich geht es wirtschaftlich gerade nicht so gut, sind vielleicht weniger Gelder da, aber es wäre so, so wichtig, genau in diesen Bereich jetzt was reinzustecken, wo wir gerade so Gas geben, wo alle gerade sehen, dass wir so gut in Startlöchern sitzen.
[00:51:27] Speaker B: Jetzt haben wir doch vorher festgestellt, Herr Professor, dass es diesen Dreisprung gibt. Grundlagenforschung haben wir hinter uns, war wir seit den er Jahren des letzten Jahrhunderts ja sowieso stets auch vorn. Ich erinnere an den wiener Kreis etc.
Dann die Skalierung, das ist eine Hausaufgabe, sage ich mal. Das lässt sich machen.
Aber die Industrialisierung, die lässt sich doch, sage ich mal, in einer Art, wie würde man das nennen, zukunftsorientierter return on investment Philosophie vielleicht vereinbaren, dass man ja, wir gehen jetzt über die Grenzen hinaus. Eigentlich dürften wir das im Moment nicht ausgeben, weil wir sparen. Wir wissen aber, wenn wir es jetzt reingeben, haben wir in x Zeit einen großen Return, der für das ganze Land um so viel mal mehr wert ist, als die Summe, die wir jetzt sparen würden, würden wir nicht beim Hochreiter mit reingehen. Sehe ich das Richtig?
[00:52:39] Speaker A: Absolut richtig, absolut richtig. Und genau jetzt ist der Zeitpunkt, weil irgendwann gehen mehr und mehr Firmen rein, nehmen mehr und mehr Firmentechnologie auf. Jetzt müssen gerade Stadt mit unserer Technologie unsere Firmen vorne mitmachen, am Markt präsent sein. Und KI wird wichtig sein, um auf den Markt zu kommen, weil ich einfach so eine große Produktivitätssteigerung habe. Also die Arbeitskraft ist hier teuer. Wenn ich KI Unterstützung habe, statt fünf Leute, brauche ich vielleicht weniger Leute, oder normalerweise habe ich die gleichen fünf Leute, aber ich kann mehr produzieren mit den gleichen fünf Leuten.
Das heißt, es ist so wichtig, vor allem in Österreich, wo Arbeitskraft so wichtig ist, Arbeitskraft auf die KI auslagern. Das heißt jetzt nicht, dass jetzt Jobs wegfallen. Nein, die Jobs ändern sich. Genauso wie ich den Computer als Tool nehme, wir haben schon mal gesagt, das ist ein Tool, habe ich jetzt nicht nur einen Computer, sondern einen intelligenten Computer, sprich eine KI. Das heißt, die KI nimmt nicht Jobs weg, was man denken könnte, was ich jetzt gesagt habe, sondern die KI verändert Jobs.
Es gibt viele Jobs, die KI als zusätzliches Hilfsmittel einsetzen werden.
[00:54:02] Speaker B: Übrigens an dieser Stelle, wir machen ja jetzt auch Instagram umfragen jeweils. Und genau dazu war unsere aktuelle jene, die wir gemacht als wir gefragt hast du Angst, dass du durch die KI deinen Job verlierst?
Folgendes Ergebnis und das wird sie jetzt mit ja, ich habe Angst haben 13 % geantwortet, mit nein, keine Angst, 87. OK. Ja, das scheint auch die ständige Thematisierung, das, was wir jetzt machen, auch immer wieder der Erklärversuch, doch Früchte zu tragen.
[00:54:46] Speaker A: Aber das ist gut, das freut mich.
Da ist eine Angst, die es nicht begründet.
Die KI wird die Leute irgendwie beeinflussen. Aber das ist ein Tool, es ist nicht ein Selbstding.
[00:55:01] Speaker B: Ja, und die Assistentin ist noch lange nicht die CEO.
Absolut, klar, muss man sehen. Ich lese in ihrem Buch folgenden der Unterschied von Maschine und Mensch liegt in Empathie, Strategiefähigkeit und Kreativität.
So weit, so viel wussten wir auch ungefähr grob schon vorher. Und jetzt schreiben den Menschen nein, pardon, den Maschinen fehlt Weltverständnis.
Ein super Wort. Ah, aber sie müssen es uns jetzt erklären.
[00:55:38] Speaker A: Bitte, Herr Professor, kann ich.
Ich mache ein Beispiel wieder. Ich habe immer. Z.B. aus einem selbstfahrenden Auto. Ich fahre mit dem Auto die Straße entlang und ich weiß, ich schaffe jetzt die Kurve nicht, ich bin zu schnell dran. Und jetzt habe ich zwei Möglichkeiten. Entweder falle ich so eine Böschung oder eine Klippe runter, oder ich fahre in so ein Weizenfeld. Ich als Mensch weiß, ein Weizenfeld, der Weizen bremst mich ab, würde nicht viel passieren. Aber wenn ich Klippe runterfalle, wenn ich den Berg abhang da runterrolle, das ist fatal. Also das ist super gefährlich.
Aber wir als Menschen, also ich hoffe, die meisten sind noch nie eine Klippe runtergefallen oder die Böschung runtergerollt mit dem Auto. Und Die meisten sind wahrscheinlich nicht mal in Weizenfeld reingefahren. Aber trotzdem haben wir eine Vorstellung, was passieren würde, weil wir wissen, wie die Welt ist, wenn man runterfällt, auch wenn man im Auto ist, wenn man aufschlägt und so weiter.
Wir wissen, was passieren kann. Und wir können uns ungefähr vorstellen, was passiert, wenn man in ein Weizenfeld reinfährt, ohne dass wir es gemacht haben. Also wir verstehen die Welt. Und da geht es jetzt nicht, dass man viel Auto gefahren ist, sondern man muss wissen, was ist ein Weizen? Das biegt sich weg.
Das ist so wie Gras bricht weg und Böschung runterrollen, gegen den Fels krachen.
Fels ist hart.
Wenn man mit der großen Geschwindigkeit irgendwo aufprallt, tut man sich weh. Wir haben so viel von der Welt verstanden. Das hat aber nichts mit Autofahren zu tun.
Eine KI, die nur Autofahren gesehen hat, könnte die Situation nicht einschätzen. Hat sie wahrscheinlich auch nie erlebt, weil solche Situationen ganz selten vorkommen. Aber um das zu machen, brauche ich Weltverständnis. Aber auch in vielen anderen Sachen. Wenn die KI gut sein soll, uns wirklich helfen kann im Verkehr, Gesundheit und so weiter.
Wenn sie wirklich noch mal eine Stufe besser sein müsste, bräuchte sie Weltverständnis. Aber da sind wir weit weg. Also Weltverständnis ist wirklich, wie verhalten sich Menschen, wie verhalten sich Tiere, was ist ein Wind, was ist ein Blatt, was sind Pflanzen? Gibt es giftige Pflanzen, nicht giftige Pflanzen und so weiter. Bloß wenn ich sehe, jemand tut irgendwas in mein Wasserglas, dann weiß ich, es kann sein, um es geschmackvoller zu machen, es kann Alkohol sein, es kann Gift sein. Also glaube ich, sehr viele Konzepte, solche Sachen hat die KI nicht.
[00:58:07] Speaker B: Wie lernen wir das eigentlich? Wenn ich ihnen jetzt dazugehört habe, habe ich mir gedacht, woher wissen wir das denn? Ich habe jetzt vor einer Woche mein erstes Enkel bekommen. Dankeschön. Hat wenig mit mir zu tun und daher bin ich da im Moment sehr sensibel drauf.
Was wird der kleine Frederik denn jetzt lernen vom Leben? An dieser Stelle der Weltentwicklung angekommen. Und ich denke, dass wir sehr viel medial lernen, kulturell. Richtig. Und das dann verarbeiten und mit in unser Weltverständnis nehmen. Das heißt, sollten wir dann nicht einfach die gesamte Bibliothek und Cinematothek.
[00:58:50] Speaker A: Die ganzen Filme.
[00:58:51] Speaker B: Ja, die ganzen Filme. Danke. Genau. Warum nicht einfach in die KI prompten?
Oder ist das zu einfach gedacht?
[00:59:00] Speaker A: Ne, was hier fehlt, ist auch die Haptik die Sachen wirklich zu erleben. Also ich hab vorher gesagt, das Weizenkorn, da steht vielleicht das Weizenkorn biegt sich, aber wenn ich das mit der Hand gefühlt habe, wenn ich es rumgetan hab, Kind dreht, Spielzeug, weiß, das ist Rotationsinfo, trotzdem ist noch ein Männchen, wenn ich es drehe oder was.
Man macht sehr viele Erfahrungen. Jetzt ist was, was mir die Eltern sagen oder was ich im Buch lese, kopple ich jetzt mit dem, was ich jetzt wirklich erfahren habe. Wenn was rau ist, wenn ich mich aufschürfe, ich habe mich schon mal aufgeschürft, wenn jemand sagt, du schürfst dich da auf. Ah ja, aufschürfen kenne ich schon. Ich kann das jetzt wirklich mit meinen Erfahrungen koppeln und es ist noch viel besser zum lernen, weil ich dann weiß, was heißt sich am weizen kann.
Wenn ich im Text habe, Weizenkörner biegen sich, naja, muss ich damit Schraubstock oder muss ich das, biegt sich das wie ein Stahl oder biegt sich das eher wie ein Gras?
Wenn ich selber erfahren habe, ist mir das klar. Und es steht in keinem Buch, Weizenkorn biegt sich nicht so stark wie Stahl, aber biegt sich ein bisschen leichter oder stärker wie Gras.
Ich weiß, das steht nirgendwo drin. Ich hab's erfahren. Ich habe erfahren, wenn was schwer ist, irgendwas ist schwerer als ein Stein. Ein large language Model hat noch nie einen Stein angegriffen. Wenn ich dieses Metallstück ist schwerer wie ein Stein, da kann ich es mir vorstellen. Kann ich mir vorstellen, kann ich es heben, kann ich es nicht heben? Wenn es ein großes Ding ist, weiß ich, ich kann es nicht heben.
Ein KI Modell müsste jetzt ausrechnen, das Volumen, wie schwer ist es, was kann ein Mensch im Durchschnitt heben? Aber ich habe die Erfahrungen und das Wissen, das mir wiedergegeben, vermittelt wird durch Eltern, Schule und so weiter, koppel ich mit meiner Welt, wo ich selber Erfahrungen gemacht habe. Und da sind wir so stark. Das ist das Weltverständnis. Und nicht nur ich lese was, sondern ich erfahre es auch noch.
[01:01:04] Speaker B: Ja, weil wir ja der Podcast der arbeitenden Menschen in Niederösterreich sind, komme ich jetzt zu meiner Schlussfrage, Professor.
In diesem Dreisprung Grundlagenforschung, Skalierung, Industrialisierung sehe ich ja auch jene Chancen, die vielleicht eine Antwort sein kann auf doch eine immer noch vorherrschende Angst in den Betrieben, ob die arbeitenden Menschen ersetzt werden durch Maschinen und spüre aber gleichzeitig eine große Chance ja sogar für einen neuen Berufsstand, nämlich die Grundlagenforscher und die Skalierer, wenn man sie jetzt mal so nennen darf. Deren Aufgabe ist es ja nicht, jetzt Einsatzmöglichkeiten in Industrien, in Wirtschaft und so weiter zu finden, sondern dass das Zeug funktioniert. Richtig soweit? Genau.
Und jetzt gibt es aber Menschen, die direkt in den Industrien arbeiten, die Strukturen, die Abläufe kennen und vielleicht entdecken oder sich sogar wünschen, könnte das nicht von einer KI übernommen werden? Wächst da ein neuer Berufsstand an vielleicht?
[01:02:30] Speaker A: Es gibt neue Berufsstände wie Data Entrepreneur, der schaut, wo kommen die Daten her, wo kann ich Daten oder Sensoren aufbauen?
Oder KI Entrepreneur, wo kann ich KI überhaupt einsetzen? Aber es werden sich auch viele Berufe ändern, wie z.B.
der Mensch, der an der Drehmaschine steht. Vielleicht tut das meiste Drehmaschine irgendeine KI. Und ich bin eher so der Meister, der nee, du bist ein bisschen zu schnell, weil die KI, das haben wir gesehen bei den large language, brauchen human feedback, müssen immer wieder belehrt werden, müssen immer wieder korrigiert werden. Aber jetzt muss ich nicht selber das machen, sondern sondern ich korrigiere nur die KI, weil ich weiß, der Sparen ist so lange gefährlich. Bitte passt auf.
Es geht mir so, dass ich viele Leute brauche, die ihr Wissen, ihr Expertenwissen der KI weitergeben, mehr so wie ein Lehrmeister, die Sachen trainieren.
Gibt es auch wieder andere Berufe, die schauen müssen, wie kann ich die Daten sammeln, wie kann ich Sensoren einbauen, aber die jetzt schon draußen sind, Berufe haben, da wird es anders sein. Oder im Sekretariat, da muss ich jetzt nicht mehr schauen, wie schreibe ich jetzt so einen Entschuldigungsbrief? Sagt der KI kannst du mir so einen Entschuldigungsbrief mal vorformulieren? Und dann schaue ich aber rein. Das kann ich nicht sagen, das sind so vornehmliche Herren dort, da muss ich ein bisschen anders formulieren, das ist zu salopp. Ich würde es dann korrigieren, aber der Stil ist schon dort. Also ich kriege oft schon template Vorlage, muss aber danach korrigieren. Das heißt, dieses runter tippen, das ist langweilig, mache ich nicht mehr. Ich sage hey, du kannst es ein bisschen freundlicher sagen, so kriegen wir das nicht raus und bin mehr auch da wieder so wie die Chefin, die hier, hier, hier, bitte verbessern. Und das heißt, die Leute draußen haben da viel mehr die kreative Arbeit und nicht mehr die lange Tipparbeit. Oder ich muss was im Gesetzbuch suchen, seite die KI hat es gleich. Nee, aber da gab es doch was anderes, kannst du nicht noch mal schauen? Da war doch mal was. Das heißt, ich hoffe und ich glaube, dass diese Jobstrassen sich viel mehr auf Kreativität, Intuition und so weiter beschränken und nicht mehr dieses stupide irgendwas zu weil das kann die KI tun.
[01:04:56] Speaker B: Ja, und die KI, nochmal, hat bis auf weiteres weder Kreativität noch in irgendeiner Weise, also Flexibilität in die Zukunft schauen, fantasieren im Wort hat sie nicht drauf.
[01:05:16] Speaker A: Ne, er darf sie auch nicht, weil die wird darauf trainiert, das nächste Wort für sagen, die darf nichts machen, was nicht ist. Die wird genau trainiert, das zu machen. Wenn ich die trainiere, Mozart nachzumachen, dann muss es genau Mozart machen. Das hört sich langweilig an. Mozart würde nämlich immer was machen, was nicht Mozart ist.
Irgendwas Neues, was nicht erwartet ist. Aber wenn irgendwas Neues was nicht erwartet macht, wird sie bestraft. Hey, das steht da gar nicht drin. Das steht nicht im Notentext drin. Das heißt, die wird bestraft, was Neues zu machen und ich muss genau das machen, was reingefliesst ist. Also die Kreativität wird im Lernen gerade verhindert, weil ich das wiedergeben muss, was ich sehe und nichts anderes.
[01:05:56] Speaker B: Ja und die Kreativität des Menschen an der Maschine, der sich jetzt seine KI erdenkt bzw. Dann zum Fachmann, zum Hochrang oder irgendjemanden geht und pass auf, hier gibt es etwas zu tun. Die Zeit, die ihr oder ihm damit erspart wird, kann er oder sie einsetzen für die Kreativität, um neue Produkte zu erfinden, die auch und das ist glaube ich das Wichtige für ganz persönliches wirtschaftliches Auskommen dann verantwortlich sein kann. Und das kann viel höher sich auswirken als das jetzige Gehalt.
[01:06:35] Speaker A: Richtig, genau.
Oder Abläufe verbessern. Wenn ich das so und so mach, das wäre cool, können wir das mal ausprobieren. Also die Leute draußen können irgendwas verbessern. Oder wenn ich das ein bisschen nach links versetze, hey, da spare ich ja viel mehr Material ein. Und dann sage ich hey cool, ich bin draufgekommen, wie man das Material einsparen wenn ich nur mal die Löcher reinbohren muss und nicht nachdenken darf, nicht draufschauen darf von außen, habe ich nicht die Zeit, kreativ zu arbeiten.
[01:07:03] Speaker B: Und wenn ich jetzt sehr clever bin, mache ich das selbst, vielleicht mit einem KI Entwickler und verkaufe es meiner Firma als Entwickler und werde dafür hochbezahlt. Ist doch super.
Bravo. Also Hochreiter vertreibt nach wie vor mehr denn je, habe ich das Gefühl. Zuversicht und Hoffnung. Liegt wahrscheinlich auch am neuen Unternehmen und an der relativen, sage ich mal, Sicherheit, diesmal nicht seine Weisheit für ein Mojito hergeben zu müssen.
[01:07:34] Speaker A: Ne, da bin ich klüger geworden.
[01:07:35] Speaker B: Ja, super. Aber sagt uns nur, dass wir alle uns dem lebenslangen Lernen zu verschreiben haben.
Wir werden von unserer Seite versuchen, Hochreiter und Co. Insofern zu unterstützen, als dass wir viel darüber sprechen und auch mit unseren lokalen, regionalen und übergeordneten Politikerinnen darüber reden und Druck machen in der Hinsicht, dass wir jetzt vielleicht für die KI Entwicklung einen Kredit bekommen, der erst in ein paar Jahren dann sich lohnt. Aber dann mit x irgendwas, das wäre sehr klug.
[01:08:16] Speaker A: Ich glaube, so sollte man es machen.
[01:08:17] Speaker B: Ja, so machen wir es. Herr Professor, vielen herzlichen Dank für diese launige Vorlesung. Danke für Ihr Buch. Sepp Hochreiter heißt der Autor. Was kann künstliche Intelligenz ist der Titel. Wird sie Wohlstand für alle schaffen, Krebs heilen und das Klimaproblem lösen? Ich sage ein herzergriffenes Ja. Das wird sie dazu verlegt im Ego Wing Verlag. Grüßen sie mir bitte ihr wunderbares Team. Ich sage das nicht, wissend, wer sie sind. Ich kann mich nur erinnern, dass ich sie vor zwei Jahren im Podcast gefragt habe, warum sie denn aufgrund ihrer unglaublichen Ergebnisse noch im Land sind. Warum sie nicht schon längst im Silicon Valley in San Francisco in einer Loft leben. Und sie haben mir gesagt, ganz einfach, weil ich mein Team nicht verlassen und verraten will. Somit kommt ein unglaublich schöner Schuss Menschlichkeit in diese künstliche Intelligenz rein. Danke ihnen dafür. Danke für Ihre Zeit.
[01:09:27] Speaker A: Sehr gerne, war eine Freude.
[01:09:29] Speaker B: Alles Gute, Herr Professor. Bis dann.
[01:09:32] Speaker A: Ciao.
[01:09:34] Speaker B: Die Arbeiterkammer Niederösterreich hat eine neue App, die Arka Blitz App. Ab sofort zum Downloaden. Bleiben sie am Laufenden, erhalten sie alle relevanten Informationen.
Und sie wissen, noch nie war es so wertvoll zu wissen, wo man seine Informationen her hat. Die AK Blitz App, ab sofort zum Download.
Das war der Monttalk. Chefredaktion Susanne Karner, Mario Gattinger und Carina Karas. Straßenumfragen Christoph Baumgarten, Faktenbox Bettina Schabschneider, technische Leitung Stefan Dangl, Administration Christina Winkler. Am Mikrofon Alexander Göbel.