Episode Transcript
[00:00:01] Speaker A: Montalk, der Podcast zum Mitreden. Hallo, herzlich willkommen zum Montalk Nummer 85. Unser Titel heute ist Künstliche Intelligenz trifft Psychologie, Chance und Risiko. Und es geht um den Hype natürlich, nicht umsonst haben wir einen Schwerpunkt darin, eingesetzt. Es geht um den Hype des Einsatz der künstlichen Intelligenz und dieses Ding an sich lässt ja keine menschliche Psyche in Wirklichkeit kalt und deshalb haben wir Nachdem wir ja jetzt mit einigen Wissenschaftlerinnen über die Einsatzmöglichkeiten und ja auch über das gesprochen haben, worauf wir vielleicht achten sollten in Sachen Regulierung etc. und heute einem Psychologen.
eingeladen. Und zwar nicht irgendeinen, sondern einen langen guten Freund des Hauses. Psychologe John Haas ist wieder bei uns und versucht mit uns, weil wir sind ja so wie die KI auch im Versuchsstadium, zu analysieren, was denn die Auswirkungen der künstlichen Intelligenz auf unsere Kommunikation zum Beispiel sein wird und wir gehen auch der Frage nach wie sexistisch kann eigentlich so eine künstliche Intelligenz sein. Hallo John Haas.
[00:01:33] Speaker B: Hallo.
[00:01:34] Speaker A: Danke für deine Zeit einmal mehr und bevor ich es vergesse, weil ich gesagt habe nicht irgendeinen John Haas hat in der Zeit, in der wir ein paar mal mit ihm über psychologische Themen gesprochen haben im Zuge der Jahre, ein Buch geschrieben mit dem Titel Covid-19 und Psychologie. Mensch und Gesellschaft in Zeiten der Pandemie. Da hat er offenbar einmal mehr den Zahn der Zeit ganz genau im Nerv getroffen. Sage und schreibe 100.000 Bücher. Ich wiederhole mit großer Freude, 100.000 Bücher hat unser Freund John Haas mittlerweile verkauft. Sie sollten auch eins besitzen oder warten auf das nächste. Was wird es denn thematisch, Herr Haas?
[00:02:24] Speaker B: Thematisch wird es mein neues Steckenpferd, die künstliche Intelligenz, mit der ich mich jetzt seit zwei Jahre beschäftige, wo aber das Covid-Thema diese Beschäftigung überlagert hat.
[00:02:40] Speaker A: Ja, zu Recht. Wir brauchten auch dieses, dein Buch. Umso mehr freut es mich, dass du dich jetzt auch damit beschäftigen wirst. Hattest du jemals so eine Angst, weil das Thema so unfassbar komplex ist, oder empfindest du es gar nicht als so komplex?
[00:03:03] Speaker B: Es gab eine Schwelle, die mich durchaus überrascht hat.
die voriges Jahr im November letzten Endes durchstoßen wurde mit JetGPT. Und was mich da persönlich so verwundert hat, war diese Treffgenauigkeit, den Formulierungen sowie auch das Verständnis der AI auf die gestellten Fragen. Früher hat man mit Google ein bisschen konferiert und hat gesagt, naja, keine Ahnung, wer wohnt da und dort oder Es hat schon so satzähnliche Konstrukte verstanden, aber mit JetGPT, das war ein Game Changer. Ich hatte das Glück, bei JetGPT in der Vorauswahl als sozusagen Tester zu sein. Das ist aber schon zwei Jahre her und mit der Veröffentlichung von der Version 3, 3.5, also seit vorigen November, hat sie eine Tür geöffnet, die mich als Psychologen auch verblüfft hat, wie frappant, selbstsicher diese AI-Antworten gibt, ohne jetzt aber noch über die Faktualität zu sprechen. Also nur weil jemand selbstsicher und mit guten Worten antwortet, heißt das noch lange nicht, dass das stimmen muss. Und dessen habe ich mich unter anderem auch in Folge angenannt.
[00:04:30] Speaker A: Also in der menschlichen Welt sind solche Persönlichkeiten, nennen wir sie mal so, durchaus imstande, allein aufgrund dieser Haltung und dieser Sicherheit, die sie verströmen, enorme Karrieren zu machen. Das sind aber auch oft jene, die in der Früh aufwachen und sagen, heute kommen wir mal drauf, ich krieg's mit, ich bin's nicht.
[00:04:58] Speaker B: Genau, also man muss definitiv Inhalt und Form unterscheiden, aber weil das gegenüber eine Maschine, ein Mechanismus letzten Endes ist, haben die Menschen auch relativ viel Ehrfurcht und auch selber wenig Selbstbewusstsein, hinterfragen. Und das ist durchaus ein erstes Problem.
Und im Real Life würde man sagen, naja, das sind Blender, Dampfborderer oder Borderliner. Genau, mit einem überhöhten Ego. Und einer Maschine traut man das nicht zu. Und das ist natürlich ein Thema.
[00:05:37] Speaker A: Aha, eine Maschine traut man eher zu, dass sie die Wahrheit sagt?
[00:05:44] Speaker B: Also davon gehe ich aus, ohne das jetzt genauer betrachtet zu haben, weil ja die Vorstellung von Menschen über Maschinen so lautet, dass hier alles seine Ordnung und seine Struktur hat und dass Maschinen eigentlich wann dann nur systematische Fehler machen. Denkt mal an eine Uhr. Wir wissen, dass prinzipiell die Zeit gut anzeigt, wenn vielleicht auch dann nach drei Tagen ein bisschen sozusagen ungenauer, aber sie erfüllt diese Aufgabe prinzipiell.
Oder denken an eine Bildbearbeitungssoftware, die erfüllt genau die Aufgabe. Und diese Erfahrung, diese Erwartung gegenüber Maschinen schreiben wir natürlich auch fort. Dass aber die Beschaffenheit der Antwort von der Art und Weise der Frage, wie wir sie stellen, von der Wissensbasis, die in dieser Maschine sozusagen hinterlegt ist, aber auch von möglichen Filtern, die sagen, das darfst du nicht sagen oder darüber darfst du nicht reden, das wird uns nicht so bewusst, weil, wie gesagt, die äußere Form so verbannt wird.
selbstsicher ging.
[00:06:55] Speaker A: Bevor wir jetzt weiter über die Leute, die Menschen sprechen, hören wir uns doch mal an bei unserer Straßenumfrage, ob die Menschen sich wirklich fürchten oder ob sie vielleicht sogar offen sind für die künstliche Intelligenz. Hören sie mal. Hast du Angst vor künstlicher Intelligenz?
Nein.
[00:07:20] Speaker B: Nein.
[00:07:20] Speaker A: Nein. Derzeit noch nicht.
[00:07:23] Speaker B: Nein. Verkaufe künstliche Intelligenz. Und warum nicht? Warum sollte ich?
[00:07:28] Speaker A: Ich kann mir vielleicht noch zu wenig darunter vorstellen. Es birgt seine Risiken, aber Angst dabei halte ich nicht mehr. Ich habe mir das gar keine Gedanken so intensiv gemacht, wie Sie mich jetzt erfragen.
[00:07:39] Speaker B: Bringt uns weiter. Ich würde vielleicht noch ein bisschen abwarten, bevor man davon Angst hat. Außerdem nutze ich sie. Haben Sie Angst vor künstlicher Intelligenz? Ja. Und warum?
[00:07:49] Speaker A: Weil ich das selbst weiterentwickeln kann, ohne unsere Kontrolle.
Okay, also ich, lieber John Haas, war für BAS erstaunt und auch erleichtert, dass nicht die großen Schreckensszenarien hier auf der Straße gemalt wurden, sondern die Leute aufrecht mit der Haltung gesagt haben, nein, warten wir mal ab. Außer, ich glaube, einer war es der Letzte, der gesagt hat, ja, und damit hat er auch recht, weil er konnte es begründen, ich fürchte, dass sich diese Maschinen irgendwann mal selbstständig machen können. Nun sagen mir die technischen Berater und Forscher und Wissenschaftler, Das wird nicht oder sehr, sehr lange nicht passieren, weil das würde ja bedingen, dass alle Maschinen gemeinsam in einer Cloud angeschlossen sind, wo sie voneinander Nanosekunden schnell lernen, um dann auch so etwas wie ein Bewusstsein zu entwickeln. Was sagst du?
[00:08:59] Speaker B: Also prinzipiell ist die Frage nach dem künstlichen Bewusstsein eine gänzlich eigene Baustelle. Wir reden hier noch immer von Wissensmaschinen, von Maschinen, die spezialisiert sind, gewisse Aufgaben halbwegs gut zu erledigen.
Das Thema des Bewusstseins steht natürlich als Trost-Szenario quasi irgendwie dahinter, aber das sollte man sozusagen gesondert besprechen, weil wir in unserer Welt im Hirn jetzt davon ausgehen, dass das, was Maschinen sind, kein Bewusstsein haben.
[00:09:37] Speaker A: Umgekehrt, welchen Einfluss kann denn die KI auf unsere Psyche, auf unsere emotionale Beschaffenheit haben?
[00:09:48] Speaker B: Also, da würde ich sagen, fangen wir ganz unten an. Da ist einmal der Aspekt der Lebenserleichterung. Wenn man jetzt sagt, weiß ich nicht, die Armbanduhr kann die Zeit besser nachvollziehen oder anzeigen wie ich, ist das eine Arbeitserleichterung. Wir haben vielleicht irgendwelche digitalen Terminplaner. Das sind sozusagen Automatismen, die wir uns relativ gut erklären können und die uns ja auch helfen sollen und würden sich auch entwickeln.
Wir haben dann aber durchaus Mechanismen und Maschinen, wie zum Beispiel diese sogenannten Empfehlungs-Engines oder Recommendations-Engines, die uns sagen, du hast das und das gekauft und es würde dir wahrscheinlich auch das gefallen.
Da ist sozusagen die Mischung oder die Absicht schon ein bisschen gespalten. Einerseits hilft es mir, wenn ich ein Sammler bin, dass ich noch das siebte Buch über das Thema kriege, aber andererseits muss ich ja auch dafür bezahlen.
Es gibt aber auch positive Nutzanwendungen dieser Maschinen, die hilfreich sind und nicht mehr ganz durchschaubar sind, wie zum Beispiel, wenn von meinem Konto täglich 17 Euro abgebucht werden, ist es gut, wenn jemand oder etwas draufschaut und sagt, hast du wirklich in Auftrag gegeben, dass eine Firma aus den Vereinigten Staaten täglich 17 Euro abbucht?
[00:11:11] Speaker A: Genau.
[00:11:13] Speaker B: Sind wir bei quasi menschenähnlichen Leistungen, wie Chat-GPT oder Stable Diffusion, diese Bildkreationsmaschine, ich sage bewusst immer Maschine, damit wir es nicht zu hoch in den Himmel loben, wenn wir uns diese Tools anschauen, dann imponieren die vor allem durch ihre Frabandheit, sag ich immer. Also durch das, wo man nicht mehr sagen kann, kommt das jetzt wirklich von einer Maschine oder kommt es von einem Mensch? Rein schon, wie es formal gemacht ist.
Das ist ja die sogenannte Turing-Schwelle bzw. der Eliza-Test, dass man schon in den 70er Jahren versucht hat, eine Schwelle festzulegen, zu erkennen, ob das Produkt, das man da sieht, jetzt von einem Mensch oder einer Maschine kommt. Und diese Schwelle haben wir de facto spätestens seit vorigen Herbst durchstoßen. Und das macht es natürlich schwierig. Ich sehe einen Menschen eher als fehleranfälligen Akteur, währenddessen ich einer Maschine, wie vorher schon gesagt wurde, sehr, sehr stark vertraue, weil die ja schon wissen wird, was sie will.
[00:12:27] Speaker A: Aber zum Beispiel, wenn du sagst, unsere Fehler. Also erstens weiß ich aus bitterer Lebenserfahrung, dass das Scheitern so unglaublich wichtig ist. Du wirst auch schon so manches Fachbuch begonnen haben.
Und hast dann aufgegeben. Aufgeben müssen. Einfach, um uns weiterzubringen. Auf der anderen Seite weiß ich aus Forschung und Wissenschaft nicht die genaue Quote, aber eine sehr beeindruckende Quote dessen, dass unglaublich viele wesentliche, für die Menschheit notwendige Erfindungen gemacht wurden, zufällig, auf dem Weg zu anderen Antworten, die grundsätzlich gesucht wurden. Das letzte war, glaube ich, Viagra. Das ist jetzt wirklich ein Zufall. Genau. Und das geht doch dann nicht. Das sind doch menschliche Fehler, die uns weiterbringen. Aber die künstliche Intelligenz macht dann auch diese Fehler.
[00:13:35] Speaker B: Ja, weil Fehler ist ja sozusagen das, was wir rückblickend als nicht zielführend oder schädigend beurteilen. Nur nennt man das bei der Maschine oder bei einer künstlichen Intelligenz nicht Fehler, weil es ja sozusagen keine wertende Beurteilung gibt, sondern es ist einfach ein Lernergebnis. Und wir Menschen haben ja sozusagen die Tugend und die Gnade, dass wir auch Fehler umdeuten als etwas Nützliches und zum Menschen Gehöriges. Währenddessen die Maschine selber das, was man als Fehler bezeichnen würde, wenn sie nicht entsprechend bestärkt oder belohnt wird und jemand sagt, danke, diese Auskunft war hilfreich, dass es diesen Fehler unter Anführungszeichen einfach in der Ergebnishierarchie weiter zurück reiht, also als Schutz in den Ofen. Also Maschinen leben ja letzten Endes von der Tresur, dass Ihnen jemand sagt, dieses Ergebnis, das du produzierst, ist ein gutes. Bitte mach es weiter in dieser oder in einer ähnlichen Art.
Aber diese klassischen Fehler, wie zum Beispiel der Freudsche Versprecher oder irgendwelche anderen Ausbrüche des Unterbewusstseins, diese Schnitzer wird sie einer Maschine nicht erlauben. Die wird es vielleicht probieren und das wird unter den 17 Millionen Versuchen irgendwo aufscheinen, aber die werden niemals an Wertigkeit gewinnen, weil ja der Benutzer, der sagt, das ist gut, das ist schlecht, diese Art von Ergebnis nicht hervorruft. Außer wir sprechen von kunstorientierten AI-Einsätzen. Also ich selber beschäftige mich sehr stark. Wenn ich dann schreibe, zeichne mir eine traumähnliche Figur, die vor meinen Augen erscheint, dann will ich natürlich, dass das spooky ist und sage, ja, danke. Und so lernt die Maschine, was mir gefällt und was anderen Benutzern vielleicht auch gefällt.
[00:15:31] Speaker A: Ja, auch ich bin an einen Punkt gelangt im Künstlerischen, wo ich sage, künstliche Intelligenz ist ein völlig neuer Inspirator.
Absolut. Also beim Schreiben wirst du auch festgestellt haben, wir könnten wahrscheinlich und würden auch wahrscheinlich diese Paragrafen Wort für Wort gar nicht übernehmen. Aber irgendwo kommt eine Reihenfolge von drei Worten, wo es plötzlich bei uns ein synaptisches Klick macht.
Und wir sagen, ja, Heureka, das ist es, da mache ich weiter. Also es bringt uns weiter, weil es uns inspiriert. Auch sonst in den anderen Gebieten, glaubst du?
[00:16:18] Speaker B: Also davon gehe ich sehr, sehr stark aus. Ich weiß jetzt nicht genau, welche Gebiete du da meinst, aber wenn wir jetzt sozusagen über Forschung im Allgemeinen oder Technologie, Medizin, Sozialwissenschaften sprechen, gehe ich davon aus, dass schon jetzt in dem bestehenden Wissenskanon, der aus Milliarden von kleinen Wissenseinheiten besteht, Zusammenhänge und Erkenntnisse versteckt sind, die Menschen halt einfach nur nicht entdeckt haben, weil sie nicht die Zeit oder die Gelegenheit haben, sich damit zu beschäftigen, aber dass eine entsprechend trainierte AI diese Erkenntnis gewinnen kann.
[00:17:04] Speaker A: Wir machen ja Diesen Podcast gemeinsam mit der Arbeiterkammer Niederösterreich. Daher ist es nicht nur meine Pflicht, sondern auch mein dringendes Interesse, dich jetzt zu fragen, qua deiner Forschungsergebnisse, wie sich das auf den Arbeitsmarkt, was glaubst du, auswirken wird, weil verständlicherweise haben viele Menschen jetzt Angst, ihre Jobs an die KI zu verlieren. Berechtigt?
[00:17:35] Speaker B: Zum Teil sicherlich. Ich habe gestern erst einen Artikel gelesen, der sinngemäß den Titel trug, die Revolution frisst ihre Kinder. Damit ist die AI-Revolution gemeint gewesen. Das war, glaube ich, in den New York Times.
wo man gesehen hat, dass gerade bei IT-Unternehmen die Bereitschaft, neue Mitarbeiter anzustellen, geringer geworden sei. Ich berichte nur, was ich lese. Und zwar aus dem Grund, weil teilweise für außen stehende komplexe Aufgaben wie die Lösung vom Programmier Aber das bedroht doch Indien und Pakistan hauptsächlich im Moment.
Nein, ich selber habe es geschafft, obwohl meine Programmierkenntnisse wirklich enden wollend sind, ich habe vor 20 Jahren viel, vor 25 Jahren viel programmiert, habe ich es geschafft in sieben Minuten mit Hilfe der Anleitung von JetGPT ein Snake-ähnliches Spiel zu generieren und Es ist auch noch nicht Raketenwissenschaft, aber auch die Erstellung eines Quellcodes einer Webseite mit Benutzerverwaltung und der Mink-Kalender, der online tuchbar ist, ist auch nur eine Arbeit von einigen Stunden geworden, während es früher Tage waren für menschliche Griffe.
[00:19:13] Speaker A: Aber das sind doch Good News, weil es heißt doch im Allgemeinen schon seit Jahren, vielen, vielen Jahren, dass wir eigentlich eine Gesellschaft sein müssten, in der schon jedes Kindergartenkind Coden lernt.
[00:19:27] Speaker B: Sagen wir es so, es lernt, gewünschte Ziele zu erreichen, was mir natürlich dann, sag ich jetzt einmal alles, kritischer Mensch ein bisschen aufstößt, ist die Frage, nur weil ich mein Ziel erreiche, werde ich nicht zwingend alle Aspekte der Zielerreichung verstehen.
Ich muss sagen, ich habe auch dieses Snake-ähnliche Spiel zwar zur Kenntnis genommen, es hat funktioniert, aber ich habe mir den Code nicht erklären können und ich könnte einem anderen nicht vermitteln, wie es genau funktioniert.
[00:20:06] Speaker A: Da gibt es noch Besserungsbedarf.
[00:20:09] Speaker B: Ja, es ist Bildung, logisches Denken und kritischer Kritisches Denken werden niemals ersetzt werden können durch Maschinen. Das ist meine Meinung.
[00:20:20] Speaker A: Da gibt es jetzt, John Haas, da gibt es jetzt im Zusammenhang damit Stimmen, die tatsächlich sagen, dass der Umgang mit der künstlichen Intelligenz nach Lesen, Rechnen, Schreiben und Internet zur fünften Kulturtechnik gedeihen wird. Siehst du das so?
[00:20:40] Speaker B: Das sehe ich zu 100 Prozent so. Und das gehört auch in sämtlichen Curriculas, beginnend von letzten Endes, im Alter von spätestens sechs, es gibt ja sehr einfache AI-Anwendungen, gelehrt. Es gehört gelehrt, damit Menschen jetzt unabhängig von ihrer sozioökonomischen Hintergrundsituation in der Lage sind, gleich gut davon zu profitieren, weil das letzten Endes auch Zukunftschancen mit sich bringt. Und dieser sogenannte Digital Gap, über den wir ja schon einmal gesprochen haben, in einem also diese eklatanten Unterschiede zwischen digitaler Kompetenz und geringerer digitaler Kompetenz. Dieser Gap würde noch weiter aufgehen, wenn man dieses AI-Thema nicht rasch in Unterrichtspläne sozusagen einbauen würde. Was dann wirklich passiert, weiß ich nicht. Wahrscheinlich werden die Interessierten wieder im eigenen Studium voranpreschen und ein geringer Anteil sozusagen versuchen, das an sich vorbeiziehen zu lassen. Aber das ist keine, da hat der Staat eine Aufgabe, dass er diese Kompetenzen vermittelt und die Lehrpläne entsprechend adaptiert.
[00:21:57] Speaker A: Okay, also künstliche Intelligenz wird, gehen wir mal so weit, zur Chancengleichheit beitragen.
[00:22:07] Speaker B: Wenn die Kompetenz zur kritischen und konstruktiven, schrägstrich künstlerischen Nutzung möglichst vielen Menschen vermittelt werden kann.
[00:22:17] Speaker A: Okay, fängt die nicht auch beim Menschen selbst an, indem wir aufhören, davor Angst zu haben, indem wir versuchen, mit ganz kleinen Einstiegserfolgen weiterzukommen? Ist das nicht so, dass wir uns etwas überwinden müssen, John?
[00:22:42] Speaker B: Also, ja.
Zwei vielleicht, und in unserem Alter und unserer, sag ich mal, existenziellen Gelassenheit vielleicht nicht mehr. Aber vielleicht schon manch sorgenbeladener Teenager, der sowieso Angst vor der Zukunft hat und glaubt, in der Kiste sitzt der nächste digitale Teufel.
Das meine ich jetzt gar nicht besser, sondern sozusagen als Ausdruck einer existenziellen Verunsicherung. Und genau, also diese Schwellen, Die Schwellen der Bedienung, aber auch diese Vorbehalte, was man immer sagt, Technologieangst, Technologiefeindlichkeit, die werden überwunden. Definitiv, Alexander.
[00:23:22] Speaker A: Ja, ich sage dieses Beispiel nochmal, weil ich es schon wieder in einem Podcast über künstliche Intelligenz gehört habe, weil es gerade so gut passt. Es gab eine Zeit, in der wurden Landwirtschaften mit Ochsen, mit Pferden, wer das Geld hatte, und mit sehr viel menschlicher Kraft betrieben. Dann wurden Traktoren erfunden, Und es gab, das habe ich nicht so recherchieren können, ich nehme aber mal an, dass es da einen gleichen Aufschrei gab. Was wird aus den ganzen Hilfskräften und so weiter? Die haben dann auch Jobs gefunden. Die wurden Beamte oder woanders Hilfskräfte. Also ist das ein probates Mittel, um uns auch irgendwie diese Zukunftsangst zu nehmen?
[00:24:18] Speaker B: Es ist ein schönes Modell, das du da schilderst, weil natürlich, wenn man die Entwicklungsgeschichte des Menschen anschaut, sozusagen unter der Annahme, dass sich das Gehirn nimmer sonderlich verändert und auch die geistige Leistungsfähigkeit, nicht sonderlich, dass es eigentlich vor allem die Dinge in der Außenwelt sind, also die Ressourcen, die wir haben, Zeit als endliche Ressource, Geld als Konventionsressource, mit der man Zeit und Dienstleistung und Macht tauschen, aber eben auch die ganzen Technologien vom Faustkeil beginnend über die Dampfmaschine bis hin zur AI eine entsprechende Form der Verteilung finden müssen, damit eine weitere Entwicklung möglich ist. Also die Seedee finden wir so.
[00:25:09] Speaker A: Gibt es eigentlich, wenn ich dir so zuhöre, Einen klassenbewussten Umgang mit der künstlichen Intelligenz. Ich habe noch nie darüber nachgedacht – du hast da jetzt gerade was angetriggert für mich – ob das etwas für die herrschende Klasse only ist.
sein wird, ob es beschränkte Zugänge geben wird. Wir dürfen ja nicht vergessen, dass Bill Gates so empathisch und menschenfreundlich uns ja jetzt auch im fortgeschrittenen Alter daherkommt. Typisch übrigens für Menschen, die ihr ganzes Leben dem Kapitalismus untergeordnet haben und jetzt plötzlich auch etwas Gutes tun und etwas bewirken wollen. Sei es drum, Hauptsache er macht es. Dass der ja auch sagt, das wird uns weiterbringen, der gleiche Mann, der im Übrigen in den 90er-Jahren das Internet besitzen wollte, wenn wir uns erinnern. Es sollte mal nur über Microsoft Eingang ins Internet geben. Das wurde Gott sei Dank abgeschmettert. Rechnest du mit da nochmal eine Art Klassenkampf?
[00:26:24] Speaker B: Überhaupt nicht.
Vor allem gerade in der AI-Welt sind sehr viele Datensätze, Anwendungen, Implementationen, also sozusagen laufende Versionen von künstlichen Intelligenzen bereits jetzt Open Source, also damit sozusagen rechtlich offen zur Wiederverwendung und zur Modifikation. Das ist das eine.
Das zweite ist, die Mehrheit dieser Menschen, die man vielleicht Nerds nennt oder was auch immer, sind im Regelfall sehr sozial gesinnte Menschen, die das, was sie erkennen und erreichen, auch mit anderen teilen wollen. Also die haben aus meiner Sicht großteils das richtige Mindset. Und ich sehe da außer bei wirklich Large-Scale-Anwendungen, wo es zum Beispiel darum geht, dass man eine Abfrage, keine Ahnung, 5 Watt kostet oder 5 Wattstunden und 17.000 Liter Wasser, ich sage jetzt irgendwas, vielleicht sowas wie eine Bezahlschranke gibt, was auch verständlich sein muss. Es gibt jetzt schon Kritik an der AI, dass die so viel Strom und Ressourcen verbraucht.
Aber prinzipiell, glaube ich, ist der Geist aus der Flasche und mit dem, was wir bis jetzt schon erkannt haben und dem Engagement der Community, glaube ich, wird es diese Elite versus sozusagen benachteiligte Mehrheit nicht geben können.
[00:27:55] Speaker A: Gehst du so weit, dass du sagst, künstliche Intelligenz wird auch einen antikapitalistischen Charakter in sich tragen? Zumindest insofern, als es den Kapitalismus verändert, hin von seiner pervertierten Shareholder-Value-Situation hin zu einer Art Sinnkapitalismus. Vorstellbar?
[00:28:17] Speaker B: Du sprichst hier ein Thema an, das übrigens auch in meinem Buch plane, Die Frage, die dahinter steckt, ist die, was ist, wenn eine große KI draufkommt, dass die Art und Weise, wie wir Dinge abwickeln, wie wir miteinander umgehen, wie wir mit der Umwelt umgehen, draufkommt, dass diese Dinge suboptimal sind und das einer großen Menge von Menschen auch nachvollziehbar und eindringlich mitteilt.
Sowas wie eine ethische KI. Also die Motivation oder die Anfrage ist vielleicht dahingehend, wie können wir es besser machen, aber in ihren Aussagen entwickelt diese AI vielleicht sowas wie eine Ethik. Kein Bewusstsein.
Was sozusagen würde das bei uns verändern? Würde man dann sagen, ja, träum weiter, liebe weise Engine, wir wissen eh, wie's Leben geht, du bist ja nur eine Maschine. Oder würde sich das auch zurückspiegeln, zurückfüttern in unsere Verhaltensweisen und wir würden vielleicht beginnen, Dinge wertschätzender, ressourcenschonender, solidarischer zu machen?
Aber so wie du die Frage sozusagen anfangs gestellt hast mit Kapitalismus, das ist auch praktisch eine Bezeichnung, die die AI gleichwertig vielleicht behandelt wie, ich weiß ja nicht, wenn man sagt, das Ding ist grün, da ist keine Wertung dahinter, aber natürlich hinter dem Begriff sind Abläufe und vielleicht kommt irgendeine AI einmal drauf und sagt, eigentlich ist das dieser soziale Wettbewerb untereinander diese Mechanismen der Verteilung von Gütern, Rechten und Ressourcen nicht zielführend, nämlich auch für das große ganze System Menschheit, dann wird es interessant. Das kann ich nicht so.
[00:30:15] Speaker A: Was uns zu einem wichtigen, wenn nicht sogar zu dem wichtigsten Thema bringt bei der Artificial Intelligence, nämlich woher sie kommt. Also wenn du sagst, dass eine Maschine natürlich unsere Welt, die wir uns irgendwann Anfang der 70er Jahre endgültig für den Kapitalismus entschieden haben, wie sie funktioniert, nach welchen Maßgaben, dann wird sie das doch analysieren, auch aufgrund dessen, was wir eingegeben haben. Das heißt, was wir programmiert haben. Wenn sie nur das Gesamtwerk von Marx-Engels gelesen hat, dann wird die Maschine natürlich einen anderen Zugang auf den Kapitalismus haben als die modernen Finanzdienstleistungsphilosophien.
[00:31:10] Speaker B: Genau.
Vielleicht noch ganz kurz überhaupt, weil du das Thema Kapitalismus da so herausstreichst. Da geht es ja um sozusagen Belohnung und Bestrafung. Man kann es ja auch als soziales System mit Belohnung und Bestrafung sehen und den möglichen Ansprüchen von Menschen, die besonders belohnt werden. Also sozusagen, ich sage immer sozialer Wettkampf, Ressourcenwettkampf und hierarchische Systeme.
Aber zu deiner Frage, woher weiß die AI oder irgendeine AI, wie unsere Welt aussieht? Indem wir hier Datenbestände gegeben haben, die ein Abbild unserer Welt sind.
[00:31:56] Speaker A: Genau.
[00:31:57] Speaker B: Wissenselemente, sagen wir von mir aus, Wissensatome, also wirklich die glanzten Einheiten.
Die AI ist willig und hat auch keine andere Wahl, aus diesen Atomen sozusagen Moleküle, also Zusammenhänge zu bilden, ohne eine Abneigung oder Zuneigung zu empfinden. Sie optimiert, sie synthetisiert, teilweise stellt sie neue Sätze her und so weiter und so fort. Aber genau, die Art Bildung, die in der AI existiert, Es heißt auch, dass sich zum Beispiel Werthaltungen, Sichten auf Arten und Weisen des Verhaltens, die Beurteilung von Geschlechtsrollen, die Einstufung geschichtlicher Ereignisse, dass das alles letzten Endes nur ein Kondensat ist, so wie etwas, was verdampft und sich dann an der Decke, wo das Köder ist, wieder niederschlägt und runterdrückt.
Und dieses Kondensat ist von uns einmal gebiased, also beeinflusst, massiv beeinflusst.
Und da hat es ja vor einigen Jahren diesen Versuch gegeben mit der nachfolgenden Berichterstattung, die dann lautet, Microsoft dreht AI ab, weil sie rassistisch wird.
[00:33:14] Speaker A: Ja, genau.
[00:33:15] Speaker B: In eurer Zeit gibt es dann diese Erkenntnisse, weiß ich nicht, AI schreibt der Frau traditionelle Rolle zu, warum ist denn das? Der Große abschreibt. Naja, weil halt viele oder vielleicht sogar die Mehrheit im globalen Kontext, die Mehrheit der Menschen diese Einstellung hat und sich das als Kondensat niederschlägt.
[00:33:36] Speaker A: Aber ist das so? Ist es wirklich die Mehrheit? Oder ist nicht die antirassistische Haltung auch eine eher stille Mehrheit, die nicht so offensiv rausgeht wie die Dagegenseienden?
[00:33:54] Speaker B: Gute Frage, aber es existieren aus meiner Sicht einfach mehr Daten oder Wissensatome, wie wir vorher gesagt haben, pro Sexismus, pro Rassismus und pro Ageismus, die sich dann in diesen kondensierenden Tropfen, um bei der Metapher zu bleiben, niederschlagen.
[00:34:15] Speaker A: Siehst du eigentlich, das ist jetzt vielleicht nicht die richtige Frage an einen Psychologen, aber bestimmt an einen Autor, der sich mit AI beschäftigt, Eine Hoffnung, so wie ich, eine Vision, vielleicht noch eine Utopie, wer weiß, dass es doch eigentlich jetzt eine gute Idee wäre, würden wir das ganze Land bitten, uns oder an eine zentrale Cloud alles zu schicken, was sie sich wünschen, womit die künstliche Intelligenz in Zukunft gefüttert werden sollte. Also was ist Ihnen, liebe Frau und Herr Normal, wichtig?
[00:35:02] Speaker B: Selbst wenn wir das tun würden, finde ich den Gedanken sehr, sehr aufregend und vielleicht Hört ja jemand von der Arbeit gekommen. Macht einmal so eine Collective Desire oder Kollektiv Wunsch AI. Finde ich ganz, ganz toll die Idee. Wäre das nur ein Tropfen auf dem heißen Stein im Vergleich zu den riesengroßen Wissens- und prozeduralen Katalogen, die bereits existieren.
Das sind schon Riesenmonolithen. Das war genauso wie wenn ich eine feministische Kampfschrift in die Library of Congress irgendwo einstellen würde und hoffen würde, dass sie dadurch das Verhalten der Menschen ändert.
Weißt du, was ich meine?
[00:35:46] Speaker A: Ja, ich wehre mich nur gerade ein wenig innerlich gegen diesen Fatalismus deiner Aussage. Wollen wir doch noch ein wenig Hoffnung machen.
[00:35:56] Speaker B: Auf jeden Fall.
[00:35:57] Speaker A: Na, machen wir. Weil eigentlich gemeint war mit dieser Provokation jetzt von mir, dass wir beim Regulieren und Es wird nicht ohne gehen. Dann schon wissen, nach welchen Vorgaben wir regulieren wollen, damit wir nicht in ein Regulationswahnsinn in einen alltäglichen fallen, sondern eine Art KI-Verfassung vielleicht sogar zustande bringen.
[00:36:32] Speaker B: Wird gedacht. In Österreich hat der Staatssekretär Lewandowski schon entsprechende Gedanken und Wünsche geäußert, auch auf europäischer Ebene, beziehungsweise auf globaler Ebene gibt es da Überlegungen und Gedanken. Das, was du meinst, ist quasi so ein Wertekatalog?
Und dieser Wertekatalog, und da gebe ich dir jetzt recht, wird wahrscheinlich irgendwann umgänglich oder unabdingbar sein, um malevolente, böswertige Verwendung von AI Kompetenzen auszuschließen. Und auch heute ist es schon so, dass wenn ich einer der Stable Diffusion sage, zeichne mir das Bild einer nackten Frau, die, weil sie nicht Schmerzen erleidet, dann sagt sie, sorry, this is not safe for work, I won't do that, oder das ist gegen meine Ethik. Also teilweise sind diese Grenzen auch schon hart implementiert.
[00:37:38] Speaker A: Dieser Haltungs- und Wertekatalog, wäre der auch denkbar und möglich gewesen ohne jetzt die KI? Glaubst du, wären wir hier an einen Punkt gekommen?
[00:37:51] Speaker B: Ich glaube, dass das in uns seit Anbeginn drinnen ist und dass bei all der Freiheit, die wir Menschen letzten Endes haben und immer schon hatten, seitdem wir uns sozusagen rückblickend Menschen nennen, herrscht immer der grundlegende Wunsch nach Ausgleich und Gerechtigkeit.
Also ich bin, ich glaube, mit Überzeugung daran, auch wenn ich mich manchmal zwingen muss, dass der Mensch ein Guter ist, insofern, dass die Spezies gut ist. Also ich bin ein Kulturoptimist. Und je nach verfügbarer Möglichkeit sind das dann die 10 Gebote oder die Menschenrechte oder von mir aus, wie es du jetzt vorschlagst, dieser AI-Wertekatalog.
[00:38:35] Speaker A: Ja, ja. Ich bin ja eher ein Kulturaktivist im Vergleich mit dir. Ich bin ja der Meinung, dass wir ad personam, jeder einzelne Mensch von uns, gut und böse sind und genauso viel Böses wie Gutes in uns tragen, aber die, wie ich immer sage, hochheilige Pflicht, das Böse zu kontrollieren, haben. Und da kann uns die KI wahrscheinlich schon helfen.
[00:39:03] Speaker B: Die kann uns relativ wahrscheinlich dabei helfen, das zu erkennen und auch zu postulieren.
[00:39:13] Speaker A: Also es würde zum Beispiel durch Information und so weiter Feindbilder vielleicht nicht verhindern, mindern können. Ich glaube so sehr daran, dass ich meine eigene künstliche Intelligenz so einstellen kann, dass sie mir assistiert im Alltag.
das, was um mich herum passiert, richtiger einzuschätzen.
[00:39:48] Speaker B: Zusammenarbeit, genau, ja. Es gibt auch schon so Versuche, ich sag jetzt mal so, wertratschlaggebende AIs, dann gibt's auch so Engines, die soziale Beziehungen simulieren und fürsorge, bis hin zur virtuellen Partnerschaft mit irgendeinem, sag ich mal, Avatar.
[00:40:08] Speaker A: Genau.
[00:40:11] Speaker B: Letzten Endes sind es aber wir mit unserer Hardware, also mit unserem Fleisch und unseren Knochen und aber auch unserem Spirit, das ist, glaube ich, ganz wichtig, unserem Mindset, die diese Handlungen setzen müssen. Weil ein Feindbild ist ja unter anderem auch dazu da, dass ich selbst einen Gewinn erziele. Und damit sind wir wieder bei einer Übervorteilung. Alla schon das Abwerten, wir reden über wen anderen wertet mich auf etc. Das sind evolutionäre Mechanismen.
Menschwerdung, die en gros stattfindet und das möchte ich überhaupt nicht verleugnen. Also ich glaube, dass die Menschheit stetig besser wird im Umgang mit Werten. Wir haben auch weniger Armut global gesehen, wir haben freiere Menschen, wir haben mehr Demokratien, also en gros.
Da tut sich was. Aber realisieren müssen es sozusagen immer wir. Und da kommt dann immer dieser Barbara-Stöckl-Spruch, es gibt nichts Gutes, außer man tut es. Den muss ich kritisieren. Es gibt Gutes und es ist wichtig, man tut es.
[00:41:18] Speaker A: Ja, man muss auch nicht immer darüber reden. Ich finde, dass alles Wahre immer still ist, nicht? Wahre Liebe ist still, wahre Trauer ist still, wahres Glück ist still. Alle, die so trompeten, ich hör jetzt auf zu rauchen!
machen das ja nur, um sich noch einen extra Druck zu machen. Und was wirklich passiert in den meisten Fällen, ist, ein extra Scham wird produziert. Sag mal, John Haas, wir gehen langsam in die Endrunde. Heißt das also, dass wenn wir jetzt kritisch gegenüber der künstlichen Intelligenz denken und fühlen, dass wir eigentlich kritisch gegen uns selbst denken und fühlen? Denn die künstliche Intelligenz kann es nur mit und durch uns geben. Wir sind die Programmierer.
[00:42:09] Speaker B: Letzten Endes. Mit unserem Verhalten, mit unserem Mindset, mit unseren Gedanken und Wünschen.
[00:42:16] Speaker A: Ja, also sie zwingt uns doch unsere Werte, oder wie wir vorher festgestellt haben, unseren ganzen Wertekatalog neu zu überdenken, weil es ja wirklich jetzt eine, um mit dem deutschen Kanzler Scholz zu sprechen, eine Zeitenwende ist, wo wir auch mal innehalten können, weil jetzt haben wir eine Pandemie. Ich würde mal sagen, ich sag's trotzdem, ganz gut überstanden.
Insofern auch ganz gut, dass Sie uns auch ein paar Fehlerquellen, ein paar soziale Missstände, vor allem psychologischer, emotionaler Art, aufgezeigt haben, um die wir uns kümmern sollten. Aber wenn wir jetzt sagen, die künstliche Intelligenz muss reguliert werden, sagen wir doch eigentlich, der Mensch muss reguliert werden.
Oder?
[00:43:11] Speaker B: Du sagst das wunderbar. Ich möchte dem gar nichts hinzufügen. Die Frage ist, sperren wir den oder regulieren wir den Akteur oder das Spielbild?
Es ist schwierig, keinen Weg zu sperren, aber der Akteur agiert weiter.
[00:43:26] Speaker A: Würdest du denn abschließend uns zur Verfügung stellen, wenn wir, wie es so oft ist, zunächst einmal ein Non-Profit-Projekt machen würden mit einer Cloud, in der wirklich alle Ihre Haltungen, Ihre Werte, das, was Sie von der Gemeinschaft erwarten und bereit sind, auch dazuzugeben, hineinschreiben, programmieren, rufen können?
[00:43:53] Speaker B: Also ich finde, die Idee ist so fabulös und es ist ja nicht nur sozusagen eine soziale Nutzanwendung, sondern das ist eigentlich sowas wie ein Movement, wo man sagt, AI kann auch soziale oder psychosoziale Aspekte abdecken und ist besser wie jede beschwerte Hotline.
Das hat fast eine quasi therapeutische Wirkung. Da muss man sich natürlich überlegen, wie wir es machen, aber da stehe ich natürlich gerne bereit.
[00:44:23] Speaker A: Super, wir werden dich beim Wort nehmen. Alle allerletzte Frage, vielleicht sogar die wichtigste. Würdest du allen Arbeitnehmerinnen und Arbeitnehmern in Niederösterreich und in der gesamten Republik, global, weil wir reden über ein globales Phänomen, raten, ihre Ängste in die künstliche Intelligenz zu geben und zu sagen, ich habe Angst davor, meinen Job zu verlieren, werde ich einen neuen finden. Glaubst du, dass das uns helfen kann?
[00:45:02] Speaker B: Da muss ich jetzt nass werden. Das glaube ich nicht. Das glaube ich nicht, weil die Mechanismen des Marktes der Gesellschaft leider stärker sind. Und ich glaube, dass auch sozusagen Aufgabe einer Kammer oder einer Gewerkschaft dann ist, dass sie Mittel und Wege ersinnen, wie die eine möglichst hohe Beschäftigung, eine möglichst hohe Qualifizierung auch in dieser Zeit des Wandels Menschen ermöglicht wird. Weil es muss nicht jeder jetzt ein Datenwissenschaftler werden oder ein AI-Kind, sondern er soll halbwegs gut leben können. Und die AI kann uns auch helfen, vielleicht Mittel und Wege solcher Ideen zu eruieren. Aber wie wir vorher gesagt haben, machen müssen es dann wir oder die entsprechenden Interessensvertretungen.
[00:45:58] Speaker A: Okay, lasst es sich gelten. Ich gebe es an die Hörer PT weiter und sage, versuchen Sie es doch mal. Versuchen wir John Haas zu konterkarieren und Sie schreiben mir, ob es Ihnen in irgendeiner Weise irgendetwas gegeben haben, hat, dass Sie z.B. in Chatshipity eingegeben haben, wie wird meine Zukunft aussehen. Ich habe Angst, ich bin das und das und möchte gerne das und das werden. Wie das angekommen ist. Und damit beschäftigen wir uns dann im Zuge des nächsten Podcasts. Was sagst du?
[00:46:31] Speaker B: Super. Ganz, ganz gute Idee. Habe ich selber auch noch nicht gemacht, muss ich jetzt gestehen, obwohl ich sehr viel konferiere mit dem Ding.
[00:46:38] Speaker A: Ja, dann würde ich vorschlagen...
[00:46:40] Speaker B: Aber ich finde es echt ungemütlich, immer Gefühle zu vermeiden. Und es wäre interessant, welche quasi therapeutische Kompetenz diese Engine schon hat.
[00:46:47] Speaker A: Genau.
[00:46:47] Speaker B: Ganz interessantes Thema.
[00:46:49] Speaker A: Richtig. Und wenn du das Kapitel schreibst, möchte ich gerne, dass du erwähnst im ersten Satz, mein Freund Alexander Göbel hat mich auf diese Idee gebracht. Mehr will ich schon nicht. Ja, aber das möchte ich dann schon...
[00:47:02] Speaker B: Muss ich mal aufschreiben.
[00:47:03] Speaker A: Aufschreiben, bitte, ja.
Du, ich danke dir, es war mal wieder ertragreich und super. Wünsche dir mit dem neuen Buch, gibt es schon einen Titel?
[00:47:15] Speaker B: Relativ einfach, AI und Psychologie.
[00:47:19] Speaker A: AI und Psychologie, trocken wie immer.
[00:47:22] Speaker B: Genau, Mensch und Gesellschaft in Zeiten der künstlichen Intelligenz.
[00:47:25] Speaker A: John Haas, damit die Wartezeit verkürzt wird. Sein aktuelles Buch steht bei 100.000 Nutzern. Im Moment heißt es Covid-19 und Psychologie, Mensch und Gesellschaft in Zeiten der Pandemie. John Haas, danke für deine Zeit. Alles Gute und bis bald.
[00:47:44] Speaker B: Ja, danke. Tschüss, Baba.
[00:47:48] Speaker A: Die Arbeiterkammer NÖ hat eine neue App, die AK-Blitz-App, ab sofort zum Downloaden. Bleiben Sie am Laufenden, erhalten Sie alle relevanten Informationen und Sie wissen ja, noch nie war es so wertvoll zu wissen, wo man seine Informationen her hat. Die AK-Blitz-App, ab sofort zum Downloaden.
Das war der MONTALK, Chefredaktion Susanne Karner, Redaktion Mario Gattinger und Carina Karras, Straßenumfragen Christoph Baumgarten, Faktenbox Bettina Schapsschneider, Technische Leitung Stefan Dangl, Administration Christina Winkler, am Mikrofon Alexander Göbel.