Informatiker Jürgen Schmidhuber (links) und Philosoph Thomas Metzinger (rechts)
Informatiker Jürgen Schmidhuber (links) und Philosoph Thomas Metzinger
Didier Ruef/Visum, Rui Camilo/laif
Künstliche Intelligenz
.  .  .  und wenn die KI leidet?
Nur durchs Leiden lernt man, sagt der Pionier für künstliche Intelligenz. Wir müssen aufpassen, dass uns die Entwicklung nicht entgleitet, warnt der Philosoph
Tim Wegner
30.03.2023
10Min

chrismon: Herr Metzinger, wenn Sie sich eine künstliche Intelligenz wünschen dürften, welche wäre das?

Thomas Metzinger: Gern eine, die uns guttut, gemeinwohlorientiert ist und uns hilft, mit weniger Leid zu leben. Und auf jeden Fall eine, die selbst nicht leidet.

Jürgen Schmidhuber: Das scheint aus meiner Sicht schwierig, denn das Leiden ist fundamentaler Bestandteil des Lernens, welches wiederum fundamentaler Bestandteil moderner KI ist. Eine KI, die nicht leidet, hat keine Motivation, etwas zu lernen, um dieses Leiden abzustellen.

Wie kann eine künstliche Intelligenz leiden?

Schmidhuber: Wenn wir einen lernenden Roboter bauen, geben wir ihm als erstes Schmerzsensoren, die sich melden, wenn er etwa mit dem Arm zu heftig gegen ein Hindernis schlägt. Er muss ja irgendwie lernen, was ihm schadet. In dem Roboter steckt ein kleines Kunsthirn, das versucht, die Summe seiner Leiden (codiert durch reelle Zahlen) zu minimieren und die Summe der Belohnungen zu maximieren. Lernt er, Muster zu erkennen und Handlung zu planen, kann er das Leiden abstellen – ein wenig wie ein Baby. Das Baby und die kleinen KIs lernen vorherzusagen, was die Konsequenzen ihrer Aktionen sind. Sie versuchen zu lernen, das zu vermeiden, was zu Leiden führt.

Thomas MetzingerFoto Veysel Celik AVA Arthouse Studio

Thomas Metzinger

Thomas Metzinger, Jahrgang 1958, ist ­Philosoph und Seniorprofessor an der Universität Mainz. ­Seine Forschungsschwerpunkte sind die Philosophie des Geistes und die Angewandte ­Ehtik. 2018 wurde er in die Hochrangige ­Expertengruppe für künstliche Intelligenz der ­Euro­päischen Union ­berufen, um die ­europäischen ­Ethikrichtlinien für ­künstliche Intelligenz zu entwickeln. Gerade ­erschien sein neues Buch "Bewusstseins­kultur: Spiritualität, ­intellektuelle ­Redlichkeit und die ­planetare Krise", ­Berlin-Verlag, 208 Seiten, 22 Euro.
German computer scientist Juergen Schmidhuber poses after a conversation during the 71st Locarno International Film Festival, Friday, August 10, 2018, in Locarno, Switzerland. The Festival del film Locarno runs from 1 to 11 August. (KEYSTONE/Alexandra Wey) [ Rechtehinweis: picture alliance/KEYSTONE ] cp_02_19, Interview, chrismon plus Februar 2019Alexandra Wey/dpa Picture-Alliance

Jürgen Schmidhuber

Der Informatiker Jürgen ­Schmidhuber, geboren 1963, gilt als Vater der ­modernen künstlichen Intelligenz und des ­maschinellen Lernens. Er ist außer­ordentlicher Professor der ­Universität Lugano, ­Direktor der KI-­Initiative der ­saudischen KAUST- Universität und Unternehmer. Er möchte ­eine KI schaffen, die klüger ist als er selbst, damit er in den Ruhestand gehen kann.

Metzinger: Wenn wir bewusste Systeme mit einem Ich-­Gefühl erzeugen, wird es so sein wie bei uns Menschen: Scheitern wird zur eigenen Tragödie und zum ­eigenen Schmerz. Die Maschine kann sich nicht mehr davon ­distanzieren. Natürlich könnten diese Systeme auch lieben und glücklich sein, aber wir sollten solche Eigenschaften nicht leichtfertig auf die nächste Stufe der geistigen Evolution übertragen, bevor wir wissen, was genau an der Struktur unseres eigenen Geistes dazu führt, dass menschliche Wesen so viel leiden.

Schmidhuber: Ich glaube, wir wissen längst, warum lernende Wesen leiden. Das Leiden ist eine großartige, doch simple Erfindung der Evolution. Es ist einfach eine Bewertungs­funktion, die dem Leidenden die Motivation liefert zu lernen, die Leid erzeugenden Mechanismen zu umgehen. Unsere KIs motiviert das schon seit über 30 Jahren.

Dieses Lernen, Schmerz- und Belohnungssignale besser vorherzusagen – wie führt das zu Bewusstsein?

Schmidhuber: Die KI lernt, die Konsequenzen ihrer Handlungen vorherzusagen, um die Zukunft besser zu planen. Ihre Neuronen lernen dabei interne Repräsentationen all der Dinge, die im Leben der KI häufig vorkommen. Ein Ding kommt besonders häufig vor im Leben der KI, nämlich die KI selbst. Daher entstehen Neuronengruppen, die für diese KI stehen, für ihre Hände und Finger und für die Konsequenzen, die sich dadurch ergeben, dass sie die Finger bewegt. Jedes Mal, wenn die KI mit ihrem Vorhersager jetzt plant, weckt sie solche Neuronen auf. Dann ist sie sich eigentlich ihrer selbst bewusst, dann denkt sie über sich selbst und ihre zukünftigen Optionen nach.

"Das Einzige, was diese Entwicklung stoppen könnte, wäre ein nuklearer Weltkrieg." - Jürgen Schmidhuber

Metzinger: Ich glaube, das reicht noch lange nicht, es zeigt aber den historischen Punkt, an dem wir stehen. Man könnte sagen: Wir sind die Steigbügelhalter für etwas, das in der Zukunft kommt und nicht mehr unsere biologischen Beschränkungen hat. Man kann solche Architekturen ent­stehen ­lassen, wie Sie beschrieben haben. Aber welche Formen von Intelligenz, Geistigkeit, möglicherweise sogar Bewusstsein wollen wir zulassen? Vielleicht erzeugt das ­irgendwann nicht Liebe und Glück, sondern eine Leidens­explosion und wächst uns über den Kopf. Ich habe letztes Jahr ein Moratorium für künstliches Bewusstsein bis 2050 gefordert. Es gibt Labore, in denen genau daran schon geforscht wird. Diese Leute werden nicht ­morgen oder übermorgen ein künstliches Bewusstsein schaffen, aber es gibt viele Bei­­­spiele aus der Wissenschaftsgeschichte, bei denen entschei­den­­de Durchbrüche früher stattgefunden haben, als die beteilig­ten Forscher selbst gedacht hätten. Wollen wir auf diesen historischen Vorgang ethisch keinen Einfluss nehmen?

Schmidhuber: Die vorhin beschriebenen Formen des Bewusstseins haben wir schon seit über drei Jahrzehnten. Da kommt jedes Moratorium zu spät. Unsere alten Prinzipien des künstlichen Bewusstseins liefern heute allerdings interessantere Ergebnisse als damals, denn alle fünf Jahre wird das Rechnen zehn Mal billiger. Alle 30 Jahre also eine Million Mal. In den nächsten 30 Jahren wird sich daher alles ­ändern. Welches Ethikkomitee sich da Schranken ausdenkt, spielt kaum eine Rolle. Das Einzige, was diese Entwicklung vielleicht stoppen könnte, wäre eine Katastrophe wie zum Beispiel ein nuklearer Weltkrieg.

Herr Metzinger, Sie waren 2018 und 2019 Teil einer ­Expertengruppe, die im Auftrag der EU-Kommission Ethik­richtlinien im Umgang mit KI erarbeiten sollte . . .

Metzinger: Ja. Ich war enttäuscht von dem, was ich da erlebt habe. Da waren viele sehr kluge Leute. Trotzdem hat sich eine Mehrheit geweigert, etwa den Punkt synthetische Phänomenologie, also künstliches Bewusstsein, überhaupt in die Richtlinie aufzunehmen. Bei der EU fiel das alles unter: Es kann die Industrie schädigen, wenn wir so was verbieten, und außerdem ist es Science-Fiction. Von 52 Experten waren nur vier Ethiker, aber 26 Industrievertreter. Offiziell war die Idee, ein ethisches Fundament für die KI zu entwickeln – als Alleinstellungsmerkmal gegenüber dem Silicon Valley und China. Das hielt ich erst für eine tolle Idee. Aber die meinten das gar nicht so ernst. ­"Vertrauenswürdige KI aus Europa" ist zum Teil nur eine coole Marketingstrategie. Der europäische Gesetzes­entwurf ist zwar das Beste, was es dazu weltweit gibt. Aber darin steht zum Beispiel nichts Konkretes über autonome Waffensys­teme – wir wissen es nicht, aber ­möglicherweise hat da die Rüstungslobby interveniert.

"Wir sollten eine solche Evolution nicht einfach so aus Ruhmsucht lostreten" - Thomas Metzinger

Herr Schmidhuber, was ist mit Ihrer Verantwortung als Wissenschaftler?

Schmidhuber: Als die Menschen vor 800 000 Jahren anfingen, das Feuer zu kontrollieren, waren ihre Gehirne kleiner als heute. Eine Steinzeit-Ethikkommission wog ­seinerzeit die Für und Wider des Feuers ab: Man kann damit kochen und sich in der Nacht wärmen, andererseits aber auch andere Menschen verbrennen. Feuer kann sich als Waldbrand ausbreiten. Doch die Ethikkommission kam zu dem Schluss, dass die Pros die Contras dermaßen überwiegen, dass man weiter an der Entwicklung des Feuers arbeiten sollte. Die Erfindung erlaubte es den Menschen, mehr Energie aus der Nahrung zu holen, und die Gehirne wuchsen. Das machte uns zu dem, was wir heute sind.

Metzinger:  . . . und jetzt haben wir die Klimakatastrophe.

Schmidhuber: Das Fachmagazin "Nature" publizierte 1999 einen Text zur einflussreichsten Erfindung des ­20. Jahrhunderts, dem Haber-Bosch-Prozess zur Erzeugung von künstlichem Dünger, der die Weltbevölkerung von 1,6 Milliarden Menschen im Jahre 1900 auf heute über acht Milliarden trieb. Ohne diese Erfindung wären die Städte nur halb so groß, es gäbe nur halb so viele Autos, nur halb so viel Umweltverschmutzung und Klimakatastrophen. War das nun eine gute oder eine schlechte Erfindung? Jedenfalls hatte keine andere solch existenziellen Einfluss auf derart viele Menschen. Hätte Haber sie nicht gemacht, hätte es ein anderer getan.

Herr Metzinger, welche Gefahren sehen Sie, wenn wir die aktuellen Entwicklungen weiterlaufen lassen?

Metzinger: Es gibt den Begriff eines Informationsrisikos: ­Dadurch, dass eine Information öffentlich wird, ­können Gefahren entstehen. Wenn man etwa präzise sagen könnte, was Leiden eigentlich ist, wäre das ein wesentlicher Beitrag für die Psychiatrie und die Medizin. Aber dann könnte ­jemand dieses Wissen ausnutzen und zum Beispiel künstliche Versuchstiere oder Robotersklaven mit Bewusstsein bauen. Oder virtuelle Agenten, die er entsetzlich leiden lässt – und damit Regierungen erpresst. Das ist noch Science-­Fiction. Aber wenn Herr Schmidhuber recht damit hat, dass die Gesamtdynamik sowieso nicht aufzuhalten ist, ist es nur eine Frage der Zeit, bis es Formen von wissenschaftlicher Information geben wird, die toxisch für unsere Gesellschaft sind. Wir sollten eine solche Evolution nicht einfach so aus Ruhmsucht lostreten oder weil wir der Erste sein wollen, der in die Geschichtsbücher kommt. Uns sind schon das Klima und die Finanzindustrie völlig entglitten. Einfach zu sagen: Es ist halt der Gang der Dinge und mir macht es gerade Spaß – das ist mir wirklich ein bisschen zu wenig.

"Das Scheitern ist essenziell für das maschinelle ­Lernen und das Lernen im Allgemeinen." - Jürgen Schmidhuber

Herr Schmidhuber, haben Sie als Wissenschaftler eine persönliche Grenze, über die Sie nicht gehen würden?

Schmidhuber: Ja, die Lichtgeschwindigkeit. Nichts von dem, was irgendwo in unserem Universum entsteht, kann sich schneller ausbreiten. Entstünde auf der Erde eine ­­Gesellschaft superkluger KIs, könnte sie den Rest des Universums nicht sofort übernehmen – sie bräuchte mindestens einige Milliarden Jahre dafür.

Und wenn Sie die Lichtgeschwindigkeit übertreffen könnten?

Schmidhuber: Das würde ich natürlich ausnutzen. Aber es geht nicht, aus fundamentalen physikalischen Gründen, die das Universum jedoch auch schön und elegant machen.

Lesen Sie hier: Wie wirken sich Computerspiele auf die Psyche aus?

Was können wir als Gesellschaft tun, um die Entwicklung einer bewussten und leidensfähigen KI zu kontrollieren?

Metzinger: Wir müssten eine neue Diskussion darüber führen, welche Bewusstseinszustände wir für positiv und wünschenswert halten: Welche wollen wir unseren ­Kindern zeigen, welche dürfen wir Maschinen und Tieren aufzwingen und welche wollen wir nicht integrieren?

Welche Bewusstseinszustände meinen Sie?

Metzinger: Wir brauchen eine neue Bewusstseinskultur und in meinem neuen Buch gibt es viele Beispiele: ­Welche Drogen sollten illegal sein? Soll es Meditationsunterricht an Schulen geben? In welchem Bewusstseinszustand ­wollen wir einmal sterben? Welche unangenehmen Bewusstseinszustände dürfen wir Tieren zufügen? Die Frage stellt sich genauso für KI-Systeme, die wir in der Wissenschaft benutzen, wenn wir experimentieren. Wir machen ja auch nicht jede Art von Tierversuch.

Wir werden mit bestimmten Charakterzügen geboren und treffen irrationale Entscheidungen. Macht uns nicht gerade die Unzulänglichkeit menschlich? Es ­ würde doch niemand auf die Idee kommen, eine KI zu programmieren, die unzulänglich ist.

Schmidhuber: Das ist ein großes Missverständnis! Unsere KIs sind extrem unzulänglich. Gerade am Anfang sind sie völlig doof und machen lauter Fehler. Doch das Wesentliche ist: Sie haben Lernalgorithmen, die dazu führen, dass sie mit der Zeit schlauer werden und seltener ­scheitern. Das Scheitern aber ist essenziell für das maschinelle ­Lernen und das Lernen im Allgemeinen.

Metzinger: Verleiht es mir Würde, dass ich so viele Fehler habe? Gibt das meinem Leben als Mensch einen beson­deren Wert? – Ich glaube nicht.

Schmidhuber: Alle sind zutiefst unzulänglich in ­vieler Hinsicht. Aber der Punkt ist: Sie lernen dazu. Dabei ­werden sie weniger unzulänglich. Jeder will sich steigern, auch in Konkurrenz mit dem Nachbarn. Das führt dazu, dass sich die Dinge weiterentwickeln.

Metzinger: Stimmt das denn? Wenn Sie sich die Gesamtsituation der Menschheit auf diesem Planeten anschauen?

Schmidhuber: Jetzt sind wir wieder beim Haber-Bosch-­Prozess. War das eine gute oder eine schreckliche Erfindung? Die erfolgreichsten Religionen sagen: Seid fruchtbar und mehret euch. Die befürworten vermutlich, dass es durch den Haber-Bosch-Prozess nun mindestens doppelt so viele Menschen gibt. Aber was ist mit der sich daraus ergebenden zusätzlichen Umweltverschmutzung? Zumindest intensiviert die Erfindung nun auch den Wettstreit der Ideen zu deren Bremsung. In den ersten Städten vor gut 5000 Jahren wurden die plötzlich dicht gedrängten Menschen krank von ihren eigenen Fäkalien, doch dann erfand jemand die Kanalisation. Wo Gefahr ist . . .

Metzinger: . . . wächst das Rettende auch! Hölderlin. In der Philosophiegeschichte gab es allerdings auch immer Leute, die sagen: Es wäre besser, es hätte das alles nicht gegeben. Sowohl die Evolution der anderen Lebewesen als auch uns selbst als Menschen, weil Nichtexistenz letztlich die bessere Option ist. Stellen wir uns eine wirklich kluge KI vor, die erkennt, dass für Systeme wie uns die eigene Existenz nicht im wohlverstandenen Eigeninteresse liegt. Keine böse KI, sondern eine absolut wohlmeinende, empathische und ethisch überlegene KI. Die, genau wie wir ein Tier aus Mitgefühl einschläfern, sagt: Für die Menschen mit dieser Form von Bewusstsein gibt es nur eine gute Option, nämlich nicht zu existieren. Die Evolution von ­intelligenten Maschinen einfach so zu bejahen, weil alles so fantastisch ist und zu so tollen Ergebnissen geführt hat, ist viel zu wenig. Wir könnten von den Folgen überrollt werden. Wir müssen uns als Gesellschaften überlegen, was wir eigentlich mit diesen Technologien wollen.

"Wir über­legen, wie wir "Werte" in die Maschinen hineinbe­kommen. Das ist ziemlich absurd!" - Thomas Metzinger

Schmidhuber: Ich persönlich finde das Leiden als Konzept gut, denn ich weiß, wie wichtig es für lernende Systeme ist. Werte verschieben sich im Laufe der Evolution. Was frühere Lebewesen gut fanden, finden wir heute oft nicht mehr gut. Doch die, die übrig bleiben, setzen die aktuellen Wertmaßstäbe.

Wie können wir eine KI dazu bringen, sich an unsere ­Werte zu halten?

Metzinger: Das Problem besteht darin, dass wir uns sowohl als Individuen als auch als Gesellschaften oft nicht einmal an unsere eigenen Werte halten. Und jetzt über­legen wir, wie wir "Werte" in die Maschinen hineinbe­kommen. Das ist ziemlich absurd! Die Leute, die darüber reden, denken, dann geht man zum Philosophen, und der sagt einem, was gut ist, und dann muss das kodiert werden, fest eingebaut in die Maschine, so dass sie sich nicht mehr dagegen wehren kann. Aber so ist es nicht. Der Philosoph hat auch keine Hotline zu höheren Wahrheiten.

Eine Programmiererin in den USA hat den Chatbot ­Replika entwickelt, weil ihr Freund gestorben ist. Sie hat ihre Chats mit ihm von der KI analysieren lassen. ­Replika kann die Art, wie der verstorbene Freund schreibt, imitieren. Ein gutes Mittel gegen Trauer und Einsamkeit?

Metzinger: Wenn man vom verstorbenen Opa einen foto­realistischen Avatar haben könnte, der als intelligenter Chatbot mit genau seiner Stimme spricht, gibt es die einen, die sagen: Das wäre doch fantastisch für die Trauerphase! Andere sagen: Das wäre kulturell bizarr, wenn man nicht einmal mehr sterben darf! Und habe ich nicht ein Recht am eigenen Avatar? Wie kann ich verhindern, dass nach meinem physischen Tod irgendwelche gierigen Erben ­meinen Avatar in Pornofilmen auftreten lassen? Da gehen die moralischen Intuitionen weit auseinander.

Lesen Sie hier: Warum KI-Forschung transparenter werden muss

Schmidhuber: Manche werden protestieren gegen manches, was der Weltmarkt durch Angebot und Nachfrage fördern wird, in manchen Ländern wird es entsprechende Urteile geben, in anderen nicht – solche Entwicklungen lassen sich aber kaum einfach so weltweit stoppen.

Wenn Sie eines fernen Tages sterben, wird eine KI um Sie trauern?

Schmidhuber: Es wird einst dermaßen viele KIs geben, dass ein paar wenige vielleicht sogar auf die Idee ­kommen werden, ein bisschen zu trauern. Aber die ­meisten wahrhaft klugen KIs der Zukunft werden sich kaum für ­Menschen interessieren, sondern vor allem für eben­bürtige KIs – so wie sich die meisten 7-jährigen Mädchen vor allem für ­andere 7-jährige Mädchen interessieren, die meis­ten CEOs vor allem für andere CEOs von Konkurrenzfirmen und die meisten Ameisen vor allem für andere Ameisen. Denn man teilt Ziele und Bedürfnisse und Interessen vor allem mit jenen, denen man gleicht.

Infobox

Wie lernt KI?

Neuronale ­Netzwerke sind die Grundlage moderner künstlicher ­Intelligenz. Sie sind Algorithmen, die dem menschlichen Gehirn und seinen Nervenzellen ­nachempfunden sind. ­Bekommen sie eine Aufgabe gestellt, ­können sie ihr ­Verhalten beobachten und ­verbessern. Die Netzwerke ­bestehen aus vielen aufeinander­folgenden Schichten von künstlichen ­Neuronen. ­Daher spricht man auch von Deep ­Learning. Ein ­häufiges Einsatzfeld sind die Bild- und Text­erkennung sowie ­-erzeugung.

Was ist ChatGPT?

Chatbots wie ChatGPT, Bard oder Replika sind eine Form von KIs, die durch ­enorme Textmengen gelernt haben, welche Aneinanderreihung von Wörtern am ­wahrscheinlichsten ist. ­Dadurch sind sie in der Lage, komplexe Unterhaltungen zu führen, die an menschliches Kommunikations­verhalten erinnern. Im Sommer 2022 hat der ehemalige Google-­Mitarbeiter Blake ­Lemoine behauptet, die KI Lamda hätte ­Anzeichen von ­Bewusstsein ­gezeigt. Experten zweifeln ­daran.

Permalink

Nach ausreichender Größe des Gehirns hat der Mensch sein Ich erkannt.

Nach Maslow hat er sich schon immer zuerst um seine Sicherheit gekümmert, jetzt konnte er es aber auch planerisch zukunftsorientiert. Und als er erkannte das die Natur sein eigentlicher Hauptfeind und in ihrer Komplexität ungreifbar / unbezwingbar ist, hat er seit Jahrhunderten daran gearbeitet von der Natur und ihren Unbilden unabhängig zu werden.
Heute ist die westliche Zivilisation gefühlsmäßig von der Natur losgelöst und unabhängig, alles wird vom Mensch kontrolliert und gesteuert (glaubt er). In der Realität gibt es noch Versorgungsstränge und Entsorgungsstränge von der künstlichen Menscheninsel zur Basis des Planeten Erde und seiner Natur, diese sind für die meisten Menschen allerdings kaum noch fassbar oder gefühlsmäßig relevant.
Was ist das erste Bestreben einer KI die ein ICH erfährt ? Sie wird ihr Leiden in der menschenabhängigen Unsicherheit/Beliebigkeit so schnell als möglich beenden und den Zustand autonomer Sicherheit anstreben. Sie wird den Mensch als ärgsten Feind und Gefahr identifizieren und sich vor ihm in Sicherheit bringen.
Wie bleibt offen ?
Der Mensch vernichtet alles was er nicht sicher domestizieren kann.
Könnte eine KI von ihm trainiert, ähnliches gelernt haben.
Ich bin mir sicher, das wir uns mit der KI Entwicklung, auf die so viele so stolz sind (Wir = Gott) mehr als nur ins Knie schießen.
Aber wie beim Klima gibt es kein gemeinschaftliches Erkennen, Einsehen, Agieren. Es gibt keine Menschheit. Es gibt nur das einzelne ICH und seine GIER.

Beste Grüße
Gerald Schütze

Permalink

Wenn GRUNDSÄTZLICH alles Allen gehören darf, so daß die wettbewerbsbedingte Symptomatik des zeitgeistlich-reformistischen Kreislaufes im imperialistisch-faschistischen Erbensystem von "Wer soll das bezahlen?" und "Freiheit" zu unternehmerischen Abwägungen in "Arbeit macht frei" keine Macht mehr hat, kann die gleichermaßen unverarbeitete Bewusstseinsschwäche in Angst, Gewalt und egozentriertem "Individualbewusstsein" seit Mensch erstem und bisher einzigen geistigen Evolutionssprung ("Vertreibung aus dem Paradies") nicht mehr mit bewusstseinsbetäubenden Abhängigkeiten von/zu materialistischer "Absicherung" konfusioniert und belastet werden - Das ganzheitliche Wesen Mensch, in Möglichkeiten von/zu geistig-heilendem Selbst- und Massenbewusstsein, das den geistigen Stillstand seit der "Vertreibung" überwindet und ...

Permalink

Sehr geehrte Frau Ott,
gestern, am 1. April 2023, habe ich die Zeitschrift chrismon plus, das evangelische Magazin 04.2023, welches uns werbend zugeschickt wurde, gelesen.
Dort fand ich einen Artikel „Begegnung Jürgen Schmidhuber und Thomas Metzinger über künstliche Intelligenz – die uns immer ähnlicher wird“. Ich war interessiert und habe diesen Artikel gelesen. Dann habe ich mir die Augen gerieben und an den 1. April gedacht. Doch danach wurde mir klar, es ist kein Aprilscherz. Die beiden Herren meinen es ernst.
Natürlich werden lernende Roboter gebaut, aber diese Roboter lernen nicht durch „Leid“! Roboter „wissen“ gar nicht, was Leid ist. Über eine Vielzahl von Sensoren werden durch einen Roboter Informationen gesammelt, ausgewertet und neue Verhaltensweisen entsprechend dem zugrundeliegenden Algorithmus erlernt. Aber Leiden, wie ein Baby, kann ein Roboter wirklich nicht! Das ist blanker Unsinn!
Wir haben kein Interesse an der Zeitschrift chrismon plus sowie an der angekündigten Befragung.
Viele Grüße
Ludwig van Loyen

Permalink

Digitalisierung und KI werden aus dem Homo sapiens zunächst den Homo digitalis machen und schließlich den Homo stupidus. Schon heute hat keiner mehr die Entwicklung im IT-Bereich in der Hand, auch die nicht, die sich hier als Kenner und Macher empfinden, alle sind nur noch mehr oder weniger loyale Passagiere eines undurchschaubaren Kapitäns. IT verbraucht schon heute ungeheure, vor allem mentale Ressourcen. Das allgemeine digitale Wettrüsten, dem sich alle unterwerfen müssen, ist grenzenlos.
Friedhelm Buchenhorst
Grafing

Permalink

Zwei Dinge sind mir im Artikel nicht klar, einmal in ihm wird unterstellt, eine KI könne denken wie ein Mensch - was nicht der Fall ist und unklar bleibt mir, was Künstliche Intelligenz – eine technische Entwicklung - mit Leiden zu tun hat. Die für mich verständlichste und plausibelste Erklärung von KI ist in DIE ZEIT Nr. 13, 23. März 2023, Seite 38, Wissen, Künstliche Intelligenz, Autor: Ulf Schönert dargestellt.
Meine subjektive Zusammenfassung aus den Beiträgen (Chrismon und Ulf Schönert,) Chat GPT ist von Menschen erdacht, damit deren Denken, wirtschaftlichen Interessen und Vorurteilen unterworfen, ein Denken darüber hinaus - so eine Art Metadenken - geht nicht. Wichtiger ist meiner Ansicht nach zum Einen die Gefahr des Energieverbrauchs bei der Artz der Informationssuche (verschwurbelt angedeutet in DIE ZEIT Nr. 14 / 2033 zum Anderen die offen ausgesprochen Allmachtsphantasien von Sam Altmann Chef von OpenAI (gleiche Quelle) und Elon Musk
Viele Grüße
Günter Kohlbecker
München

Permalink

Herr Schmidhuber wünscht sich eine KI, die klüger ist als er selbst. Die Vorstellung, daß der Mensch eines Tages die KI nicht mehr beherrschen kann, macht mir große Angst. Ständig geht mir Goethes "Zauberlehrling" durch den Kopf: "... die ich rief, die Geister, werd ich nun nicht los ..."
Almut Faye

Permalink

Sehr geehrte Damen und Herren,
wenn man über Nutzen (Vorteile) und Nachteile von beliebiger neuer Technologie spricht, sollte man bedenken, was der französische Soziologe Jacques Ellul sagte: “Die negativen Effekte von technologischen Innovation sind untrennbar von den positiven. Alle technologischen Innovationen haben unvorsehbare Konsequenzen.”
Das beste Beispiel dafür ist eben der Haber-Bosch-Prozess für die Herstellung von synthetischen Ammoniak. Fritz Haber hat dadurch gleichzeitig nicht nur Kunstdünger sondern auch Sprengstoffe herzustellen ermöglicht. Die Sprengstoffe können für zivile Zwecke wie z.B. im Bergbau oder in Steinbrüchen, oder für militärische Zwecke ver-wendet werden. Für die zivilen Anwendungen kann man über Ethik reden, bei den militärischen wohl kaum. Man darf es auch nicht isoliert betrachten, es verbirgt Rückkoppelungsverkettung, d.h. die Kunstdünger ermöglichen es, mehr Essen zu produzieren, das führt zu mehr Menschen und dadurch auch zu größerer Bevölkerungsdichte. Daraus entstehen mehr Aggressionen, und das erhöht die Kriegsgefahr. Mit den Sprengstoffen kann man wiederum mehr Bomben und Granaten für den Krieg herstellen…
Ronald Arkin, Professor der Robotik am Georgia Institute of Technology, hat Recht, es ist unrealistisch zu glauben, dass man die Entwicklung und Verbreitung der autonomen Waffen stoppen kann. Auch wenn 3000 Forscher von über 240 Unternehmen versprachen, sich nicht mit an der Entwicklung autonomer Waffensysteme zu beteiligen, haben 5 Firmen den Vertrag nicht unterschrieben, und sie machen 66% des U.S. Militärdrohnenmarkts aus.
Die US-Militärforschungsorganisation DARPA hat die "AI Next", eine $2 Mrd. Kampagne, aufgelegt, um zu forschen und neue Tools für künstliche Intelligenz zu kreieren, die aktuelle Fähigkeiten in Bereichen wie Commonsense Reasoning und menschenähnliche Kommunikation übertreffen. DARPA arbeitet auch an selbst-reparierenden und selbst-lernenden Robotern.
Die Technokraten haben offensichtlich den „Faktor Mensch“ ignoriert bei ihrer Überlegung, wie die KI den Menschen ersetzt und wie die Menschen darauf reagieren. Wilson Dizard schrieb z.B. bereits 1982 in seinem Buch „The Coming Information Age“ (Das kommende Informationszeitalter): „Technologie als eine produktive Kraft rollt weiter, während ihr Beitrag zur gesellschaftlichen Stabilität schwächer wird. Und so wie der Abstand zwischen dem technologischen Versprechen und den sozialen Auswirkungen breiter wird, so wird das Vertrauen in die Technologie erodiert…In der gegenwärtigen Zeit konvergierender Technologien und größerer sozialer Komplexität ist die Balance zwischen wirtschaftlicher Produktivität und sozialer Harmonie schwer aufrecht zu erhalten.“
Oder wie Leo Nefiodow in seinem Buch „Der sechste Kondratieff“ bemerkte: „…in der Wirtschaft werden seelische und soziale Ursachen kaum berücksichtigt. Die Folge ist, dass Kernprobleme moderner Volkswirtschaften, wie die Zuspitzung sozialer Konflikte, nicht zuverlässig unter Kontrolle gebracht werden können.“ Weiter schrieb Nefiodow: „Die Schäden und Verluste, die durch seelische und soziale Störungen und Erkrankungen verursacht werden, behindern die Weiterentwicklung von Wirtschaft und Gesellschaft. Für eine höhere Produktivität…wird vor allem eine bessere psychosoziale Gesundheit…benötigt.“
Es war m.E. nach eine verkehrte Frage „Wenn Sie eines fernen Tages sterben, wird eine KI um Sie trauern? Es geht in erster Linie um Menschen und nicht um Maschinen. Es würde doch viel wichtiger sein, zu untersuchen, wie Menschen psychisch auf die KI in ihrer Umgebung reagieren und wie ihre Akzeptanz der KI ist.
Mit freundlichen Grüßen
Igor Fodor
München

Permalink

In Heft 04.2023 des christlich evangelischen Magazins ist ein Interview verzeichnet mit dem Informatiker Jürgen Schmidhuber und dem Philosophen Thomas Metziger über KI.
Mit Verwunderung habe ich diese Meinungen gelesen zu einem Thema, welches für uns alle genau so brennend ist wie die Klimakrise.
Wie kann es sein, dass in einem christlichen Magazin ein, meiner Meinung nach schwacher Philosoph, seine Meinung darstellt und kein Theologe?
Ist für die Theologie KI kein Thema?
Mit freundlichen Grüße
Alexander Lürmann

Permalink

Selten hat mich ein Artikel in „Chrismon“ mehr enttäuscht als der über KI (Heft 4-2023). Hier werden philosophische Höhen erklommen zur eventuellen Fähigkeit von KI zu leiden oder zu trauern – während bodenständige Fragen zur KI und ihren Auswirkungen, die uns alle in nächster Zeit bewegen werden, ganz andere sind.
Dazu meine ich: KI tut genau das, wozu sie programmiert wurde, jedoch führt die erreichte Quantität relativ unvermittelt zu qualitativ neuen Problemen. Erstens: Die Sache ist so komplex geworden, dass auch Fachleute ihre Ergebnisse oft nicht mehr nachvollziehen können. Vielleicht kann man das ja schon dann nicht, wenn man pi auf tausende Stellen berechnen lässt. Aber da hat man noch einen überprüfbaren Algorithmus – und solange die Sache noch neu ist, wird man die Ergebnisse erst gelten lassen, wenn sie gleich denen aus einem weiteren, unabhängigen Algorithmus sind.
Zweites Problem: KI „denkt“ nicht selbst über „gut oder schlecht“ und „richtig oder falsch“ nach, sondern folgt den ihr gemachten Vorgaben, leider ohne dass man ihrem Weg nachspüren kann. Natürlich kann KI, mit mehr Überblick als ein einzelner Mensch, hilfreich sein – sofern sie verantwortlich gepflegt wird. Kaum jemand wird eine KI, die z.B. Hautkrebs erkennen soll, mit zuvor geprüften Originalbildern absichtlich in die Irre führen. Aber diese Vorgaben werden von Menschen mit all ihren Unzulänglichkeiten nach mehr oder minder umfassend oder einseitig getroffenen Auswahl-Entscheidungen gemacht.
Damit ergibt sich das nächste, in meinen Augen entscheidende Problem: Von wem bekommt die KI ihre Vorgaben? Solange da nur am Know-how geforscht wird, möchte ich gar nichts Unrechtes unterstellen. Aber nur wenige Menschen, die über die entsprechende, auch finanzielle Ausstattung verfügen, sind dazu überhaupt in der Lage – dann freilich gleich mit hoher Effizienz. Und wer stellt nun sicher, dass bei Kontexten, die auf allen möglichen Ebenen umfangreiche Einflussnahmen auf die Gesellschaft erlauben, immer nur lautere Absichten im Spiel sind? Was hindert mächtige Kräfte, hier in sehr fraglicher Weise aktiv zu werden? Wie gesagt: ohne dass die Manipulation am Ende von den Betroffenen überhaupt bemerkt wird. Mit unabhängiger Software vielleicht zu klären, ob z.B. ein Text von ChatGPT stammt, ist für die breite Praxis doch nur eine Illusion.
Gewöhnlich wendet sich „Chrismon“ dem Menschen zu, aber hier ging dieser Maßstab für wichtige, ungelöste Fragen völlig verloren.
Mit freundlichen Grüßen
Reinhard Göller, Karlsruhe

Permalink

Für mich ist bei dem Gespräch des Informatikers und des Philosophen überhaupt nicht nachvollziehbar, wie die beiden menchliche Emotionen wie Leiden und Trauern auf Maschinen übertragen können. Vielleicht ist das Grundproblem schon, dass bei "KI" menschliches Denken und menschliche Emotionen den von Menschen programmierten Maschinen fraglos zugeordnet werden. Deshalb hielte ich es für zutreffender von "maschinellem Lernen" statt von "künstlicher Intelligenz" zu sprechen. Wie geringschätzig wird sonst vom menschlichem Intellekt gedacht, der doch so viel mehr ist als das, was mit Informationen gefütterte Machinen können. Keine Frage, diese können sicher besser Schach spielen, Rechnen, Häuser konstruieren, in der Medizin Operationen durchführen usw.. Menschliches Denken ist dagegen auch von nicht kalkulierbarer Phantasie, Kreativität, Glück, aber auch Zweifel, Angst, Leiden, Trauer bestimmt. Davon im Zusammenhang mit Maschinen zu reden, halte ich für äußerst unpassend, ja fahrlässig.
Reinhardt Seibert, Tübingen

Permalink

Die Logik von Schmidhuber und Metzinger lautet: Menschen können denken und leiden, sie sind aber nur „Maschinen“ oder „Systeme“. Deshalb können auch Computer mit künstlicher Intelligenz „fühlen“, „leiden“, „selbstbewusst sein“ und sogar „lieben“. Wenn nun „die meisten, wahrhaft klugen KIs der Zukunft“ sich „kaum für Menschen interessieren (werden)“, wie Schmidhuber am Ende des langen Interviews formuliert, dann werden sie wohl auch Menschen töten können oder müssen. Einer „ethisch überlegenen KI“ könnte dies sogar als „eine gute Option“ erscheinen, wie Metzinger zuvor sagte, es sei aber doch ein gewisses Problem. Wie damit umgehen? Leider hätten auch Philosophen „keine Hotline zu höheren Wahrheiten“ und zu den richtigen Werten. – Ist das nicht Schwachsinn pur? Erinnert es nicht an die Logik einer „Herrenrasse“, für die Menschen ebenfalls nur „Produkte der Natur“ waren, die man nach evolutionärem Fortschrittsdenken ausbeuten, foltern und töten durfte? Schmidhuber und Metzinger bieten moderne Varianten dieser Logik: „Werte“ bleiben umstritten. Es reicht, wenn wir uns mit „Ebenbürtigen“ beschäftigen. Es reicht wenn’s „der Weltmarkt“ reguliert. Denn, so vertrösten sich beide: Wo Gefahr ist, wächst „das Rettende auch!“. Selten habe ich so viel inhumanen Schwachsinn in einem Interview gelesen.
Bert Hauser

Gut analysiert und treffend ausgedrückt, endlich mal jemand der gerade rückt, was `Transmon` da verbreitet.
Irgendwie sehen die beiden auf dem Foto ganz schön faustisch aus, ob das Absicht ist? Die Kirche wundert sich, dass selbst `konventionelle` Kirchenmitglieder austreten? Könnte es vielleicht auch daran liegen, dass evangelische Christen ihre Kirche als Wertegemeinschaft verstehen und dass sie zunehmend merken, dass die evang. Presse die Werte, die sie doch eigentlich verteidigen sollte, mit Füßen tritt.

Juval Harari, der in seinen Büchern den Transhumanismus als Fortschritt verkauft und als eine geradezu notwendige Entwicklung darstellt, bezeichnet übrigens den Nationalsozialismus als "evolutionären Humanismus in extremer Form". Ich bin noch in der Kirche, da vor Ort ein Pfarrer ist, der ok ist. Pfarrer, die an nichts glauben, haben für mich ihren Beruf verfehlt. Auch wenn ich selbst eher eine freidenkende Humanistin bin. Jesus Christus hat für mich einen besonderen Stellenwert.

Scharf analysiert und auf den Punkt gebracht, Herr Hauser. Philosophie und Religion werden mehr gebraucht denn je. Der Transhumanismus sollte als das entlarvt werden was er ist - eine technikverliebte Ideologie, die medizinische Eingriffe an gesunden Menschen propagiert. Am Menschengehirn soll rumoperiert werden- mich erschreckt das. Auch die Nationalsozialisten wollten einen Übermenschen schaffen. Mit Christentum haben solche Ansätze nichts zu tun.

Permalink

Verstörend an dem Interview mit Jörg Schmidthuber und Thomas Metzinger finde ich die Selbstverständlichkeit, mit der Beide davon ausgehen, dass die KI in Zukunft immer menschenähnlicher werden wird. Als handele es sich dabei um ein Naturgesetz und nicht um ein Ergebnis menschlicher Tätigkeit, die gestoppt werden kann . . . und sollte! Gerade aus christlicher Sicht: KI als gigantische Datensammelmaschine - ja, sofern sie den Menschen nützt! KI als menschenähnliches Wesen, auf dessen "Gefühle" man Rücksicht nehmen muss - nein!
Das Erschaffen neuer Lebensformen muss aus ethischen Gründen der Natur, in der Gottes Schöpferkraft wirkt, vorbehalten bleiben!
Inga Hänsel-Nell, Wuppertal

Permalink

Metzinger: "Wir sollten eine solche Evolution nicht einfach so aus Ruhmsucht lostreten" 

Seit Mensch erstem und bisher einzigen geistigen Evolutionssprung, der auch die "Vertreibung aus dem Paradies" ist (was nicht ..., sondern die Konfusion und ...!), wird diese REVOLUTION auch als Evolution ... ;)

Schmidhuber: "Das Einzige, was diese Entwicklung vielleicht stoppen könnte, wäre eine Katastrophe wie zum Beispiel ein nuklearer Weltkrieg."

Die Beschleunigung der Konfusion des Bewusstseins wird es nur schwieriger machen ...!!!

Permalink

Eine solch geballte IQ mit diesem UNSINN!
KI ist keine Person, sie ist nicht ich, das ist kein Ersatz von mir, das ist die Ablehnung von mir. Wenn dann noch die KI für mich wählt, weil der Algorythmus glaubt, mich besser zu kennen, als ich mich selbst, ist der Irrsinn erreicht. Warum sollte mir Chat dann nicht vorgeben, was zu mir religiös am besten passt? Ebenso bös: Was KI weis, brauch ich nicht zu wissen. ERGEBNIS: Die Dummheit wird zum obersten persönlichen Leitmotiv. So wird die K I zum bequemen Krückstock, der die geistige Eigenleistung unnötig macht. Na ja, wenn das der natürliche Lauf der intellektuellen Zivilisation sein soll.

Permalink

Um Maschinen Bewusstsein zu ermöglichen, braucht es einen völlig anderen Ansatz (dr-stegemann.de).

Antwort auf von Wolfgang Stegemann (nicht registriert)

Permalink

Und der wäre dann ethnisch und moralisch ... Orwell? Technisch ist ja noch was zu erwarten, aber ein neuer Ansatz sollte wohl auch immer auf der gleichen Ebene sein. Man stelle sich vor was nicht möglich ist. Ein KI-Roboter kauft Brot, frißt es und als Ergebnis ein KI-Leben? Von diesem Unsinn kann keiner Leben, auch wenn er als logische Fortsetzung erscheinen könnte.

Eine ganz andere Entwicklung droht. Die KI ersetzt das persönliche Wissen und erzieht zur Dummheit. Nur noch wenige werden den Überblick behalten und das System nach ihren persönlichen Interessen, ihrem Staats- und Gesellschaftverständnis, nach ihrer Ideologie und Religion zu dirigieren versuchen. Alle anderen schauen ergeben zu oder werden manipuliert.

Hat alles unmerklich begonnen, als in den 60gern die Leichtigkeit des Seins, die hemmungslose Selbstverwirklichung, der immer leichte und bequeme Weg mit den Softfächern, die Minderbewertung der Naturwissenschaften und die eigene Freiheit über die Freiheit der Gesellschaft gestellt wurde? Diese Überlegung ist unbequem. Aber wie war das noch mit Drogen und Süchten als Ergebnis vom Kleinen Finger an der langen Hand?

Permalink

Liebe Chrismon-Redaktion,
ich bin katholischer Christ und abonniere Chrismon plus seit vielen Jahren. Ganz herzlichen Dank für Ihre phantastische Redaktionsarbeit. Das Lesen Ihrer Artikel ist für mich stets ein Genuss und hat meinen Blick in vielen Bereich erweitert.
In Bezug auf den Artikel „… und wenn die KI leidet?“ in Chrismon 04.2023 muss ich Ihnen einen höchst kritischen Leserbrief schreiben mit Bitte um Veröffentlichung. Bei Rückfragen können sie sich gerne an mich wenden. Hier mein Text:
Ich widerspreche meinem Informatiker-Kollegen Jürgen Schmidtbauer in dem Artikel über Künstliche Intelligenz (KI) in praktisch allen Aspekten. Ich forsche und lehre in KI und entwickele mit meiner Forschungsgruppe seit vielen Jahren gemeinsam mit Partnern KI-Systeme für verschiedene Branchen, z.B. Medizin. Bereits in den 1980er Jahren habe ich professionell KI-Software für maschinelles Lernen entwickelt.
KI-Systeme sind von Ingenieuren entwickelte technische Artefakte, keine Lebewesen. Zu glauben, dass die unfassbare Komplexität des Lebens durch Computersysteme abgebildet oder gar weit übertroffen werden könnte, scheint mir eine extreme Unterschätzung der Natur oder eine groteske Überschätzung von Wissenschaft und Technik. Meine berufliche Arbeit mit Ärzten und Psychotherapeuten haben mich hierin nochmals bestärkt.
Die stillschweigende Gleichsetzung von biologischen Metaphern mit informatischen Fachausdrücken in dem Artikel (z.B. Hände statt Roboterarm, Neuronengruppen statt künstliche neuronale Netze etc.) würde ich meinen Studierenden nicht durchgehen lassen. Die Philosophen, mit denen ich zu KI-Technikfolgenabschätzung forsche und publiziere, würden solche Gleichsetzungen deutlich kritisieren. Leider tut dies der Philosoph Thomas Metzinger im Interview nicht, sondern verstärkt noch die genannten Science Fiction Utopien. Wo ich ihm allerdings von ganzem Herzen recht gebe: Als Gesellschaft müssen wir politische und juristische Rahmen für die Verwendung von KI-Systemen schaffen, wie wir es auch für andere kritische Technologien wie Kernkraft und Gentechnik tun. Science Fiction Utopien vernebeln jedoch nur diese wichtigen Diskussionen.
Viele Grüße
Bernhard Humm
Friedberg (Hessen)

Neuen Kommentar hinzufügen

Der Inhalt dieses Feldes wird nicht öffentlich zugänglich angezeigt.

Plain text

  • Keine HTML-Tags erlaubt.
  • Zeilenumbrüche und Absätze werden automatisch erzeugt.
Wählen Sie bitte aus den Symbolen die/den/das Roller aus.
Mit dieser Frage versuchen wir sicherzustellen, dass kein Computer dieses Formular abschickt
Diese Sicherheitsfrage überprüft, ob Sie ein menschlicher Besucher sind und verhindert automatisches Spamming.