Informatiker Jürgen Schmidhuber (links) und Philosoph Thomas Metzinger (rechts)
Informatiker Jürgen Schmidhuber (links) und Philosoph Thomas Metzinger
Didier Ruef/Visum, Rui Camilo/laif
Künstliche Intelligenz
.  .  .  und wenn die KI leidet?
Nur durchs Leiden lernt man, sagt der Pionier für künstliche Intelligenz. Wir müssen aufpassen, dass uns die Entwicklung nicht entgleitet, warnt der Philosoph
Tim Wegner
Tim Wegener
Aktualisiert am 29.05.2024
11Min

chrismon: Herr Metzinger, wenn Sie sich eine künstliche Intelligenz wünschen dürften, welche wäre das?

Thomas Metzinger: Gern eine, die uns guttut, gemeinwohlorientiert ist und uns hilft, mit weniger Leid zu leben. Und auf jeden Fall eine, die selbst nicht leidet.

Jürgen Schmidhuber: Das scheint aus meiner Sicht schwierig, denn das Leiden ist fundamentaler Bestandteil des Lernens, welches wiederum fundamentaler Bestandteil moderner KI ist. Eine KI, die nicht leidet, hat keine Motivation, etwas zu lernen, um dieses Leiden abzustellen.

Wie kann eine künstliche Intelligenz leiden?

Schmidhuber: Wenn wir einen lernenden Roboter bauen, geben wir ihm als erstes Schmerzsensoren, die sich melden, wenn er etwa mit dem Arm zu heftig gegen ein Hindernis schlägt. Er muss ja irgendwie lernen, was ihm schadet. In dem Roboter steckt ein kleines Kunsthirn, das versucht, die Summe seiner Leiden (codiert durch reelle Zahlen) zu minimieren und die Summe der Belohnungen zu maximieren. Lernt er, Muster zu erkennen und Handlung zu planen, kann er das Leiden abstellen – ein wenig wie ein Baby. Das Baby und die kleinen KIs lernen vorherzusagen, was die Konsequenzen ihrer Aktionen sind. Sie versuchen zu lernen, das zu vermeiden, was zu Leiden führt.

chrismon Spendenabo doppeltgut
doppeltgut
Digitales Spendenabo abschließen und weiterlesen

4 Wochen gratis testen, danach mit 10 € guten Journalismus und gute Projekte unterstützen.
Vierwöchentlich kündbar.

Infobox

Wie lernt KI?

Neuronale ­Netzwerke sind die Grundlage moderner künstlicher ­Intelligenz. Sie sind Algorithmen, die dem menschlichen Gehirn und seinen Nervenzellen ­nachempfunden sind. ­Bekommen sie eine Aufgabe gestellt, ­können sie ihr ­Verhalten beobachten und ­verbessern. Die Netzwerke ­bestehen aus vielen aufeinander­folgenden Schichten von künstlichen ­Neuronen. ­Daher spricht man auch von Deep ­Learning. Ein ­häufiges Einsatzfeld sind die Bild- und Text­erkennung sowie ­-erzeugung.

Was ist ChatGPT?

Chatbots wie ChatGPT, Bard oder Replika sind eine Form von KIs, die durch ­enorme Textmengen gelernt haben, welche Aneinanderreihung von Wörtern am ­wahrscheinlichsten ist. ­Dadurch sind sie in der Lage, komplexe Unterhaltungen zu führen, die an menschliches Kommunikations­verhalten erinnern. Im Sommer 2022 hat der ehemalige Google-­Mitarbeiter Blake ­Lemoine behauptet, die KI Lamda hätte ­Anzeichen von ­Bewusstsein ­gezeigt. Experten zweifeln ­daran.

Dieser Text erschien erstmals am
Die Kommentarfunktion ist nur noch für registrierte Nutzer verfügbar. Um einen Leserkommentar schreiben zu können, schließen Sie bitte ein Abo ab, schreiben Sie uns eine Mail an leserpost@chrismon.de oder diskutieren Sie auf Instagram, Facebook und LinkedIn mit.
Permalink

Nach ausreichender Größe des Gehirns hat der Mensch sein Ich erkannt.

Nach Maslow hat er sich schon immer zuerst um seine Sicherheit gekümmert, jetzt konnte er es aber auch planerisch zukunftsorientiert. Und als er erkannte das die Natur sein eigentlicher Hauptfeind und in ihrer Komplexität ungreifbar / unbezwingbar ist, hat er seit Jahrhunderten daran gearbeitet von der Natur und ihren Unbilden unabhängig zu werden.
Heute ist die westliche Zivilisation gefühlsmäßig von der Natur losgelöst und unabhängig, alles wird vom Mensch kontrolliert und gesteuert (glaubt er). In der Realität gibt es noch Versorgungsstränge und Entsorgungsstränge von der künstlichen Menscheninsel zur Basis des Planeten Erde und seiner Natur, diese sind für die meisten Menschen allerdings kaum noch fassbar oder gefühlsmäßig relevant.
Was ist das erste Bestreben einer KI die ein ICH erfährt ? Sie wird ihr Leiden in der menschenabhängigen Unsicherheit/Beliebigkeit so schnell als möglich beenden und den Zustand autonomer Sicherheit anstreben. Sie wird den Mensch als ärgsten Feind und Gefahr identifizieren und sich vor ihm in Sicherheit bringen.
Wie bleibt offen ?
Der Mensch vernichtet alles was er nicht sicher domestizieren kann.
Könnte eine KI von ihm trainiert, ähnliches gelernt haben.
Ich bin mir sicher, das wir uns mit der KI Entwicklung, auf die so viele so stolz sind (Wir = Gott) mehr als nur ins Knie schießen.
Aber wie beim Klima gibt es kein gemeinschaftliches Erkennen, Einsehen, Agieren. Es gibt keine Menschheit. Es gibt nur das einzelne ICH und seine GIER.

Beste Grüße
Gerald Schütze

Permalink

Wenn GRUNDSÄTZLICH alles Allen gehören darf, so daß die wettbewerbsbedingte Symptomatik des zeitgeistlich-reformistischen Kreislaufes im imperialistisch-faschistischen Erbensystem von "Wer soll das bezahlen?" und "Freiheit" zu unternehmerischen Abwägungen in "Arbeit macht frei" keine Macht mehr hat, kann die gleichermaßen unverarbeitete Bewusstseinsschwäche in Angst, Gewalt und egozentriertem "Individualbewusstsein" seit Mensch erstem und bisher einzigen geistigen Evolutionssprung ("Vertreibung aus dem Paradies") nicht mehr mit bewusstseinsbetäubenden Abhängigkeiten von/zu materialistischer "Absicherung" konfusioniert und belastet werden - Das ganzheitliche Wesen Mensch, in Möglichkeiten von/zu geistig-heilendem Selbst- und Massenbewusstsein, das den geistigen Stillstand seit der "Vertreibung" überwindet und ...

Permalink

Mensch ist selbst noch nur KI, KI des Geistes der Gott/Vernunft des Zentralbewusstseins / der Schöpfung / der Energie des Universums ist.

Permalink

Sehr geehrte Frau Ott,
gestern, am 1. April 2023, habe ich die Zeitschrift chrismon plus, das evangelische Magazin 04.2023, welches uns werbend zugeschickt wurde, gelesen.
Dort fand ich einen Artikel „Begegnung Jürgen Schmidhuber und Thomas Metzinger über künstliche Intelligenz – die uns immer ähnlicher wird“. Ich war interessiert und habe diesen Artikel gelesen. Dann habe ich mir die Augen gerieben und an den 1. April gedacht. Doch danach wurde mir klar, es ist kein Aprilscherz. Die beiden Herren meinen es ernst.
Natürlich werden lernende Roboter gebaut, aber diese Roboter lernen nicht durch „Leid“! Roboter „wissen“ gar nicht, was Leid ist. Über eine Vielzahl von Sensoren werden durch einen Roboter Informationen gesammelt, ausgewertet und neue Verhaltensweisen entsprechend dem zugrundeliegenden Algorithmus erlernt. Aber Leiden, wie ein Baby, kann ein Roboter wirklich nicht! Das ist blanker Unsinn!
Wir haben kein Interesse an der Zeitschrift chrismon plus sowie an der angekündigten Befragung.
Viele Grüße
Ludwig van Loyen

Permalink

Digitalisierung und KI werden aus dem Homo sapiens zunächst den Homo digitalis machen und schließlich den Homo stupidus. Schon heute hat keiner mehr die Entwicklung im IT-Bereich in der Hand, auch die nicht, die sich hier als Kenner und Macher empfinden, alle sind nur noch mehr oder weniger loyale Passagiere eines undurchschaubaren Kapitäns. IT verbraucht schon heute ungeheure, vor allem mentale Ressourcen. Das allgemeine digitale Wettrüsten, dem sich alle unterwerfen müssen, ist grenzenlos.
Friedhelm Buchenhorst
Grafing

Permalink

Zwei Dinge sind mir im Artikel nicht klar, einmal in ihm wird unterstellt, eine KI könne denken wie ein Mensch - was nicht der Fall ist und unklar bleibt mir, was Künstliche Intelligenz – eine technische Entwicklung - mit Leiden zu tun hat. Die für mich verständlichste und plausibelste Erklärung von KI ist in DIE ZEIT Nr. 13, 23. März 2023, Seite 38, Wissen, Künstliche Intelligenz, Autor: Ulf Schönert dargestellt.
Meine subjektive Zusammenfassung aus den Beiträgen (Chrismon und Ulf Schönert,) Chat GPT ist von Menschen erdacht, damit deren Denken, wirtschaftlichen Interessen und Vorurteilen unterworfen, ein Denken darüber hinaus - so eine Art Metadenken - geht nicht. Wichtiger ist meiner Ansicht nach zum Einen die Gefahr des Energieverbrauchs bei der Artz der Informationssuche (verschwurbelt angedeutet in DIE ZEIT Nr. 14 / 2033 zum Anderen die offen ausgesprochen Allmachtsphantasien von Sam Altmann Chef von OpenAI (gleiche Quelle) und Elon Musk
Viele Grüße
Günter Kohlbecker
München

Permalink

Herr Schmidhuber wünscht sich eine KI, die klüger ist als er selbst. Die Vorstellung, daß der Mensch eines Tages die KI nicht mehr beherrschen kann, macht mir große Angst. Ständig geht mir Goethes "Zauberlehrling" durch den Kopf: "... die ich rief, die Geister, werd ich nun nicht los ..."
Almut Faye

Permalink

Sehr geehrte Damen und Herren,
wenn man über Nutzen (Vorteile) und Nachteile von beliebiger neuer Technologie spricht, sollte man bedenken, was der französische Soziologe Jacques Ellul sagte: “Die negativen Effekte von technologischen Innovation sind untrennbar von den positiven. Alle technologischen Innovationen haben unvorsehbare Konsequenzen.”
Das beste Beispiel dafür ist eben der Haber-Bosch-Prozess für die Herstellung von synthetischen Ammoniak. Fritz Haber hat dadurch gleichzeitig nicht nur Kunstdünger sondern auch Sprengstoffe herzustellen ermöglicht. Die Sprengstoffe können für zivile Zwecke wie z.B. im Bergbau oder in Steinbrüchen, oder für militärische Zwecke ver-wendet werden. Für die zivilen Anwendungen kann man über Ethik reden, bei den militärischen wohl kaum. Man darf es auch nicht isoliert betrachten, es verbirgt Rückkoppelungsverkettung, d.h. die Kunstdünger ermöglichen es, mehr Essen zu produzieren, das führt zu mehr Menschen und dadurch auch zu größerer Bevölkerungsdichte. Daraus entstehen mehr Aggressionen, und das erhöht die Kriegsgefahr. Mit den Sprengstoffen kann man wiederum mehr Bomben und Granaten für den Krieg herstellen…
Ronald Arkin, Professor der Robotik am Georgia Institute of Technology, hat Recht, es ist unrealistisch zu glauben, dass man die Entwicklung und Verbreitung der autonomen Waffen stoppen kann. Auch wenn 3000 Forscher von über 240 Unternehmen versprachen, sich nicht mit an der Entwicklung autonomer Waffensysteme zu beteiligen, haben 5 Firmen den Vertrag nicht unterschrieben, und sie machen 66% des U.S. Militärdrohnenmarkts aus.
Die US-Militärforschungsorganisation DARPA hat die "AI Next", eine $2 Mrd. Kampagne, aufgelegt, um zu forschen und neue Tools für künstliche Intelligenz zu kreieren, die aktuelle Fähigkeiten in Bereichen wie Commonsense Reasoning und menschenähnliche Kommunikation übertreffen. DARPA arbeitet auch an selbst-reparierenden und selbst-lernenden Robotern.
Die Technokraten haben offensichtlich den „Faktor Mensch“ ignoriert bei ihrer Überlegung, wie die KI den Menschen ersetzt und wie die Menschen darauf reagieren. Wilson Dizard schrieb z.B. bereits 1982 in seinem Buch „The Coming Information Age“ (Das kommende Informationszeitalter): „Technologie als eine produktive Kraft rollt weiter, während ihr Beitrag zur gesellschaftlichen Stabilität schwächer wird. Und so wie der Abstand zwischen dem technologischen Versprechen und den sozialen Auswirkungen breiter wird, so wird das Vertrauen in die Technologie erodiert…In der gegenwärtigen Zeit konvergierender Technologien und größerer sozialer Komplexität ist die Balance zwischen wirtschaftlicher Produktivität und sozialer Harmonie schwer aufrecht zu erhalten.“
Oder wie Leo Nefiodow in seinem Buch „Der sechste Kondratieff“ bemerkte: „…in der Wirtschaft werden seelische und soziale Ursachen kaum berücksichtigt. Die Folge ist, dass Kernprobleme moderner Volkswirtschaften, wie die Zuspitzung sozialer Konflikte, nicht zuverlässig unter Kontrolle gebracht werden können.“ Weiter schrieb Nefiodow: „Die Schäden und Verluste, die durch seelische und soziale Störungen und Erkrankungen verursacht werden, behindern die Weiterentwicklung von Wirtschaft und Gesellschaft. Für eine höhere Produktivität…wird vor allem eine bessere psychosoziale Gesundheit…benötigt.“
Es war m.E. nach eine verkehrte Frage „Wenn Sie eines fernen Tages sterben, wird eine KI um Sie trauern? Es geht in erster Linie um Menschen und nicht um Maschinen. Es würde doch viel wichtiger sein, zu untersuchen, wie Menschen psychisch auf die KI in ihrer Umgebung reagieren und wie ihre Akzeptanz der KI ist.
Mit freundlichen Grüßen
Igor Fodor
München

Permalink

In Heft 04.2023 des christlich evangelischen Magazins ist ein Interview verzeichnet mit dem Informatiker Jürgen Schmidhuber und dem Philosophen Thomas Metziger über KI.
Mit Verwunderung habe ich diese Meinungen gelesen zu einem Thema, welches für uns alle genau so brennend ist wie die Klimakrise.
Wie kann es sein, dass in einem christlichen Magazin ein, meiner Meinung nach schwacher Philosoph, seine Meinung darstellt und kein Theologe?
Ist für die Theologie KI kein Thema?
Mit freundlichen Grüße
Alexander Lürmann

Permalink

Selten hat mich ein Artikel in „Chrismon“ mehr enttäuscht als der über KI (Heft 4-2023). Hier werden philosophische Höhen erklommen zur eventuellen Fähigkeit von KI zu leiden oder zu trauern – während bodenständige Fragen zur KI und ihren Auswirkungen, die uns alle in nächster Zeit bewegen werden, ganz andere sind.
Dazu meine ich: KI tut genau das, wozu sie programmiert wurde, jedoch führt die erreichte Quantität relativ unvermittelt zu qualitativ neuen Problemen. Erstens: Die Sache ist so komplex geworden, dass auch Fachleute ihre Ergebnisse oft nicht mehr nachvollziehen können. Vielleicht kann man das ja schon dann nicht, wenn man pi auf tausende Stellen berechnen lässt. Aber da hat man noch einen überprüfbaren Algorithmus – und solange die Sache noch neu ist, wird man die Ergebnisse erst gelten lassen, wenn sie gleich denen aus einem weiteren, unabhängigen Algorithmus sind.
Zweites Problem: KI „denkt“ nicht selbst über „gut oder schlecht“ und „richtig oder falsch“ nach, sondern folgt den ihr gemachten Vorgaben, leider ohne dass man ihrem Weg nachspüren kann. Natürlich kann KI, mit mehr Überblick als ein einzelner Mensch, hilfreich sein – sofern sie verantwortlich gepflegt wird. Kaum jemand wird eine KI, die z.B. Hautkrebs erkennen soll, mit zuvor geprüften Originalbildern absichtlich in die Irre führen. Aber diese Vorgaben werden von Menschen mit all ihren Unzulänglichkeiten nach mehr oder minder umfassend oder einseitig getroffenen Auswahl-Entscheidungen gemacht.
Damit ergibt sich das nächste, in meinen Augen entscheidende Problem: Von wem bekommt die KI ihre Vorgaben? Solange da nur am Know-how geforscht wird, möchte ich gar nichts Unrechtes unterstellen. Aber nur wenige Menschen, die über die entsprechende, auch finanzielle Ausstattung verfügen, sind dazu überhaupt in der Lage – dann freilich gleich mit hoher Effizienz. Und wer stellt nun sicher, dass bei Kontexten, die auf allen möglichen Ebenen umfangreiche Einflussnahmen auf die Gesellschaft erlauben, immer nur lautere Absichten im Spiel sind? Was hindert mächtige Kräfte, hier in sehr fraglicher Weise aktiv zu werden? Wie gesagt: ohne dass die Manipulation am Ende von den Betroffenen überhaupt bemerkt wird. Mit unabhängiger Software vielleicht zu klären, ob z.B. ein Text von ChatGPT stammt, ist für die breite Praxis doch nur eine Illusion.
Gewöhnlich wendet sich „Chrismon“ dem Menschen zu, aber hier ging dieser Maßstab für wichtige, ungelöste Fragen völlig verloren.
Mit freundlichen Grüßen
Reinhard Göller, Karlsruhe

Permalink

Für mich ist bei dem Gespräch des Informatikers und des Philosophen überhaupt nicht nachvollziehbar, wie die beiden menchliche Emotionen wie Leiden und Trauern auf Maschinen übertragen können. Vielleicht ist das Grundproblem schon, dass bei "KI" menschliches Denken und menschliche Emotionen den von Menschen programmierten Maschinen fraglos zugeordnet werden. Deshalb hielte ich es für zutreffender von "maschinellem Lernen" statt von "künstlicher Intelligenz" zu sprechen. Wie geringschätzig wird sonst vom menschlichem Intellekt gedacht, der doch so viel mehr ist als das, was mit Informationen gefütterte Machinen können. Keine Frage, diese können sicher besser Schach spielen, Rechnen, Häuser konstruieren, in der Medizin Operationen durchführen usw.. Menschliches Denken ist dagegen auch von nicht kalkulierbarer Phantasie, Kreativität, Glück, aber auch Zweifel, Angst, Leiden, Trauer bestimmt. Davon im Zusammenhang mit Maschinen zu reden, halte ich für äußerst unpassend, ja fahrlässig.
Reinhardt Seibert, Tübingen

Permalink

Die Logik von Schmidhuber und Metzinger lautet: Menschen können denken und leiden, sie sind aber nur „Maschinen“ oder „Systeme“. Deshalb können auch Computer mit künstlicher Intelligenz „fühlen“, „leiden“, „selbstbewusst sein“ und sogar „lieben“. Wenn nun „die meisten, wahrhaft klugen KIs der Zukunft“ sich „kaum für Menschen interessieren (werden)“, wie Schmidhuber am Ende des langen Interviews formuliert, dann werden sie wohl auch Menschen töten können oder müssen. Einer „ethisch überlegenen KI“ könnte dies sogar als „eine gute Option“ erscheinen, wie Metzinger zuvor sagte, es sei aber doch ein gewisses Problem. Wie damit umgehen? Leider hätten auch Philosophen „keine Hotline zu höheren Wahrheiten“ und zu den richtigen Werten. – Ist das nicht Schwachsinn pur? Erinnert es nicht an die Logik einer „Herrenrasse“, für die Menschen ebenfalls nur „Produkte der Natur“ waren, die man nach evolutionärem Fortschrittsdenken ausbeuten, foltern und töten durfte? Schmidhuber und Metzinger bieten moderne Varianten dieser Logik: „Werte“ bleiben umstritten. Es reicht, wenn wir uns mit „Ebenbürtigen“ beschäftigen. Es reicht wenn’s „der Weltmarkt“ reguliert. Denn, so vertrösten sich beide: Wo Gefahr ist, wächst „das Rettende auch!“. Selten habe ich so viel inhumanen Schwachsinn in einem Interview gelesen.
Bert Hauser

Gut analysiert und treffend ausgedrückt, endlich mal jemand der gerade rückt, was `Transmon` da verbreitet.
Irgendwie sehen die beiden auf dem Foto ganz schön faustisch aus, ob das Absicht ist? Die Kirche wundert sich, dass selbst `konventionelle` Kirchenmitglieder austreten? Könnte es vielleicht auch daran liegen, dass evangelische Christen ihre Kirche als Wertegemeinschaft verstehen und dass sie zunehmend merken, dass die evang. Presse die Werte, die sie doch eigentlich verteidigen sollte, mit Füßen tritt.

Juval Harari, der in seinen Büchern den Transhumanismus als Fortschritt verkauft und als eine geradezu notwendige Entwicklung darstellt, bezeichnet übrigens den Nationalsozialismus als "evolutionären Humanismus in extremer Form". Ich bin noch in der Kirche, da vor Ort ein Pfarrer ist, der ok ist. Pfarrer, die an nichts glauben, haben für mich ihren Beruf verfehlt. Auch wenn ich selbst eher eine freidenkende Humanistin bin. Jesus Christus hat für mich einen besonderen Stellenwert.

Scharf analysiert und auf den Punkt gebracht, Herr Hauser. Philosophie und Religion werden mehr gebraucht denn je. Der Transhumanismus sollte als das entlarvt werden was er ist - eine technikverliebte Ideologie, die medizinische Eingriffe an gesunden Menschen propagiert. Am Menschengehirn soll rumoperiert werden- mich erschreckt das. Auch die Nationalsozialisten wollten einen Übermenschen schaffen. Mit Christentum haben solche Ansätze nichts zu tun.

Permalink

Verstörend an dem Interview mit Jörg Schmidthuber und Thomas Metzinger finde ich die Selbstverständlichkeit, mit der Beide davon ausgehen, dass die KI in Zukunft immer menschenähnlicher werden wird. Als handele es sich dabei um ein Naturgesetz und nicht um ein Ergebnis menschlicher Tätigkeit, die gestoppt werden kann . . . und sollte! Gerade aus christlicher Sicht: KI als gigantische Datensammelmaschine - ja, sofern sie den Menschen nützt! KI als menschenähnliches Wesen, auf dessen "Gefühle" man Rücksicht nehmen muss - nein!
Das Erschaffen neuer Lebensformen muss aus ethischen Gründen der Natur, in der Gottes Schöpferkraft wirkt, vorbehalten bleiben!
Inga Hänsel-Nell, Wuppertal

Permalink

Metzinger: "Wir sollten eine solche Evolution nicht einfach so aus Ruhmsucht lostreten" 

Seit Mensch erstem und bisher einzigen geistigen Evolutionssprung, der auch die "Vertreibung aus dem Paradies" ist (was nicht ..., sondern die Konfusion und ...!), wird diese REVOLUTION auch als Evolution ... ;)

Schmidhuber: "Das Einzige, was diese Entwicklung vielleicht stoppen könnte, wäre eine Katastrophe wie zum Beispiel ein nuklearer Weltkrieg."

Die Beschleunigung der Konfusion des Bewusstseins wird es nur schwieriger machen ...!!!

Permalink

Eine solch geballte IQ mit diesem UNSINN!
KI ist keine Person, sie ist nicht ich, das ist kein Ersatz von mir, das ist die Ablehnung von mir. Wenn dann noch die KI für mich wählt, weil der Algorythmus glaubt, mich besser zu kennen, als ich mich selbst, ist der Irrsinn erreicht. Warum sollte mir Chat dann nicht vorgeben, was zu mir religiös am besten passt? Ebenso bös: Was KI weis, brauch ich nicht zu wissen. ERGEBNIS: Die Dummheit wird zum obersten persönlichen Leitmotiv. So wird die K I zum bequemen Krückstock, der die geistige Eigenleistung unnötig macht. Na ja, wenn das der natürliche Lauf der intellektuellen Zivilisation sein soll.

Permalink

Um Maschinen Bewusstsein zu ermöglichen, braucht es einen völlig anderen Ansatz (dr-stegemann.de).

Antwort auf von Wolfgang Stegemann (nicht registriert)

Permalink

Und der wäre dann ethnisch und moralisch ... Orwell? Technisch ist ja noch was zu erwarten, aber ein neuer Ansatz sollte wohl auch immer auf der gleichen Ebene sein. Man stelle sich vor was nicht möglich ist. Ein KI-Roboter kauft Brot, frißt es und als Ergebnis ein KI-Leben? Von diesem Unsinn kann keiner Leben, auch wenn er als logische Fortsetzung erscheinen könnte.

Eine ganz andere Entwicklung droht. Die KI ersetzt das persönliche Wissen und erzieht zur Dummheit. Nur noch wenige werden den Überblick behalten und das System nach ihren persönlichen Interessen, ihrem Staats- und Gesellschaftverständnis, nach ihrer Ideologie und Religion zu dirigieren versuchen. Alle anderen schauen ergeben zu oder werden manipuliert.

Hat alles unmerklich begonnen, als in den 60gern die Leichtigkeit des Seins, die hemmungslose Selbstverwirklichung, der immer leichte und bequeme Weg mit den Softfächern, die Minderbewertung der Naturwissenschaften und die eigene Freiheit über die Freiheit der Gesellschaft gestellt wurde? Diese Überlegung ist unbequem. Aber wie war das noch mit Drogen und Süchten als Ergebnis vom Kleinen Finger an der langen Hand?

Permalink

Liebe Chrismon-Redaktion,
ich bin katholischer Christ und abonniere Chrismon plus seit vielen Jahren. Ganz herzlichen Dank für Ihre phantastische Redaktionsarbeit. Das Lesen Ihrer Artikel ist für mich stets ein Genuss und hat meinen Blick in vielen Bereich erweitert.
In Bezug auf den Artikel „… und wenn die KI leidet?“ in Chrismon 04.2023 muss ich Ihnen einen höchst kritischen Leserbrief schreiben mit Bitte um Veröffentlichung. Bei Rückfragen können sie sich gerne an mich wenden. Hier mein Text:
Ich widerspreche meinem Informatiker-Kollegen Jürgen Schmidtbauer in dem Artikel über Künstliche Intelligenz (KI) in praktisch allen Aspekten. Ich forsche und lehre in KI und entwickele mit meiner Forschungsgruppe seit vielen Jahren gemeinsam mit Partnern KI-Systeme für verschiedene Branchen, z.B. Medizin. Bereits in den 1980er Jahren habe ich professionell KI-Software für maschinelles Lernen entwickelt.
KI-Systeme sind von Ingenieuren entwickelte technische Artefakte, keine Lebewesen. Zu glauben, dass die unfassbare Komplexität des Lebens durch Computersysteme abgebildet oder gar weit übertroffen werden könnte, scheint mir eine extreme Unterschätzung der Natur oder eine groteske Überschätzung von Wissenschaft und Technik. Meine berufliche Arbeit mit Ärzten und Psychotherapeuten haben mich hierin nochmals bestärkt.
Die stillschweigende Gleichsetzung von biologischen Metaphern mit informatischen Fachausdrücken in dem Artikel (z.B. Hände statt Roboterarm, Neuronengruppen statt künstliche neuronale Netze etc.) würde ich meinen Studierenden nicht durchgehen lassen. Die Philosophen, mit denen ich zu KI-Technikfolgenabschätzung forsche und publiziere, würden solche Gleichsetzungen deutlich kritisieren. Leider tut dies der Philosoph Thomas Metzinger im Interview nicht, sondern verstärkt noch die genannten Science Fiction Utopien. Wo ich ihm allerdings von ganzem Herzen recht gebe: Als Gesellschaft müssen wir politische und juristische Rahmen für die Verwendung von KI-Systemen schaffen, wie wir es auch für andere kritische Technologien wie Kernkraft und Gentechnik tun. Science Fiction Utopien vernebeln jedoch nur diese wichtigen Diskussionen.
Viele Grüße
Bernhard Humm
Friedberg (Hessen)