CHAOS COMPUTER CLUB: WIE CHATGPT UNSEREN ALLTAG VERÄNDERN WIRD
KI - keine Intelligenz im menschlichen Sinne, denn sie verstehen nicht, was sie tun
Getty Images/iStockphoto/Galeanu Mihai
ChatGPT
"Es wird vielen auch Spaß machen"
ChatGPT verändert den Alltag. Constanze Kurz vom Chaos Computer Club über den Spaßfaktor von KI, aber auch die Gefahr von Diskriminierung und Verletzung von Urheberrechten
15.05.2023
4Min

Frau Kurz, was kann ChatGPT und was können solche großen KI-basierten Sprachprogramme nicht?

Constanze Kurz: Ich sehe große Potenziale in den Fähigkeiten der KI zu programmieren. Man kann Quellcodes aller Art damit bearbeiten und Fehler finden. Das zweite große Potenzial sehe ich im Zusammenfassen von Text. Man muss sich aber klarmachen, dass diese Programme keine Semantik kennen. Ihnen fehlt also das Verständnis dafür, was sie programmieren oder wozu sie etwas generieren. Auch wenn die Illusion, dass sie es verstehen, relativ stark ist. Sprachmodelle wie ChatGPT bleiben ein prachtvoller bunter Papagei! Deshalb ist die Kontrolle durch den Menschen sehr wichtig.

PR

Constanze Kurz

Constanze Kurz, Jahrgang 1974, ist promovierte Informatikerin und veröffentlichte schon im Jahr 2013 das Buch: "Arbeitsfrei: Eine Entdeckungsreise zu den Maschinen, die uns ersetzen". Sie war Sachverständige der Enquête-Kommission "Internet und digitale Gesellschaft" des Bundestags, ist Sprecherin des Chaos Computer Clubs e.V., der größten europäischen Hackervereinigung, und Mitglied der Redaktion von netzpolitik.org e.V. Sie ist außerdem Mitglied des Aufsichtsrates des Gemeinschaftswerks der Evangelischen Publizistik.

Werden die KI-Programme irgendwann so viel gelernt haben, dass sie weniger Fehler machen?

Kurz: Ich glaube eher, dass die Menschen besser einschätzen lernen, wo typische Fehler auftauchen. Ich halte es daher für sehr wichtig, dass der Umgang mit Sprachmodellen in den Schulunterricht integriert wird. Man muss einfach lernen, dass es hier nicht um Intelligenz im menschlichen Sinne geht. Denn Schülern wird es oft so vorkommen, als ob sie mit etwas Intelligentem sprechen. Diese Programme können aber weder Fakten bewerten noch Probleme lösen, auch wenn es so aussieht.

ChatGPT wird auch die Arbeitswelt verändern. In welchen Berufen sollten sich Menschen schon mal über einen Jobwechsel Gedanken machen?

Kurz: Es gibt Berufe, die sich ganz doll verändern werden oder sich im letzten Jahrzehnt schon verändert haben. Ein Beispiel dafür ist die Arbeit von Übersetzerinnen und Dolmetschern: Die Softwareprodukte machen beim Übersetzen immer weniger Fehler. Sie können mittlerweile sogar gesprochene Sprache in gesprochene Sprache übersetzen. Das begann aber nicht erst mit ChatGPT, es passiert nur jetzt auf einer anderen Ebene und dringt aktiver in die öffentliche Debatte ein.

In welchen Berufen zum Beispiel?

Kurz: Ein Beispiel ist die automatisierte Berichterstattung, etwa die Sportberichterstattung. Es gibt auch Wirtschaftsunternehmen, die ihren Quartalsbericht automatisiert herausgeben. Das heißt noch lange nicht, dass ganze Berufe wegfallen, aber das Profil dieser Berufe ändert sich.

Sind es eher niedrig, mittel oder hoch qualifizierte Jobs, die sich verändern werden?

Kurz: Tendenziell eher niedrig und mittel qualifizierte Jobs. Denn für hoch qualifizierte Arbeit braucht es oft einen Erfahrungsschatz, und ich glaube, das werden solche Programme in naher Zukunft nicht leisten, weil ihnen dafür ja das Verständnis fehlt. Aber natürlich werden sich auch hoch qualifizierte Jobs verändern. Auch ein Teil der Softwarejobs werden durch diese Modelle übernommen werden. Aber es wird absolut notwendig sein, dass eine qualifizierte Person über die Arbeit der KI drüberschaut.

Sind kreative Berufe eher sicher?

Kurz: Es wird viele Bereiche in der Kreativität geben, die eine Maschine nicht ersetzen kann. Aber die Maschine wird zum Beispiel in der Unterhaltungsmusik sicherlich einiges übernehmen. Ich nehme bei den Kreativen auch schon eine Menge Angst wahr. Da wird es noch einige Kämpfe geben, etwa um das Urheberrecht. Die erste KI-komponierte Musik gibt es bereits. Die Frage ist: Inwieweit dürfen kreative Werke benutzt werden, um KI zu trainieren?

"Den meisten Menschen wird es Spaß machen, die KI-Chatbots zu piesacken"

Sind Sie eher neugierig oder besorgt?

Kurz: Als jemand, die Technik gern mag, bin ich immer beides. Ich bin unglaublich neugierig und probiere viel aus. Ich glaube auch, dass es den meisten Menschen ein bisschen Spaß machen wird, mit diesen KI-Chatbots zu sprechen, sie zu piesacken und ihre Fehler zu finden. Aber natürlich muss man auch besorgt sein, denn KI kann auch für kriminelle Zwecke eingesetzt werden. Außerdem leben wir in einer Welt, in der Tracking und Profiling von Menschen enorm verbreitet ist. Und das wird auch nicht als so unethisch angesehen, wie ich es empfinde.

Ein Beispiel?

Kurz: Einige große amerikanische Städte versuchen jetzt schon, über Social Scoring Straftaten vorherzusehen. Das Software-Unternehmen Palantir hatte beispielsweise mehrere Jahre lang Zugang zu polizeilichen Datenbanken in New Orleans, um ein KI-System zur Vorhersage von Straftaten zu testen. Palantir bietet zum Beispiel an, dass die KI große Mengen an Daten vorsortiert und versucht, Prognosen zu erstellen. Im Falle von polizeilichen Daten sind das Prognosen über künftige Straftaten oder Bereiche, in denen gehäuft Straftaten auftreten. Die Gefahr ist, dass ganze Personengruppen durch die Software stigmatisiert oder kriminalisiert werden, zum Beispiel Menschen, die in prekären Verhältnissen leben oder einen Migrationshintergrund haben.

Wie ist das in Deutschland?

Kurz: Bei uns gibt es einige rechtliche Schranken. So hat das Bundesverfassungsgericht erst kürzlich strenge Vorgaben für den Einsatz von Software wie die von Palantir in der Polizeiarbeit formuliert. Aber auch wir haben eine Debatte über Racial Profiling, die aktuell zum Beispiel anhand des Bundespolizeigesetzes geführt wird. Die Möglichkeit, Entscheidungen über Menschen zu treffen, ist auch hier längst Alltag. Wir bemerken es nur oft nicht.

Was übersehen wir noch?

Kurz: Zum Beispiel, wie sehr jetzt schon KI bei der Personalauswahl in Unternehmen eine Rolle spielt. Die KI entscheidet zwar noch nicht über die Auswahl, wird aber genutzt, um sie vorzubereiten. Aber die Wahrheit ist: Viele Personalchefs hinterfragen die KI-gestützten Ergebnisse nicht.

Wozu führt das?

Kurz: Zu einer Fortführung von Diskriminierung. Dazu, dass die großen Sprachmodelle Vergangenes reproduzieren, das wir vielleicht als falsch oder ungerecht empfinden.

Würden Sie eine Kennzeichnungspflicht befürworten, wenn KI-basierte Software beteiligt war?

Kurz: Auf jeden Fall! Und wer von einer KI-Entscheidung betroffen ist, sollte die Möglichkeit bekommen, mit dem zuständigen menschlichen Entscheider zu sprechen. Ich glaube, das ist die einzige Möglichkeit, wie wir mit Fehlentscheidungen und Diskriminierungen durch KI-Software umgehen können. Ausreichend ist aber eine Kennzeichnungspflicht nicht, sie ist nur die minimale Anforderung für den künftigen Umgang mit KI-Entscheidungen.

Die Kommentarfunktion ist nur noch für registrierte Nutzer verfügbar. Um einen Leserkommentar schreiben zu können, schließen Sie bitte ein Abo ab, schreiben Sie uns eine Mail an leserpost@chrismon.de oder diskutieren Sie auf Instagram, Facebook und LinkedIn mit.
Permalink

Schon jetzt kann der Otto- Normalbürger kaum zwischen Wahrheit und Fake unterscheiden. Er verliert sich ohnehin in der Informationsflut von Medien und gut gemeinten Suchmaschinen, die oft genug nur Schwarzweißdenken fördern! KI wird dazu führen, dass gar nicht mehr selbst reflektiert wird, weil sie doch offensichtlich von "höchster"
Stelle abgesegnet sein muss. Das ist ein großer Irrtum!!
Unsere Dichter- und Denkerkultur wird zwangsläufig untergehen. Schade! Sehr schade!

Permalink

Was es alles gibt!
Die KI bestimmt unser Leben und hat als "Die Internationale der Künstlichen Intelligenz" (IKI) errechnet, dass es global noch 5 weitere Typen wie mich gab und gibt. Männlich, verh./verw. , BMI  24,8, identische Daten zu Gesundheit, Ernährung, IQ, Sport, etc.. Von denen sind 3 durch ähnliche Ursachen mit 85-87 gestorben. Die KI sagt für mich das Gleiche voraus. Lebe ich mit 87 noch, habe ich bei Erfassung der Daten gelogen. Mit der KI kann man nicht verhandeln. KI-Vollzug mit der Todesstrafe