Liebe Leserin, lieber Leser,
ChatGPT wird die Arbeitswelt sehr verändern, auch den Journalismus. Wir haben Constanze Kurz vom Chaos Computer Club gefragt, ob das ein Segen oder ein Fluch sein wird. Und haben Sie schon mal von Midjourney gehört? Das ist eine Künstliche Intelligenz, die neulich der britische Internetjournalist Eliot Higgins verwendet hat, um Bilder von einer Festnahme Donald Trumps zu erstellen. Sie zeigen Polizisten, die den früheren US-Präsidenten niederringen. Nachdem Higgins die täuschend echten Fotos auf Twitter veröffentlicht hatte, wurden sie weltweit bekannt. Die Aufnahmen führen Manipulationsfähigkeit und Einfluss von Künstlicher Intelligenz eindrücklich vor Augen.
Welche Regeln braucht eine Gesellschaft, in der Künstliche Intelligenz allgegenwärtig ist? Und welche Regeln muss eine solche Gesellschaft der künstlichen Intelligenz auferlegen? Diese Fragen haben meine Kollegen Mareike Fallet und Michael Güthlein dem Philosophen Thomas Metzinger und dem Informatiker Jürgen Schmidhuber in einem Doppelinterview gestellt. Für den Philosophen ist klar: Bevor wir leidensfähige KI erschaffen, müssen wir festlegen, welcher Bewusstseinszustand für Maschinen erträglich ist. Für den Informatiker ist Leid schon längst Bestandteil des maschinellen Lernprozesses.
Künstliche Intelligenz wird aber nicht nur für zivile Zwecke erforscht. Militärs auf der ganzen Welt entwickeln Cyberwaffen, zum Beispiel um kritische Infrastrukturen anderer Länder zu kompromittieren. So legte Russland 2015 mit einem Cyberangriff einen Teil des ukrainischen Stromnetzes lahm. Welche Gefahr von solchen Cyberwaffen ausgehen könnte, habe ich in einem Kommentar aufgeschrieben.
Sogar der Elektroauto-Pionier Elon Musk hat gemeinsam mit vielen weiteren Unternehmerinnen und Wissenschaftlern vor den Folgen überstürzter KI-Entwicklung gewarnt. Die Devise lautet: KI-Forschung muss transparenter werden.
Genug der Dystopien. Ich wünsche Ihnen eine schöne Woche!
Tobias Müller
Redakteur