»Derzeit diskutieren wir darüber, ob KI für Content-Ersteller gut oder schlecht ist“, bemerkte der Silicon-Valley-Pionier Jaron Lanier. „Aber es ist möglich, dass der Begriff ‚Content‘ verschwinden und durch Live-Synthese ersetzt wird, die darauf ausgelegt ist, eine Wirkung auf den Empfänger zu erzielen.“ Eines Tages, so spekulierte Lanier, könnten alle Arten von kulturellen Erfahrungen – Musik, Videos, Lesen, Spiele, Gespräche – aus einem einzigen „KI-Hub“ stammen. Es gäbe keine Künstler mehr, die bezahlt werden müssten, und die Eigentümer der Hubs könnten einen außerordentlichen Einfluss auf ihr Publikum ausüben. „Man würde eine maßgeschneiderte Erfahrung machen, aber man hätte das Gefühl, dass man sie mit einer Menge anderer Menschen teilt.« – zitiert aus einem sehr lesenswerten Beitrag im NewYorker Magazine über Künstliche Intelligenz.
Das TIME Magazine widmet dem Thema die Titelgeschichte »Person of the Year«; auch das ein sehr lesenswerter Beitrag zu diesem Thema. Sonntage im Lese- und Nachdenk-Modus, mit ein paar Gedankensplittern zur Sache. Gerade weil ich kein genereller Technikfeind bin: nicht technologische Entwicklungen fürchte ich, die in vielen Bereichen sinnvolle Möglichkeiten eröffnen (und das schon seit Jahren tun, Stichwort DataMining und -scraping). Ich grusele mich vor den Äffchen, die an den Knöpfen der Maschinen spielen, ohne auch nur einen Gedanken an mögliche Konsequenzen und Risiken zu verschwenden. Im allgemeinen Getöse untergegangen sind Stimmen von Informationsdesignern und Datenjournalisten wie z.B. Jan Schwochow, die schon vor Jahren auf mehreren Editorial Design Konferenzen in München (QVED und EDCH, deren Websites leider nicht mehr verfügbar sind) auf die Potenziale, aber auch die Risiken hinwiesen; zunächst aus einem rein sachbezogenen Blickwinkel der Verzerrung von Aussagen. Einen Beitrag dazu aus meinem Live Blog zur QVED 2015 gibt es hier.
Genau dann nämlich, wenn große Datenbestände aus »unsauberen« Quellen stammen: Wer hat die Datensammlungen erstellt, zu welchem Zweck – eine Kernfrage, wenn es um die Auswertung der Bestände und mögliche Beeinflussung von Inhalten geht. Ein Aspekt übrigens, weswegen ich Befindlichkeiten habe, wenn es um das gezielte »Poisoning«, also die »Vergiftung« von Daten geht; die Korrektheit der aus den immensen Pools gewonnenen Informationen darf hier – über die Probleme der halluzinierenden LLMs hinaus – durchaus angezweifelt werden. Garbage in, Garbage out, eine sehr alte Erkenntnis. Über die rein pragmatische Sicht auf Informationen und Technik hinaus gibt es vieles, was zum Umgang mit Künstlicher Intelligenz anzumerken wäre. Monopole von Technikplattformen beispielsweise, die via Algorithmen über Sichtbarkeit von Inhalten bestimmen. Plattformen, die sich damit brüsten, ihren Nutzenden größtmögliche Sicherheit zu bieten und gleichzeitig Geld scheffeln mit Anzeigen dubioser Fake Shops. Unternehmen, die »Soziale« Netzwerke anbieten und dennoch Tummelplatz für Bots, ausgemacht unsoziale Inhalte, Hate Speech und Fake News sind. Netzwerke, deren Algorithmen bisweilen aus dem Ruder laufen und zahlreiche Nutzerkonten blockieren, ob temporär oder unwiderruflich: Einspruch weitgehend unmöglich, währenddessen die Bots fröhliche Urständ‘ feiern.
»Die Möglichkeiten fühlen sich wie Magie an.« schreibt das TIME Magazine dazu. Sonntags auf dem Sofa, bei Kaffee und einem späten Frühstück denke ich genau über diesen Punkt nach: Denn vielleicht ist es genau diese vermutete, erhoffte Magie, die in wirren und anstrengenden Zeiten dazu verlockt, ihr Glauben zu schenken, blindlings zu vertrauen und darauf, dass diese Magie auf geheimnisvolle Weise all das wieder gutmachen kann, was Menschen mit ihren mitunter mittelmäßigen Fähigkeiten anrichten. Nachdenken über die Konsequenzen des unbedarften Tuns? Fehlanzeige. Es wäre ähnlich der Differenzierung zwischen Schuld und Verantwortung, Inhalten und Content, Kultur und Unterhaltung; ihnen ist vieles gemein und doch gibt es feine Unterschiede, über die intensives Nachdenken nützlich, sinnvoll, wichtig wäre. Auch, dazu seine Stimme zu erheben und zu kritisieren, was weit über beispielsweise Verlust von Arbeitsplätzen hinausgeht, vielmehr in rasanter Geschwindigkeit Gesellschaft, Denken, Umwelt und Werte erodiert.
Dabei habe ich oft Hannah Arendt im Sinn, deren Worte viel zitiert werden: »Der Tod der menschlichen Empathie ist eines der frühesten und deutlichsten Zeichen dafür, dass eine Kultur gerade in Barbarei verfällt.« Zu verlockend sind offenbar die Sirenengesänge aus dem Maschinenraum, von den Morlocks des Silicon Valley, ähnlich denen aus H.G. Wells »Time Machine«, für die Weenas der Digitalära, die sich statt mit Blumenkränzen, Gesang und Tanz mit Smartphone, Instagram und Co die Zeit vertreiben. Hübsch anzusehen, vielfach leer in Gehirn, Seele und Herz, in zunehmender Distanz von jeglichen Werten auch sie.
PS: Wer einen kleinen Einblick haben möchte, wie generative Künstliche Intelligenz genutzt wird, mit welcher Unwissenheit über Kulturtechniken wie z.B. Fotografie, mit wieviel bewusster Ignoranz, der kann das hier tun – in einer sehr beliebten Facebook-Gruppe, die sich damit beschäftigt, Bildern von Menschen mittels AI-Bildgeneratoren virtuelles Leben einzuhauchen. An diesem verlinkten Beitrag bin ich gedanklich hängengeblieben: Der Blick in die Kommentare erklärt dem ein oder anderen Mitlesenden, warum das so ist.