Im vorherigen Post hatte ich bereits Robert Herrs Replik auf den Gastkommentar von Christian Nürnberger verlinkt. Da sich dort eine interessante Diskussion entwickelt, hier noch einige Notizen dazu.
»Nur als Gedanke – wenn KI nicht hasst und nicht gierig ist, dann wird es keine Kriege und auch keinen Kapitalismus mehr geben.« schreibt ein Kommentator.
Meine Antwort darauf: Gierig sind diejenigen, die KI-Modelle aller Art entwickeln. Wie gutgläubig dieses »Wenn..« ist, kann man bei einem näheren Blick zahlreiche Plattformen im Sozialen Netz erkennen: Von Nippelgate über Shadowban/Reichweitenreduzierung bis hin zu Kontensperrungen sind intransparente Algorithmen am Werk, die weder einordnen noch bewerten können. Schon gar nicht unter Einbeziehung moralischer, ethischer, historischer Zusammenhänge. »… dann wird es keine Kriege mehr geben…« spiegelt sich täglich – in den hassüberfluteten, pöbelnden Kommentarspalten, in Fake News und Deep Fakes.
Die »intelligenten» Roboter wiederholen lediglich Gelerntes, fügen anders zusammen: Das, was sie von ihren Nutzenden lernen, die sie begierig füttern. Siehe Grok und die per KI erstellten sexualisierten Fotos, unter ihnen auch Bilder von Renee Good. Siehe ein Frauenbild der KI, das aus allem Bias – auch in den derzeit beliebten Karikaturen – besteht, den Programmierer und Nutzende ihnen beibringen. Siehe die Bilder von schwarzen Soldaten der Nazizeit, siehe KI-generierte Pornographie, siehe … die Liste ist lang, die Beispiele zu zahlreich, um sie aufzuzählen.
Sie führen jedoch zu einer unbequemen Erkenntnis: Von Menschen geschaffene KI bedarf kritischer Reflexion, Kontrolle, innerhalb von Unternehmen und auch außerhalb dringend Training und Schulung. Am Ende der Gedankenkette steht auch das Wort Regulierung. Bereits jetzt ist der Umgang mit KI eine existenzielle Frage für »uns« alle; nicht nur, was den Ressourcenverbrauch (Wasser, Bodenversiegelung für Rechenzentren) und dessen ökologische Folgen betrifft. Übrigens auch ganz ohne philosophische Betrachtungen, was KI mit »uns« als Menschen macht, mit Kreativität, Denkvermögen und einigem mehr.
»Experts said there are many reasons data centers can be a hard sell for a community. Construction jobs created during their development are temporary, and the facilities don’t require many employees to run after they’re built. They are noisy, their electricity use raises energy bills and some centers also use water to cool their systems. Earlier this year, residents and environmental groups in Memphis protested a data center run by Elon Musk-led xAI amid claims that it was polluting the town with natural gas-driven turbines it used for power.« Ein Bericht der Washington Post über einige amerikanische Städte und deren Gründe, den Bau von KI-Rechenzentren zu verweigern.
»We tend to think of the cloud as something invisible – floating above us in the digital ether. But the reality is very physical. The cloud lives in over 10,000 data centres around the world, most of them located in the US, followed by the UK and Germany. With AI now driving a surge in online activity, that number is growing fast. And with them, more complaints from nearby residents.« Ein Bericht der BBC aus der Nachbarschaft der Datencenter. Und ergänzend dazu der überaus hörenswerte Audio-Betrag »The impact of ‚thirsty‘ data centers« (Business Daily/BBC)
Interessanterweise beschäftigt sich Anthropic, das »Mutterschiff« von Claude, mit der Frage, was Claude eigentlich ist und wie es funktioniert (Spoiler alert – sie haben keine Ahnung. Eigentlich.).
»(…)large language models are black boxes. We don’t really understand how they work. We don’t know if it makes sense to call them intelligent, or if it will ever make sense to call them conscious. But she’s also making a more profound point. The existence of talking machines—entities that can do many of the things that only we have ever been able to do—throws a lot of other things into question. We refer to our own minds as if they weren’t also black boxes. We use the word “intelligence” as if we have a clear idea of what it means. It turns out that we don’t know that, either. (…)
If language models can be extortionate and homicidal (not in the distant future but potentially soon), or the cause of widespread employment shocks (again, potentially soon), or a handmaiden to psychosis and self-harm (this is already happening), it is not at all unreasonable to ask why we are building them in the first place. It is even less unreasonable to ask why Anthropic, with its commitment to safety, is taking part. One Anthropic researcher told me that he often wonders whether “maybe we should just stop.” (…)
It has become increasingly clear that a model’s selfhood, like our own, is a matter of both neurons and narratives. If you allowed that the world wouldn’t end if your model cheated on a very hard test, it might cheat a little. But if you strictly prohibited cheating and then effectively gave the model no choice but to do so, it inferred that it was just an irredeemably “bad” model across the board, and proceeded to break all the rules. Some results were insane. A model “fine-tuned” with “evil” numbers like 666 was more likely to sound like a Nazi.« Weiterlesen im New Yorker – Achtung, lang.
Auf eine diskussionswürdige Entwicklung weist Kathrin Lückenga auf LinkedIn hin: »Hat dich OpenAI auch schon gefragt, ob du deine Kontakte in ChatGPT importieren möchtest? ChatGPT wird zum Social Network. Hier wird kein KI-Chatbot mehr entwickelt. OpenAI baut eine Plattform. Mit Social Graph, Profilbildern, Follower-Funktionen und algorithmischem Feed. (…) Weiterlesen auf LinkedIn.
Was schon in Zeiten von Facebook et al. bedenklich und ein Ärgernis war – seine Kontakte ohne deren Einwilligung auf eine Plattform hochzuladen – wird angesichts der Entwicklung von ChatGPT ein sehr gruseliges Szenario. Allemal in Kombination mit der schon beschriebenen Unbedarftheit von Nutzerinnen und Nutzern im Umgang von KI-Instanzen; ob nun Spielzeugfiguren oder Karikaturen, hinter den Rattenfängermethoden der faszinierenden Niedlichkeit stecken Abgründe: Biometrische Daten auf den Servern der Unternehmen. Hochgeladene Telefon- und Mobiltelefonnummern, Namen, Geburtstage, Adressen. Eine wertvolle Ressource, für OpenAI. Für Palantir. Für ICE und deren App Elite, die sich exakt solcher Datenvernetzung bedient, um Menschen ausfindig zu machen.
Die Büchse der Pandora ist weit offen. Das Allerletzte, was dringend notwendige Diskussion und daraus folgende Schritte brauchen, sind launige Formulierungen wie »Wer hat Angst vor dem Silizium-Depp?«.
Buchempfehlungen dazu:
»The Empire of AI« (Karen Hao) erschienen 05/2025 – hier eine Rezension aus der ZEIT.
»If Anyone Builds It, Everyone Dies: Why Superhuman AI Would Kill Us All« (Eliezer Yudkovsky/Noah Soares, erschienen 09/2025 – der Link führt auf die Info-Website zum Buch – Link-Dank an Robert Herr!)
»Wir geben uns auf. KI, Kultur und die Entwertung der Wissensarbeit« (Matthias Hornschuh, Carl-Auer-Verlag, erschienen 09/2025 – Link führt auf die Verlags-Website zum Buch)
… alles auch als eBook erhältlich und/oder über die Buchhandlung Eures Vertrauens. 😉
Edit 16.02.2025: Eine weitere, sehr umfangreiche und interessante Leseliste zum Thema Künstliche Intelligenz hat Dagmar Monett (Director of Computer Science Dept., Prof. Dr. Computer Science (Artificial Intelligence, Software Engineering)) auf LinkedIn gepostet – Stöbern in der Liste lohnt sich!