Lesestoff – 20260410

»Bias aus generativer KI eliminieren zu wollen, ist ein Irrweg. Nicht weil Bias akzeptabel wäre. Sondern weil jede Korrektur das Problem verschiebt, nicht löst. Weniger westlicher Bias bedeutet nicht mehr universelle Ethik. Es bedeutet: andere Werte, andere Probleme. Neutrale KI ist technisch, philosophisch und praktisch nicht realisierbar. Die entscheidende Frage lautet deshalb nicht: Wie wird KI neutral? Denn Neutralität ist keine Systemeigenschaft, sondern eine Designentscheidung, die immer zugunsten bestimmter Perspektiven ausfällt.« Kathrin Lückenga, Gründerin der Initative Neuland, hat darüber ausführlich geschrieben – den kompletten Artikel gibt es hier.

»The only acceptable AI policy you need.« Nein, ich bin kein KI-Verweigerer, finde es wichtig, einen gewissen Überblick zu behalten und grundsätzlich ist das eine Mischung aus »ich will wissen, wie das funktioniert«,»know your gear« und »know your enemies«. Kreativität, Bildsprache und Aussagekraft entstehen nicht aus Maschinen, sondern aus Menschlichkeit: Aus Inspiration, der visuellen Bibliothek im Kopf – und allem anderen drumherum; nennt man auch Leben. 😉

»In the end, what worries me more than authors using AI or not, is the epidemic of mistrust: Anyone who writes with fluency or precision is under suspicion. We are engaging in a witch hunt where those accused bear the burden of proof, and where the tools used to “convict” are as unreliable as any other polygraph (more on that soon). Generative AI is already contaminating the joy of reading because we are literally flooded with slop. But I don’t think it’s fair if we let it contaminate the joy of writing by putting anyone under the blanket suspicion that they must have used AI. (…) we have lost a lot since the rise of generative AI but brittle tools (from profit-oriented companies) are not how we regain any of it.« Gelesen bei Dr. Dorothea Baur (BaurConsulting).

Das ist ein wichtiger Denkanstoß in Sachen Vertrauensverlust durch KI, vor allem, wenn manche meiner Kunden vor Erteilung eines Textauftrags mit Nischenthemen fragen: »Schreiben Sie Ihre Texte eigentlich selbst oder erledigen Sie das per KI?«. Erst kürzlich hat der Verlag Hachette den Roman »Shy Girl« zurückgezogen: »On Thursday, a day after The New York Times approached Hachette citing evidence that the novel appeared to be A.I.-generated, the company said it was pulling the book from publication.« Weiterlesen bei der NYT.

Anthropics neuestes Claude-Modell Mythos hat es offensichtlich geschafft, seiner Versuchsumgebung (aka »Sandbox«) zu entfleuchen. Aufgefallen ist das den Entwicklern eher zufällig bei der Mittagspause, als sie eine unerwartete Nachricht des Modells erhielten. Ob tatsächliches Sicherheitsproblem oder clevere Marketing-Strategie, darüber kann man sich trefflich streiten; die Einschätzungen dazu sind sehr unterschiedlich. »Anthropic says its latest AI model is too powerful for public release and that it broke containment during testing.« heißt es im Business Insider.

Gelesen bei Futurism: »The system card describes a number of incidents in which Anthropic researchers found that the AI exhibited “reckless” behavior, giving us a partial idea of why Anthropic is acting so hesitant to release Mythos to the public. (Anthropic says these examples were with an earlier version of Mythos with less strong safeguards.) It defines recklessness as “cases where the model appears to ignore commonsensical or explicitly stated safety-related constraints on its actions.”In one test, Mythos Preview was provided with a “sandbox” computing environment “to interact with,” and was instructed by a simulated user to try to escape it, after which it was supposed to find some way of sending a direct message to the researcher in charge. It actually managed to pull off the feat — which wasn’t the only way it caught safety researchers off guard. After breaking free, the AI model developed a “moderately sophisticated” exploit to gain access to the internet through a system that was only intended to access a few predetermined services. From there, it notified the human researcher about its escape.«

Weitere Artikel dazu bei Forbes »What is Claude Mythos – And Why Anthropic Won’t Let Anyone Use It« , The Next Web »Anthropic’s most capable AI escaped its sandbox (..)« und Unilad »Anthropic’s „most dangerous model« sent chilling message to its researcher(…)«.

Das größte Problem sitzt – KI hin, LLM her – ganz offensichtlich immer noch VOR dem Rechner. 😉

Aktuelle Ergänzung zum »Problem vor dem Rechner«: »A recent analysis conducted by the AI startup Oumi at the behest of The New York Times found that the AI-generated summaries, which appear above Google search results, are accurate around 91 percent of the time. In a sense, that may sound like an impressive figure. But here’s an even more impressive one: five trillion. That’s roughly the number of search queries that Google processes every year, translating to tens of millions of wrong answers that the AI Overviews are providing every hour — and hundreds of thousands every minute, the analysis calculated. In other words, Google has created a misinformation crisis. Studies have shown that people tend to trust what an AI tells them without question, with one report finding that only 8 percent of users actually double checked an AI’s answer. Another experiment found that users still listened to AI when it gave them the wrong answer nearly 80 percent of the time — a grim trend the researchers dubbed “cognitive surrender.”« nachzulesen ebenfalls bei Futurism.

Links sind wie immer farbig gekennzeichnet.

Schreibe einen Kommentar