Die neue KI macht derzeit die (nicht nur IT-) Welt verrückt. Amerikaner jazzen bereits den nächsten „iPhone-Moment“ hoch.
Sie schreibt Code, wissenschaftliche und journalistische Texte, löst Mathe-Aufgaben, verfasst Drehbücher und nimmt Stellung zu so ziemlich jeder »komplexen« Frage. Während wir geistigen Kretins gerade bei Letzterem leicht in Versuchung geraten, vor uns hinzuschwurbeln, haut sie ordentliche Textbausteine ‘raus.
1. Für sehr viele alltägliche Leistungen und Aufgaben: Ja. Und zwar mehrheitlich eine positive.
Wären wir als Gesellschaft imstande, bereits automatisch, wie selbstverständlich, einzupreisen, dass eine gelöste Aufgabe auch von ChatGPT stammen könnte, wäre das alles kaum problematisch. Mal abgesehen von offenen Bildungsfragen (Bildungsinstitutionen können beispielsweise die Prüfungsform »Hausarbeit« im Wesentlichen vergessen oder müssen sie grundüberholen – was nicht in allen Fächern sinnvoll oder möglich ist): Für den größeren Rest an denkbaren Aufgaben für ChatGPT ist so eine Maschine vor allem eines: Nützlich. Sie spart Zeit, mindert Konzentrationsaufwand und den energieraubenden „Sägeblatt-Effekt“ für das Gehirn (ständig unterbrochen werden, mehrere Aufgaben gleichzeitig erledigen und dazwischen springen müssen, inhaltsreiche Aufgaben »in Kette« erledigen müssen, etwa Artikel schreiben u.a.m.). Diese KI erleichtert geistigen Aufwand, beschleunigt Prozesse und hat ein Niveau, das akzeptabel ist – mit anderen Worten, die Ergebnisse sind »okay« bis »gut«. Viele Menschen schaffen auch nichts Besseres.
Der Schock über das System resultiert also nicht aus dessen Leistungsradius, sondern aus bislang unkalkulierbaren Effekten
Diese Fragen sind beunruhigend, aber auch keine ewige Black Box bzw. Hexenwerk, derlei herauszubekommen. Das wird schnell geprüft werden – warum? Weil wir dazu die »richtigen« Fragen kennen. Ganz einfach.
Es gibt aber noch eine andere Dimension dieser Entwicklung.
2. Für Klima und Verständigung einer Gesellschaft mit sich selbst: Unter Umständen ebenfalls Ja. Aber das ist ein unklares bis dystopisches.
Um nicht lange beschreiben zu müssen, was gemeint ist, hier ein Beispiel. Ein Futurist fragte die Maschine:
Was sind die möglichen sozialen und wirtschaftlichen Auswirkungen einer weit verbreiteten Automatisierung?
ChatGPT: Die potenziellen sozialen und wirtschaftlichen Auswirkungen einer weit verbreiteten Automatisierung sind komplex und vielschichtig und hängen von den spezifischen Technologien und Branchen ab, die automatisiert werden. Einige mögliche Auswirkungen der Automatisierung sind:
• Gesteigerte Produktivität und Effizienz: Die Automatisierung kann zu höherer Produktivität und Effizienz führen, da Maschinen Aufgaben schneller und präziser erledigen können als Menschen. Dies könnte zu Kosteneinsparungen für Unternehmen und höheren Gewinnen führen.
• Verdrängung von Arbeitsplätzen: Die Automatisierung kann zur Verdrängung von Arbeitsplätzen führen, da Maschinen Aufgaben übernehmen können, die zuvor von Menschen erledigt wurden. Dies könnte bei einigen Arbeitnehmern zu Arbeitslosigkeit oder Unterbeschäftigung führen, insbesondere in Branchen, die stark automatisiert sind.
• Veränderungen in der Art der Arbeit: Die Automatisierung kann zu Veränderungen in der Art der Arbeit führen, da Maschinen in der Lage sind, Aufgaben zu übernehmen, die früher von Menschen erledigt wurden. Dies könnte zu einer Verlagerung hin zu höher qualifizierten und besser bezahlten Arbeitsplätzen führen, die mehr Bildung und Ausbildung erfordern.
• Ungleichheit: Die Automatisierung könnte bestehende Ungleichheiten verschärfen, da diejenigen, die bereits benachteiligt sind, weniger in der Lage sind, sich an die Veränderungen auf dem Arbeitsmarkt anzupassen, und anfälliger für Arbeitsplatzverlagerungen sein könnten.
Insgesamt werden die Auswirkungen der Automatisierung auf die Gesellschaft und die Wirtschaft davon abhängen, wie sie umgesetzt wird und wie die Vorteile der erhöhten Produktivität und Effizienz verteilt werden. Es wird auch wichtig sein, politische Maßnahmen und Strategien in Betracht zu ziehen, um die potenziellen negativen Auswirkungen der Automatisierung, wie z. B. die Verdrängung von Arbeitsplätzen und Ungleichheit, anzugehen.
Das ist die Level-Kennzeichnung, die ich oben meinte: »Okay« bis »gut« – der Mainstream des aktuellen Journalismus zu diesem Thema. Dass Unternehmen aus ökonomischen Gründen Maschinen nutzen, dass das Arbeitsplätze gefährdet, dass das wiederum zu mehr Ungleichheit führt und wir daher politische Regelungen brauchen, um die abzufedern – geschenkt. Die meisten kommen im nüchternen Zustand selbst drauf.
Was bedeutet es, wenn der öffentliche Kommunikationsraum mit diesem Niveau von Aussagen, mit solcher »Expertise« (‚ich hab ChatGPT gefragt…!‘), kalkulatorischen Intelligenz (Maschinen haben nahezu immer einen größeren Überblick als wir) geflutet wird? Die einen könnten sagen: »Fortschritt! Ich lese häufig deutlich größeren Blödsinn zu diesem Thema!“ Was sein mag. Andere könnten aber auch sagen: »Offenbar sind sich zum Thema alle einig. Ich höre nichts anderes dazu, und wenn das so ist, dann machen wir jetzt x, y, z, und die Gefahren sind gebannt«.
Wäre das »gut«? Und wohin führt das?
Maschinen werden von IT’lern ihrer Zeit programmiert. Der obige Textbaustein von ChatGPT ist nichts anderes als eine neue Echokammer im erweiterten Radius von der gerade zeitgeistigen Weltbild-Blase zum Thema. ChatGPT spiegelt das genormte Weltbild in relativ niveauvoller Form und Struktur einfach nochmal zurück. Ein Norm-Booster.
Als Zukunftsforscher könnten wir weiter fragen und z. B. Chancen und Risiken identifizieren lassen. Und sicherlich werden wir eine erste Liste mit Treibern erstellen können – auf dem Niveau derjenigen Themen und Fragen, die wir ohnehin bereits kennen. Denn genau deswegen kennt sie auch ChatGPT.
Können Transformationsgesellschaften mit dieser Art von technologischer Evolution erfolgreich sein und heil durch die Zukunft kommen? Dass wir uns – anstatt durch geistige Arbeit unseren kognitiven Radius zu erweitern, unsere blinden Flecke systematisch zu verkleinern – allmählich dahingehend »einsozialisieren«, durch Maschinen den Mainstream feinkalibrieren und verdichten zu lassen, und uns dann in unserem Handeln darauf – weil durch »Künstliche Intelligenz« ja qualifiziert – stützen? Ist geistige Einhegung durch KI erstrebenswert?
Trend ist sie in jedem Fall. Denn kaum anderes spiegelt der obige Textbaustein zurück, als ein Widerkäuen von Allgemeinplätzen, die als solche nur deswegen im Alltag kaum auffallen, weil sie ordentlich in Form gebracht und argumentativ logisch in Linie gebracht wurden. Ein eigenes Feld von Zukunftsforschung beschäftigt sich mit Wild Cards von KI. Eine prominente davon: Dass menschliche Kulturen über die Zeit dramatisch verdummen. Nicht nur nehmen uns Maschinen künftig Vieles ab, für das wir dankbar sind, weil es um monotone, öde, gesundheitsschädliche oder kräftezehrende Jobs geht. Deswegen bauen wir sie ja.
Die immer im toten Winkel bleibende Gefahr (nicht Risiko!) ist jedoch, dass wir in Sachen Verlässlichkeit der KI, Bequemlichkeit unserer selbst, Respekt vor immensen »geistigen« Kapazitäten und ganz banal: Neugier, völlig neuartige kultureller Bias-Strukturen ausbilden könnten. Das menschliche Gehirn ist so gebaut, dass es Aufwand meidet (zu hohe energetische Kosten). Wenn wir Maschinen erlauben, die dieses biologische Merkmal bedienen – was ja nicht stimmt: sie triggern es! – und gleichzeitig den Adel von immenser »Intellligenz« (die sogar höher ist als unsere) legitim, ja statusrelevant werden lassen, bauen wir Geist und Bewusstsein zurück.
Die Haupt-Gefahr solcher KI’s liegt nicht in den Maschinen selbst. Sie liegt in der evolutionsbiologischen Reaktionsbildung von Homo sapiens auf sie. Die ist derzeit noch nicht abschätzbar; wir haben jedoch erste weak signals. Da sich bislang für die Neuentwicklung hierfür geeigneter kultureller, kommunikativer Sozialkontrollen (zumindest öffentlich wahrnehmbar) niemand interessiert und darum kümmert (reine Investition, null ökonomischer Gewinn – bloß die unsichere Option unserer Existenzsicherung), ist ChatGPT selbst zwar keine Revolution. Aber möglicherweise eine erste organisatorische Basis dafür. Wir gehen mit ihr – vielleicht – einen gewaltigen nächsten Schritt in Richtung soziokultureller Vereingeistigung und Selbst-Normierung.
Das einzige, was dabei sicher ist: Die IT-Welt wird dieses Problem nicht lösen, dazu ist sie qua Aufstellung, Sozialisationsmuster und technologischer Grundorientierung weder willens noch in der Lage: Sie hat ganz einfach einen anderen Auftrag. Dafür bräuchten wir substanziellere geistige Investitionen. Wanted. Wer will? Wo sind Anthropologen*, Soziologen*, Kognitionswissenschaftler*, Verhaltensökonomen* und Kybernetiker*, die sich der zentralen Frage widmen?
Lesetipp: »KI fressen Seele auf - Motive und Hintergründe zu Dystopien über Maschinenintelligenz«, Kap. 7
Denkfetzen
Friederike Müller-Friemauth
danke für Deine Gedanken! Du formulierst etwas strange. Der Mainstream ist "dataistisch" (wie Harari sagen würde), ja, wird sich erst mal auch nicht ändern. Aber die Gegenbewegung wächst. Leider sind das Dynamiken im Schneckentempo - ob ich zu Lebzeiten dazu noch relevantes Neues beobachten darf, weiß ich nicht. Lese gerade den neuen Rifkin (Zeitalter der Resilienz) - das ist doch was anderes als der Mainstream - und ein einflussreicher Gatekeeper für viele Zukunftsinteressierte und andere Aufgeschlossene. Es gibt wirklich nichts schönzureden zur Zeit, aber wir sollten auch m i t b e k o m m e n, wenn sich was tut.
Was denkst du?