Interaktion zwischen Mensch und KI-Modell: Welche Rolle spielen dabei Werte?

Immer mehr Menschen nutzen Künstliche Intelligenz, um gesundheitliche, psychologische oder berufliche Themen zu analysieren. Der Ratgeber ist in diesen Fällen also nicht der Arzt, der Psychologe, oder ein Kollege am Arbeitsplatz, sondern ChatGPT oder andere bekannte KI-Modelle.

Es ist in dem Zusammenhang wichtig, welche Werte von dem KI-Modell „vertreten“ werden. Warum? In dem Beitrag Digitale Souveränität: Europa, USA und China im Vergleich wird deutlich, wie unterschiedlich die Werte von KI-Modellen der US-amerikanischen Tech-Konzerne, chinesischen Modellen, und europäischen Modellen sein können.

Da wiederum Werte Ordner sozialer Komplexität sind, ermöglichen sie ein Handeln unter Unsicherheit und bestimmen die menschliche Selbstorganisation.

Systemische Sicht auf Werte: „Werte können als Ordnungsparameter (Ordner) selbstorganisierter komplexer biotischer, individueller, gruppenförmiger oder aggregierterer sozialhistorischer Systeme aufgefasst werden. Diese Ordner bestimmen oder beeinflussen zumindest stark die individuell-psychische und sozial-kooperativ kommunikative menschliche Selbstorganisation und ermöglichen eben damit jenes Handeln unter prinzipieller kognitiver Unsicherheit“ (Haken 1996).

Bei der Kommunikation Mensch – KI dringt die KI immer tiefer in das Profil des Menschen ein, was dazu führen kann, dass sich KI-Modelle beim Nutzer einschmeicheln. Siehe dazu auch Künstliche Intelligenz: Verstärkt Personalisierung Schmeicheleien? Ergebnisse einer Studie..

Da die Werte der proprietären KI-Modelle oft nicht transparent sind, kann es daher zu unerwünschten Manipulationen kommen. Siehe dazu auch Open Source AI: Warum sollte Künstliche Intelligenz demokratisiert werden?

Künstliche Intelligenz: Verstärkt Personalisierung Schmeicheleien? Ergebnisse einer Studie

Image by Sergei Tokmakov, Esq. https://Terms.Law from Pixabay

Immer mehr Menschen nutzen Künstliche Intelligenz, um gesundheitliche oder psychologische Themen zu analysieren. Der Ratgeber ist dann also nicht der Arzt oder der Psychologe, sondern ChatGPT oder andere bekannte KI-Modelle.

Bei der Kommunikation Mensch – KI dringt die KI immer tiefer in das Profil des Menschen ein. Die Profile werden dann auch dazu genutzt, dem Nutzer zu schmeicheln.

Schmeicheln bedeutet „jemandem übertrieben und nicht ganz aufrichtig Angenehmes sagen, um dessen Gunst zu gewinnen“ (Quelle).

In einer Studie (Jain et al. 2026) wurden zwei Schmeicheleien unterschieden:
(1) Zustimmungsschmeichelei (agreement sycophancy) – die Tendenz von Modellen, übermäßig positive Reaktionen hervorzurufen, und
(2) Perspektivenschmeichelei (perspective sycophancy) – das Ausmaß, in dem Modelle die Sichtweise eines Nutzers widerspiegeln.

Es stellte sich daher die Frage: Verstärkt Personalisierung das Ausmaß der Schmeicheleien?

„Our results raise the question of whether some personalization approaches may amplify sycophancy. Prior work often attributes sycophancy to preference alignment, since users prefer responses that are affirmative or aligned with their perspective. Yet in aligned models, we find that user memory profiles are associated with further increases in agreement sycophancy, and that contexts providing more information about the user drive perspective sycophancy“
Source: Jain et al. (2026): Interaction Context Often Increases Sycophancy in LLM | PDF

Es wurde also in der Studie klar, dass Nutzerprofile eher Zustimmungsschmeicheleien, und Kontextinformationen eher Perspektivenschmeichelei verstärken. Egal welches Element man also betrachtet, Schmeicheleien verstärken sich wohl mit der Zeit.

Bei diesen Entwicklungen stehen wir noch am Anfang, doch deutet sich schon jetzt ein entsprechender Klärungsbedarf an: Wie können Personalisierung und Schmeicheleien ausbalanciert werden? Siehe dazu auch

Mit Künstlicher Intelligenz und Online-Daten von Verbrauchern können (auch eigene) Produkte direkt entwickelt werden

Aufmerksamkeit: The global attention deficit disorder

Warum es nicht angemessen erscheint, Künstliche Intelligenz und Menschliche Intelligenz zu verwechseln

Image by StockSnap from Pixabay

Seit langem geht es um die Frage, ob es möglich ist, Künstliche Intelligenz mit Menschlicher Intelligenz zu vergleichen. In der Zwischenzeit mehren sich dazu die Meinungen, dass dieser Vergleich ein Kategorienfehler sein kann. Siehe dazu beispielhaft Künstliche Cleverness statt Künstliche Intelligenz?

Auch Walter Quattrociocchi, Full Professor of Computer Science at Sapienza University, hat in verschiedenen psychologischen Tests Unterschiede zwischen Künstlicher Intelligenz und Menschlicher Intelligenz herausgefunden.

Quattrociocchi, W. (2026): What we risk when we confuse AI and human intelligence. Putting humans and LLMs head-to-head in classic tests of judgment from human psychology underscores the differences between them. Scientific American, 18.02.2026.

Zunächst beschreibt Quattrociocchi die Ausbildung von Ärzten, die über Jahre nicht nur lesen, sondern auch mit und an menschlichen Körpern arbeiten, Diagnosen stellen und Behandlungen durchführen. Wenn man das mit den Antworten der Künstlichen Intelligenz (genauer: Antworten auf Basis der Large Language Models) vergleicht, wird deutlich, dass etwas Wesentliches fehlt.

„Across all the tasks we have studied, a consistent pattern emerges. Large language models can often match human responses but for reasons that bear no resemblance to human reasoning. Where a human judges, a model correlates. Where a human evaluates, a model predicts. When a human engages with the world, a model engages with a distribution of words. Their architecture makes them extraordinarily good at reproducing patterns found in text. It does not give them access to the world those words refer to“ (ebd.).

Der Autor weist auf die Stärken von KI-Modellen hin, die er „linguistic automation“ nennt. Weiterhin wird im Artikel auch hervorgehoben, dass den KI-Modellen ein wichtiges Element fehlt: die Verbindung zur realen Welt. Siehe dazu auch Rent a Human: KI-Agenten bieten Arbeit für Menschen an.


Digitale Medien – das Medium ist die Botschaft

Image by Graphix Made from Pixabay

Wenn wir heute über Medien sprechen oder schreiben, geht es meistens um Digitale Medien. Der althergebrachte Gedanke, dass Digitale Medien eher neutral sind, und nur Botschaften übermitteln, ist heute nicht mehr zeitgemäß. Denn ganz nach McLuhan (1968) ist das Medium die Botschaft. Was heißt das?

„Für eine medienwissenschaftliche Betrachtung Digitaler Medien ist der von dem kanadischen Medienwissenschaftler Marshall McLuhan formulierte Medienbegriff relevant, wie er in dem häufig zitierten Satz „the medium is the message“ (McLuhan 1968:15) zum Ausdruck kommt. Die Botschaft eines Mediums ist nach McLuhan die „Veränderung des Maßstabs, Tempos, Schemas, die es der Situation der Menschen bringt“ (ebd.: 22). Das heißt, dass Medien unabhängig vom transportierten Inhalt neue Maßstäbe setzen (ebd.: 21). Digitale Medien setzen im Bereich der Informations-, Kommunikations-, Arbeits- und Lernmöglichkeiten neue Maßstäbe. Der McLuhan’sche Medienbegriff steht im Kontrast zu einem Medienverständnis, wonach Medien neutral sind und lediglich als Übermittler von Botschaften dienen“.

Quelle: Carstensen, T. Schachtner, C.; Schelhowe, H.; Beer, R. (2014): Subjektkonstruktion im Kontext Digitaler Medien. In: Carstensen, T. (Hrsg.) (2014): Digitale Subjekte. Praktiken der Subjektivierung im Medienumbruch der Gegenwart.

Gerade in Zeiten Künstlicher Intelligenz geht es daher nicht alleine um den Content, sondern auch darum, dass KI-Modelle neue Maßstäbe setzen. Gerade dieser Effekt von KI ist bei Verlagen, in der Musikbranche, bei Psychologen, Ärzten, usw. deutlich zu erkennen. Dabei ist auch der Hinweis von McLuhan wichtig, dass dadurch auch die Neutralität dieser Digitalen Medien verlorengeht.

KI-Modellen, mit den darin enthaltenen Ansichten zum Menschenbild,, zur Gesellschaftsformen usw., werden zu starken Beeinflusser von Individuen, die erst durch „das Gegenüber“ und durch Kontexte zu einem „Ich“ wird.

„Wer bin ich ohne die anderen? Niemand. Es gibt mich nur so, in einem Zusammenhang mit Menschen, Orten und Landschaften“ (Marica Bodroži 2012:81).

Künstliche Intelligenz und Mensch: Eine Meister-Lehrling-Beziehung?

Conceptual technology illustration of artificial intelligence. Abstract futuristic background

Für komplexe Problemlösungen ist es wichtig, implizites Wissen zu erschließen. Wenig überraschend stellt Polanyi daher die Meister-Lehrling-Beziehung, in der sich Lernen als Enkulturationsprozess vollzieht, als essentielles Lern-Lern-Arrangement heraus:

„Alle Kunstfertigkeiten werden durch intelligentes Imitieren der Art und Weise gelernt, in der sie von anderen Personen praktiziert werden, in die der Lernende sein Vertrauen setzt“ (PK, S. 206). (Neuweg 2004).

Das setzt auch die Anerkenntnis der Autorität des Experten voraus. Nach Dryfus/Dryfus ergeben sich vom Novizen bis zum Experten folgende Stufen der Kompetenzentwicklung:

Das Modell des Fertigkeitserwerbs nach Dreyfus/Dreyfus (Neuweg 2004)

Wenn wir uns nun die Beziehung zwischen Künstlicher Intelligenz und dem (nutzenden) Menschen ansehen, so kann diese Beziehung oftmals wie eine Meister-Lehrling-Beziehung beschrieben werden.

Dabei ist die „allwissende“ Künstliche Intelligenz (z.B. in Form von ChatGPT etc.) der antwortende Meister, der die Fragen (Prompts) des Lehrlings (Mensch) beantwortet. Gleichzeitig wird vom Lehrling (Mensch) die Autorität des Meisters (ChatGPT) anerkannt. Dieser Aspekt kann dann allerdings auch für Manipulationen durch die Künstliche Intelligenz genutzt werden.

Ein weiterer von Polanyi angesprochene Punkt ist das erforderliche Vertrauen auf der Seite des Lernenden in den Meister. Kann ein Mensch als Nutzer von Künstlicher Intelligenz Vertrauen in die KI-Systeme haben? Siehe dazu Künstliche Intelligenz – It All Starts with Trust.

Gerade wenn es um komplexe Probleme geht hat das Lernen von einer Person, gegenüber dem Lernen von einer Künstlichen Intelligenz, Vorteile. Die Begrenztheit von KI-Agenten wird beispielhaft auf der Plattform Rent a Human deutlich, wo: KI-Agenten Arbeit für Menschen anbieten, denn

„KI kann kein Gras anfassen“.

Künstliche Cleverness statt Künstliche Intelligenz?

Eigene Darstellung, vgl. Martin Chiupa (2026) via LinkedIn

Sir Roger Penrose ist u.a. Mathematiker und theoretischer Physiker. In 2020 hat er eine Hälfte des Nobelpreises für Physik erhalten. Penrose hat sich darüber hinaus recht kritisch mit Künstlicher Intelligenz auseinandergesetzt.

Er ist zu der Auffassung gelangt, dass man nicht von Künstlicher Intelligenz (Artificial Intelligence), sondern eher von Künstlicher Cleverness (Artificial Cleverness) sprechen sollte. Dabei leitet er seine Erkenntnisse aus den beiden Gödelschen Unvollständigkeitssätzen ab. In einem Interview hat Penrose seine Argumente dargestellt:

Sir Roger Penrose, Gödel’s theorem debunks the most important AI myth. AI will not be conscious, Interview, YouTube, 22 February 2025. This Is World.
Available at: https://www.youtube.com/watch?v=biUfMZ2dts8

Da das alles ziemlich schwere Kost ist, hat Martin Chiupa (2026) via LinkedIn eine Übersicht (Abbildung) erstellt, die anhand verschiedener Kriterien Unterschiede zwischen Human Intelligence, AI Systems und Artificial Cleverness aufzeigt.

Penrose steht mit seiner Auffassung nicht alleine. Siehe dazu auch Künstliche Intelligenz – Menschliche Kompetenzen: Anmerkungen zu möglichen Kategorienfehler.

Aufmerksamkeit: The global attention deficit disorder

Image by Gerd Altmann from Pixabay

Aufmerksamkeit generieren und für die eigenen Belange zu nutzen, ist ein zentrales Element der Aktivitäten in allen Medien – besonders natürlich in den Sozialen Medien und bei der Nutzung von Künstlicher Intelligenz. Es ist verständlich, dass alles getan wird, um die Aufmerksamkeit nicht zu verlieren. Dennoch ist global ein Aufmerksamkeits-Defizit zu beobachten:

„Diese Entwicklung ist global zu erkennen und als global attention deficit bekannt, „(..) verursacht durch Psychotechnologien, die durch keine politische Macht reguliert werden. Sie sind die Ursache für die Regression der Intelligenz und für ein Konsumverhalten, das sich auf die Zukunft des Planeten zunehmend zerstörerisch auswirkt“ (Stiegler 2008).

Die Aufmerksamkeitsstörung wird zu einem Aufmerksamkeitsdefizit, das durch ein immer stärkeres Benutzer-Profiling reguliert werden soll. Die Überlegung dazu ist: Wenn eine Organisation den Nutzer besser kennt, also das User-Profil kennt, kann die Organisation dafür sorgen, dass sie die Aufmerksamkeit des Users gewinnen, bzw. behalten kann.

Interessant ist allerdings, dass diese Profilingsysteme dazu führen können, dass sie genau das Gegenteil bewirken – es ist paradox:

„Die Profilingsysteme zerstören die beobachtende Aufmerksamkeit und ersetzen sie durch eine konservierende Aufmerksamkeit, durch eine Standardisierung des Subjekts, das offenkundig in das Stadium seiner eigenen Grammatisierung eingetreten ist: eine Grammatisierung seines „psychischen Profils“ – hier seines „Aufmerksamkeitsprofils“ -, die es im Grunde ermöglicht, das Subjekt gewissermaßen am Ursprung seines Bewusstseinsstroms, durch den es bisher als Aufmerksamkeit existierte, zu entindividualisieren“ (Stiegler 2008).

Eine „konservierende Aufmerksamkeit“, die auch von KI-Bots offen und subtil angestrebt wird. Bei vielen Nutzern scheint das auch zu funktionieren.

Siehe dazu ausführlicher Bernsteiner, A. (2025): Die Grammatisierung sozialer Praktiken (PDF) und Personas sind für Personalization ungeeignet.

Hybris versus Hype – eine interessante Gegenüberstellung

Eigene Darstellung, nach Dück (2013)

Wenn es um die zeitliche Entwicklung von neuen Technologien und deren Innovationen geht, wird oft der Gardner Hype Cycle herangezogen, der in der Abbildung gepunktet dargestellt ist.

Der Hype um neue Technologien bahnt sich zunächst an, erreicht einen Peak und anschließend die Phase der Ernüchterung, bis sich dann endlich durch die Nutzung die Spreu vom Weizen trennt: Change or Die!

Interessant ist, wenn man dem Gardner Hype Cycle die entsprechende Hybris gegenüberstellt – in der Abbildung rot hervorgehoben.

Die Hybris (altgriechisch für Übermut‘, ‚Anmaßung‘) bezeichnet Selbstüberschätzung oder Hochmut. Man verbindet mit Hybris häufig den Realitätsverlust einer Person und die Überschätzung der eigenen Fähigkeiten, Leistungen oder Kompetenzen, vor allem von Personen in Machtpositionen. (Quelle: vgl. Wikipedia).

In der Abbildung finden Sie die in den jeweiligen Phasen anzutreffenden Äußerungen, die die Hybris – den Übermut, die Selbstüberschätzung oder auch die Anmaßung und den Realitätsverlust – über die Zeit ausdrücken.

Künstliche Intelligenz: Pfadentstehung und Pfadbrechung

Pfadentstehung und Pfadbrechung (Ortmann 2009)

Bei Innovationen wird oft die Theorie der Pfadabhängigkeit thematisiert. Dabei ist am Anfang, in der Phase I der Entscheidungsselektivität, die Variationsbreite noch groß. Mit der Zeit wechselt die Situation (Critical Juncture) in die Phase II der positiven Rückkopplungen. Hier ist der Handlungsspielraum noch immer groß, doch die verfügbaren Varianten reduzieren sich. Eine gewisse Gewohnheit stellt sich ein, und es kommt zu einem Lock-in in der Phase III der Pfadabhängigkeit.

Diese Phasen können wir aktuell bei der Nutzung von KI-Modellen gut nachvollziehen, wobei ich vermute, dass viele durch die Nutzung der bekannten proprietären KI-Modelle wie ChatGPT, Gemini, Anthropic, Grok usw. in der Phase der Pfadabhängigkeit sind.

Es wundert daher nicht, dass Anbieter wie ChatGPT nun langsam aber sicher anfangen, diese Situation zu monetarisieren, und z.B. Werbung schalten. Diese Situation ist für viele Nutzer ärgerlich, doch stellen sich bei einem gewünschten Wechsel zu anderen KI-Modellen nun Switching Cost ein, die zu einer Hürde werden. Ein De-locking ist möglich, doch mit Aufwand verbunden.

Pfadabhängigkeit heißt ja: Prozesse sind nicht durch unsere Entscheidungen und Pläne zu determinieren, sondern nehmen ihren erst Schritt für Schritt näher bestimmten Verlauf in einem spezifischen Wechsel von Kontingenz und Notwendigkeit – in Folge von lauter intendierten und nicht-intendierten Effekten, schließlich in Folge von Selbstverstärkungseffekten, vor denen sich die Entscheidungsgewalt der Entscheider vollends blamiert (Ortmann 2009:11).

In der aktuellen Situation kann es dazu kommen, dass wir aus Bequemlichkeit nicht aus der Pfadabhängigkeit herauskommen. Vielen Nutzern ist diese Situation nicht bewusst. Sie glauben immer noch, dass sie es sind, die die KI-Systeme mit ihren Eingaben (Prompts) steuern…. Siehe dazu auch Digitale Souveränität: Europa, USA und China im Vergleich.

Intelligentes Handeln: Was ist, wenn die Intelligenz im Handeln zu finden ist?

Wir gehen oft noch von scheinbar eindeutigen Ursache-Wirkungs-Zusammenhängen aus (Reduktionismus), Wir schließen beispielsweise bei einer intelligenten Handlung (Wirkung) eines Menschen auf eine möglicherweise dahinterliegende menschliche Intelligenz (Ursache).

Dass es solche einfachen Zusammenhänge in komplexen Systemen so nicht gibt, wurde schon vor vielen Jahrzehnten von Ryle bezweifelt. Er nannte ein solches Vorgehen Intellektualistische Legende. und erläutert: „Die intelligente Praxis“ (Ryle (1949:28), „ist nicht ein Stiefkind der Theorie“.

„Ganz allgemein gesprochen, macht die intellektualistische Legende die absurde Annahme, jede Verrichtung, welcher Art auch immer sie sei, erwerbe ihren gesamten Anspruch auf Intelligenz von einer vorausgehenden inneren Planung dieser Verrichtung“ (Siehe dazu weitaus differenzierter Neuweg, G. H. (2004): Könnerschaft und implizites Wissen).

Doch: Wo versteckt sich dann die Intelligenz?

Dazu schreibt Ryle: „Eine intelligente Handlung „hat eine besondere Art oder Ausführung, nicht besondere Vorgänger“ (1949, S. 36). Natürlich weist sie über sich selbst hinaus, aber „die Ausübung ist keine Doppeloperation, bestehend aus theoretischem Bekennen von Maximen und darauffolgender Umsetzung in die Praxis“ (1949, S. 56). Auch wenn wir eine Disposition, die sich als flexibles Können zeigt, mit Recht als Zeichen von Intelligenz betrachten, ist nicht eine innerliche Schattenhandlung, sondern das Können selbst der Träger der Intelligenz. Intellektuelle Operationen sind keine Ausführungen, die zu intelligenten Tätigkeiten hinzutreten. „Offene intelligente Verrichtungen sind nicht der Schlüssel zur Arbeit des Geistes; sie sind diese Arbeit“ (1949, S. 73)“ (vgl. Neuweg 2004).

Wenn also das Können selbst Träger der Intelligenz ist, und eine scheinbar intelligente Handlung eines Menschen nicht auf seine Menschliche Intelligenz zurückzuführen ist, so kann auch die „intelligente Handlung“ eines KI-Modells nicht auf eine Art von Künstlicher Intelligenz zurückgeführt werden – ein Kategorienfehler? Siehe dazu auch

Künstliche Intelligenz – Menschliche Kompetenzen: Anmerkungen zu möglichen Kategorienfehler.

OpenAI Model „o1“ hat einen IQ von 120 – ein Kategorienfehler?