Aktuell reden und schreiben viele zur Künstlichen Intelligenz, die sich praktisch umgesetzt in vielen Anwendungen, wie z.B. ChatGPT von OpenAI, zeigt. Haben wir “Intelligente IT-Systeme” und dumme Menschen? Wenn es um menschliche Intelligenz geht, kommt oft der vor mehr als 100 Jahren entwickelte Intelligenztest ins Spiel, mit dem dann zukünftige Möglichkeiten und Dispositionen vorhergesagt werden. Die folgende Passage beschreibt die Zusammenhänge etwas ausführlicher.
“Eine erste Entwicklungslinie soll hier aus heuristischen Gründen auf das Ende des 19. und Anfang des 20. Jahrhundert datiert werden. Ausgangspunkt ist die kausalmechanische Logik einer behavioristischen Entwicklungspsychologie, die den Körper wesentlich als Reiz-Reaktions-Maschine betrachtet. In dieser Logik entwickelte der französische Psychologe Alfred Binet 1905 gemeinsam mit dem Arzt Théodore Simon einen ersten sogenannten ´Intelligenztest´ (Liungman, 1976). Das mit der Psychometrie etablierte sehr lineare, planmäßig geregelte Mess- und Testregime verweist auf einige zentrale Merkmale von Vermessungs- respektive Prüfungspraktiken. Grundlegend zielt die Prüfung darauf ab, von der Summe einzelner aktueller Leistungsergebnisse eines Individuums auf die zukünftigen Möglichkeiten und Dispositionen bzw. auf die zukünftig erwartbare Leistungsfähigkeit schließen zu können. Aber der Psychometrie gilt nicht nur eine aktuelle Leistung als repräsentativ für ein Leistungsvermögen, sondern sie stellt durch ihre Orientierung am Modell der Normalverteilung zugleich die Kontrolle sozialer Relationen sicher: Die Intelligenzleistungen, die dem Einzelnen als Leistungen zugeschrieben werden, werden im Verhältnis zum Durchschnitt der Leistungen anderer angegeben und damit vergleichbar gemacht. Auf Basis derartiger Aussagen über ´Begabung´ und ´Intelligenz´ lassen sich institutionelle Selektionsprozesse und soziale Hierarchisierungen legitimieren (Bourdieu, 1993; Gould, 1988)” (Vater, S. (2023:255248).): Validierung und Neoliberalismus – selbstverantwortete Beschäftigungsfähigkeit als Lernergebnis, in: Schmid, M. (Hrsg.) (2023): Handbuch Validierung non-formal und informell erworbener Kompetenzen, S. 235-248).
Intelligenztests werden für berufliche/gesellschaftliche Selektionsprozesse genutzt, dabei haben diese ihren Ursprung in einer behavioristischen Logik und sollen Auskunft über zukünftige Dispositionen geben. Dieser Determinismus stößt auf Kritik. Siehe dazu auch Ursache – Wirkung: Die Intellektualistische Legende. Es wird immer wieder vorgeschlagen, das Konstrukt “Intelligenz” auszudifferenzieren. Folgender Text soll das beispielhaft aufzeigen:
“Inhaltlich hat sich das Intelligenzkonzept in den letzten 100 Jahren ausdifferenziert (vgl. Funke u. Vatterodt-Plünnecke 2004): An der Stelle einer einzigen Intelligenzdimension (´general intelligence´, g-Faktor) ist heute die Konzeption multipler Intelligenzen im Sinne unterschiedlicher Teilkompetenzen (z.B. logisches Schlussfolgern, verbale Intelligenz, kreatives Problemlösen, emotionale Kompetenz, Körperbeherrschung) getreten, für die jeweils andere Erfassungsinstrumente benötigt werden” (Funke 2006).
Gerade in Zeiten von Künstlicher Intelligenz ist es wichtig, auch über die Menschliche Intelligenz zu sprechen. Daraus ergibt sich die Frage, wie passen Künstliche Intelligenz und Menschliche Intelligenz zusammen? Interpretieren wir die von Funke angesprochene Ausdifferenzierung des Intelligenzkonzepts, so führt das meines Erachtens direkt zur Reflexiven Modernisierung und der dort thematisierten Entgrenzung. Möglicherweise hat Gardner´s Theorie der Multiplen Intelligenzen eine bessere Passung zu den aktuellen Entwicklungen. Siehe dazu auch Hybrid Intelligence: Menschliche und Künstliche Intelligenz.
Siehe dazu auch Freund, R. (2011): Das Konzept der Multiplen Kompetenz auf den Analyseebenen Individuum, Gruppe, Organisation und Netzwerk.