Der Begriff Künstliche Intelligenz ist in aller Munde. Es geht dabei allerdings hauptsächlich um die verschiedenen Tools wie ChatGPT, Bard, usw. Es wir suggeriert, dass diese Art der datenbasierten Problemlösung Intelligenz darstellet, eben Künstliche Intelligenz. Dazu gibt es allerdings den Einwand, dass es sich hierbei um einen Kategorienfehler handeln könnte, bzw. handelt. Dazu habe ich folgenden aktuellen Text gefunden:
“Maschinen können helfen, schneller Datenoperationen auszuführen – aber helfen sie auch, bessere Entscheidungen zu treffen? Maschinen helfen logischer zu folgern – aber helfen sie auch, skeptisch zu zweifeln? Maschinen können Daten vereinen aber können sie auch Widerstand organisieren? Maschinen können Informationen aufbereiten aber können sie auch Unbestimmtheit zulassen? Im Begriff der Künstlichen Intelligenz liegt das, was Niklas Luhmann einen Kategorienfehler nannte. Ein Kategorienfehler ist es, wenn eine Bäckerin versucht belegte Brötchen zu backen oder ein Bauer, Bratkartoffeln zu pflanzen. Im Wortspiel Künstliche Intelligenz werden zwei fundamental verschiedene Kategorien verwechselt: das Lösen strategischer (und formalisierbarer) Probleme, das in der KI als Intelligenz interpretiert wird einerseits und das Bewusstsein, das in der Fähigkeit besteht, auf die Komplexität der Welt durch Kreativität und Gefühl zu antworten andererseits. Kann KI letzteres? Nein, denn dazu müssen soziale, emotionale und Künstliche Intelligenz zusammenwirken” (Ehlers 2023, in Schmohl 2023).
Interessant dabei ist, dass nicht nur Nikas Luhmann herangezogen werden kann, sondern auch Howard Gardner in seiner Theorie der Mulftiplen Intelligenz darauf verweist, dass es sich bei Künstlicher Intelligenz um einen Kategorienfehler handelt. Ob Howard Gardner sich direkt dabei auf Luhmann bezieht, kann ich nicht sagen. Siehe dazu Steckt hinter der Künstlichen Intelligenz keine echte Intelligenz? Wie ist das zu verstehen?
Informationen zu unseren Lehrgängen und zu Terminen finden Sie auf unserer Lernplattform.