Künstliche Intelligenz und Lernzieltaxonomie

Die Lernzieltaxonomie von Bloom et al. aus dem Jahr 1956 wird heute noch in ihrer ursprünglichen Fassung benutzt, obwohl es schon zeitgemäßere Weiterentwicklungen gibt.

Zunächst einmal ist der Vorschlag von Anderson und Krathwohl aus dem Jahr 2001 zu nennen, bei dem die oberste Ebene in Evaluieren umbenannt wurde, und eine weitere Ebene „Erschaffen“ hinzugekommen ist.

Auf Basis dieser Weiterentwicklung hat die Oregon State University 2024 eine englischsprachige Darstellung unter der Lizenz CC BY-NC 4.0 veröffentlicht, die die jeweiligen Ebenen mit den Möglichkeiten der Künstlicher Intelligenz ergänzt.

Das Trendscouting-Team der PHBern hat die gesamte Übersicht ins Deutsche übersetzt (Abbildung).

Künstliche Intelligenz, Agiles Manifest, Scrum und Kanban

Bei Künstlicher Intelligenz denken aktuell die meisten an die KI-Modelle der großen Tech-Konzerne. ChatGPT, Gemini, Grok etc sind in aller Munde und werden immer stärker auch in Agilen Organisationen eingesetzt. Wie in einem anderen Blogbeitrag erläutert, sind in Agilen Organisationen Werte und Prinzipien mit ihren Hebelwirkungen die Basis für Praktiken, Methoden und Werkzeuge. Dabei beziehen sich viele, wenn es um Werte und Prinzipien geht, auf das Agile Manifest, und auf verschiedene Vorgehensmodelle wie Scrum und Kanban. Schauen wir uns einmal kurz an, was hier jeweils zum Thema genannt wird:

Agiles Manifest: Individuen und Interaktionen mehr als Prozesse und Werkzeuge
In der aktuellen Diskussion über die Möglichkeiten von Künstlicher Intelligenz werden die Individuen eher von den technischen Möglichkeiten (Prozesse und Werkzeuge) getrieben, wobei die Interaktion weniger zwischen den Individuen, sondern zwischen Individuum und KI-Modell stattfindet. Siehe dazu auch Mensch und Künstliche Intelligenz: Engineering bottlenecks und die fehlende Mitte.

SCRUM: Die Werte Selbstverpflichtung, Fokus, Offenheit, Respekt und Mut sollen durch das Scrum Team gelebt werden
Im Scrum-Guide 2020 wird erläutert, was die Basis des Scrum Frameworks ist. Dazu sind die Werte genannt, die u.a. auch die Offenheit thematisieren, Ich frage mich allerdings, wie das möglich sein soll, wenn das Scrum Team proprietäre KI-Modelle wie ChatGPT, Gemini, Grok etc. nutzt, die sich ja gerade durch ihr geschlossenes System auszeichnen? Siehe dazu auch Das Kontinuum zwischen Closed Source AI und Open Source AI.

KANBAN basiert auf folgenden Werten: Transparenz, Balance, Kooperation, Kundenfokus, Arbeitsfluss, Führung, Verständnis, Vereinbarung und Respekt.
Bei den proprietären KI-Modellen ist die hier angesprochene Transparenz kaum vorhanden. Nutzer wissen im Detail nicht, mit welchen Daten das Modell trainiert wurde, oder wie mit eingegebenen Daten umgegangen wird, etc.

In einem anderen Blogbeitrag hatte ich dazu schon einmal darauf hingewiesen, dass man sich mit proprietärer Künstlicher Intelligenz (KI) auch die Denkwelt der Eigentümer einkauft.

Um agile Arbeitsweisen mit Künstlicher Intelligenz zu unterstützen, sollte das KI-Modell den genannten Werten entsprechen. Bei entsprechender Konsequenz, bieten sich also KI-Modelle an, die transparent und offen sind. Genau an dieser Stelle wird deutlich, dass das gerade die KI-Modelle sind, die der Definition einer Open Source AI entsprechen – und davon gibt es in der Zwischenzeit viele. Es wundert mich daher nicht, dass die Open Source Community und die United Nations die gleichen Werte teilen.

Es liegt an uns, ob wir uns von den Tech-Giganten weiter in eine immer stärker werdende Abhängigkeit treiben lassen, oder andere Wege gehen – ganz im Sinne einer Digitalen Souveränität. Siehe dazu auch Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften.

Wie geht Indien mit Künstlicher Intelligenz um?

Quelle: https://static.pib.gov.in/WriteReadData/specificdocs/documents/2025/nov/doc2025115685601.pdf

In dem Beitrag Digitale Souveränität: Europa, USA und China im Vergleich wird deutlich, wie unterschiedlich die Herangehensweisen in den USA, in China und in Europa sind, wenn es um Künstliche Intelligenz geht. Darüber hinaus hat auch Japan mit dem Ansatz einer Society 5.0 beschrieben, dass Künstliche Intelligenz dazu dienen soll, die Herausforderungen einer modernen Gesellschaft zu lösen.

Auch das aufstrebende Indien hat nun seine Richtlinien für die gesellschaftliche Nutzung von Künstlicher Intelligenz (AI: Artificial Intelligence) veröffentlicht. Dabei werden gleich zu Beginn folgende 7 Prinzipien genannt:

01 Trust is the Foundation
Without trust, innovation and adoption will stagnate.
02 People First
Human-centric design, human oversight, and human empowerment.
03 Innovation over Restraint
All other things being equal, responsible innovation should be prioritised over cautionary restraint.
04 Fairness & Equity
Promote inclusive development and avoid discrimination.
05 Accountability
Clear allocation of responsibility and enforcement of regulations.
06 Understandable by Design
Provide disclosures and explanations that can be understood by the intended user and regulators.
07 Safety, Resilience & Sustainability
Safe, secure, and robust systems that are able to withstand systemic shocks and are environmentally sustainable.

Source: Ministry of Electronics and Information Technology (2025): India AI Governance Guidelines. Enabling Safe and Trusted AI Innovation (PDF)

Bemerkenswert finde ich, dass an erster Stelle steht, dass Vertrauen die Grundlage für Innovationen bildet. Vertrauen in die Möglichkeiten der Künstlichen Intelligenz kann man meines Erachtens nur durch Transparenz erreichen. Proprietäre KI-Systeme, bei denen unklar ist, wo die Daten herkommen und wie mit (auch eigenen) Daten umgegangen wird, sind unter der genannten Bedingung (Trust) mit Vorsicht zu genießen.

Siehe dazu auch Digitale Souveränität: Open Source KI-Systeme fördern Innovationen für die gesamte Gesellschaft.

Mit proprietärer Künstlicher Intelligenz (KI) kauft man sich auch die Denkwelt der Eigentümer ein

In dem Blogbeitrag Bris, A. (2025): SuperEurope: The Unexpected Hero of the 21st Century hatte ich schon einmal darauf hingewiesen, dass es nicht richtig ist, dass Europa „nur“ reguliert und die USA „nur“ innovativ sind.

In Europa, und gerade in Deutschland, möchten wir, dass der Rechtsstaat weiter existiert und die Gesellschaft nicht nur als Business Case gesehen wird. Der immer größer werdende Einfluss von aktuell Künstlicher Intelligenz auf eine Gesellschaft kann diese überfordern, denn mit jeder Software geht auch eine bestimmte Denkhaltung einher.

Auf solche Entwicklungen macht ein aktueller Kommentar im Handelsblatt aufmerksam. Hier geht es um die Denkwelt des Firmenchefs von Palantir, die man sich mit der Software mit einkauft:

„Palantir passt nicht zum deutschen Rechtsstaat. Das US-Unternehmen mag für Sicherheitsbehörden eine Hilfe sein. Doch die Haltung des Firmenchefs macht die Software zu einem Risiko für die politische Stabilität in Deutschland“ (Kommentar von Dieter Neuerer im Handelsblatt vom 12.12.2025).

Es stellen sich natürlich gleich weitere Fragen, wie z.B.: Stellen die Karten von Google Maps die Realität dar, oder sind „unliebsame“ Gebiete nicht verzeichnet? Enthalten die bekannten proprietäten KI-Modelle (Closed Models) Einschränkungen, die Ergebnisse tendenziell beeinflussen? Siehe dazu auch Künstliche Intelligenz: Würden Sie aus diesem Glas trinken?

Proprietäre Software im Vergleich zu Open Source Software

Quelle: SFLC vom 11.11.2025

Digitale Souveränität fängt damit an, sich von propritärer Software unabhängiger zu machen. Proprietäre Software ist Software, deren Quellcode nicht öffentlich ist, und die Unternehmen gehört (Closed Software). Dazu zählen einerseits die verschiedenen Anwendungen von Microsoft, aber auch die von Google oder ZOHO usw.

Demgegenüber gibt es in der Zwischenzeit leistungsfähige Open Source Software. Die indische Organisation SFLC hat am 11. November eine Übersicht veröffentlicht, die Google Workplace, ZOHO Workplace und Nextcloud Office/ProtonMail/BigBlueButton gegenüberstellt – die Abbildung zeigt einen Ausschnitt aus der Tabelle, die in diesem Beitrag zu finden ist.

„The purpose of this comparison is to assess the different approaches, features, and trade-offs each solution presents and to help organizations make informed decisions based on their operational requirements, technical capabilities, and priorities around privacy, flexibility, and cost“ (ebd.).

Wir nutzen seit einiger Zeit Nextcloud mit seinen verschiedenen Möglichkeiten, inkl. Nextcloud Talk (Videokonferenzen), sodass BigBlueButton nicht separat erforderlich ist.

Darüber hinaus nutzen wir LocalAI über den Nextcloud Assistenten, haben OpenProject integriert und erweitern diese Möglichkeiten mit Langflow und Ollama, um KI-Agenten zu entwickeln.

Alles basiert auf Open Source Software, die auf unseren Servern laufen, sodass auch alle Daten auf unseren Servern bleiben – ganz im Sinne einer stärkeren Digitalen Souveränität.

Digitale Souveränität: Mistral 3 KI-Modell-Familie veröffentlicht

Quelle: https://mistral.ai/news/mistral-3

Digitale Souveränität in Europa lebt auch davon, dass leistungsfähige KI-Modelle verfügbar sind. Es wundert daher nicht, dass die Veröffentlichung von Mistral 3 sehr viel Aufmerksamkeit erhalten hat. Mistral ist die französische Antwort auf die dominierenden KI-Modelle amerikanischer Tech-Konzerne, die nicht offen sind, und enorme Ressourcen benötigen. Wenn es um kleine, offene und ressourcenschonende Modelle geht, so kann die Mistral-Modell-Familie durchaus interessant sein. Alle Modelle sind auf Huggingface verfügbar:

Mistral 3 Large
A state-of-the-art, open-weight, general-purpose multimodal model with a granular Mixture-of-Experts architecture.

Mistral 3
A collection of edge models, with Base, Instruct and Reasoning variants, in 3 different sizes: 3B, 8B and 14B.

Mich interessieren gerade die kleinen, leistungsfähigen Modelle, die eine einfachere technische Infrastruktur benötigen und ressourcenschonend sind. Die offenen Modelle können damit in lokale KI-Anwendungen eingebunden werden. Wir werden Mistral 3 in LocalAI, Ollama und Langflow einbinden und zu testen. Dabei bleiben alle generierten Daten auf unseren Servern – ganz im Sinne einer Digitalen Souveränität.

Künstliche Intelligenz: Die neue Olmo3 Modell-Familie

https://allenai.org/

Auf die Olmo Modell Familie hatte ich diesen Blogbeitrag schon einmal hingewiesen: Mit der Olmo2 Modell-Familie offene Forschung an Sprachmodellen vorantreiben. Es handelt sich dabei um Modelle, die vom Ai2 Institut entwickelt und veröffentlicht werden. Ziel des Instituts ist es, neben der Offenheit der Modelle auch einen Beitrag zur Lösung der gesellschaftlichen Herausforderungen zu leisten. Im November 2025 ist die Olmo3 Modell-Familie veröffentlicht worden:

Olmo 3-Think (7B, 32B)–our flagship open reasoning models for advanced experiments, surfacing intermediate thinking steps.

Olmo 3-Instruct (7B)–tuned for multi-turn chat, tool use, and function/API calling.

Olmo 3-Base (7B, 32B)–strong at code, reading comprehension, and math; our best fully open base models and a versatile foundation for fine-tuning.

Die Modelle sind bei Huggingface frei verfügbar und können in einem Playground getestet werden.

Digitale Souveränität: Open Source KI-Systeme fördern Innovationen für die gesamte Gesellschaft

https://www.robertfreund.de/blog/2024/10/28/open-source-ai-definition-1-0-release-candidate-2-am-21-10-2024-veroeffentlicht/

Die kommerziellen, proprietären KI-Systeme machen den Eindruck, als ob sie die einzigen sind, die Innovationen generieren. In gewisser weise stimmt das auch, wenn man unter Innovationen die Innovationen versteht, die sich diese Unternehmen wünschen. Fast jeden Tag gibt es neue Möglichkeiten, gerade diese KI-Modelle zu nutzen. Dieses Modelle treiben ihre Nutzer vor sich her. Wer nicht alles mitmacht wird der Verlierer sein – so das Credo.

Dabei stehen Trainingsdaten zur Verfügung, die intransparent sind und in manchen Fällen sogar ein Mindset repräsentieren, das Gruppen von Menschen diskriminiert.

Versteht man unter Innovationen allerdings, das Neues für die ganze Gesellschaft generiert wird, um gesellschaftlichen Herausforderungen zu bewältigen, so wird schnell klar, dass das nur geht, wenn Transparenz und Vertrauen in die KI-Systeme vorhanden sind – und genau das bieten Open Source AI – Systeme.

Open-source AI systems encourage innovation and are often a requirement for public funding. On the open extreme of the spectrum, when the underlying code is made freely available, developers around the world can experiment, improve and create new applications. This fosters a collaborative environment where ideas and expertise are readily shared. Some industry leaders argue that this openness is vital to innovation and economic growth. (…) Additionally, open-source models tend to be smaller and more transparent. This transparency can build trust, allow for ethical considerations to be proactively addressed, and support validation and replication because users can examine the inner workings of the AI system, understand its decision-making process and identify potential biases“ (UN 2024)

Siehe dazu auch

Das Kontinuum zwischen Closed Source AI und Open Source AI

Apertus: Schweizer Open Source KI – Modell veröffentlicht

Open Source AI: Kimi K2 Thinking vorgestellt

Open Source AI: OlmoEarth Modell-Familie veröffentlicht

Digitale Souveränität: Verschiedene Open Source AI-Modelle ausprobieren

Open Source AI: Veröffentlichung der ALIA AI Modelle für ca. 600 Millionen Spanisch sprechender Menschen weltweit

Mit Künstlicher Intelligenz zu Innovationen – aber wie?

Wenn es um Innovationen geht, denken viele an bahnbrechende Erfindungen (Inventionen), die dann im Markt umgesetzt, und dadurch zu Innovationen werden.. Da solche Innovationen oft grundlegende Marktstrukturen verändern, werden diese Innovationen mit dem Begriff „disruptiv“ charakterisiert. Siehe dazu auch Disruptive Innovation in der Kritik.

Betrachten wir uns allerdings die Mehrzahl von Innovationen etwas genauer, so entstehen diese hauptsächlich aus der Neukombination von bestehenden Konzepten. Dazu habe ich auch eine entsprechende Quelle gefunden, die das noch einmal unterstreicht.

„New ideas do not come from the ether; they are based on existing concepts. Innovation scholars have long pointed to the importance of recombination of existing ideas. Breakthrough often happen, when people connect distant, seemingly unrelated ideas“ (Mollick 2024).

Bei Innovationsprozessen wurden schon in der Vergangenheit immer mehr digitale Tools eingesetzt. Heute allerdings haben wir mit Künstlicher Intelligenz (GenAI) ganz andere Möglichkeiten, Neukombinationen zu entdecken und diese zu Innovationen werden zu lassen.

Dabei kommt es natürlich darauf an, welche Modelle (Large Language Models, Small Language Models, Closed Sourced Models, Open Weighted Models, Open Source Models) genutzt werden.

Wir favorisieren nicht die GenAI Modelle der bekannten Tech-Unternehmen, sondern offene, transparente und für alle frei zugängige Modelle, um daraus dann Innovationen für Menschen zu generieren.

Wir setzen diese Gedanken auf unseren Servern mit Hilfe geeigneter Open Source Tools und Open Source Modellen um:

LocalAI: Open EuroLLM: Ein Modell Made in Europe – eingebunden in unsere LocalAI

Ollama und Langflow: Ollama: AI Agenten mit verschiedenen Open Source Modellen entwickeln

Dabei bleiben alle Daten auf unseren Servern – ganz im Sinne einer Digitalen Souveränität.

Den Gedanken, dass Künstliche Intelligenz (Cognitive Computing) Innovationen (hier: Open Innovation) unterstützen kann, habe ich schon 2015 auf der Weltkonferenz in Montreal (Kanada) in einer Special Keynote vorgestellt.

Siehe dazu Freund, R. (2016): Cognitive Computing and Managing Complexity in Open Innovation Model. Bellemare, J., Carrier, S., Piller, F. T. (Eds.): Managing Complexity. Proceedings of the 8th World Conference on Mass Customization, Personalization, and Co-Creation (MCPC 2015), Montreal, Canada, October 20th-22th, 2015, pp. 249-262 | Springer

Künstliche Intelligenz für die Menschen

UN (2024): Governing AI For Humanity

Immer mehr Regionen und Länder stellen fest, dass die Entwicklung der Künstlichen Intelligenz – wie alle Innovationen – mindestens zwei Seiten hat. Es gibt einerseits den Nutzen für Menschen, Unternehmen und Gesellschaften und andererseits auch Schwierigkeiten.

Solche Entwicklungen geben immer Anlass, darüber nachzudenken, ob Künstliche Intelligenz so gesteuert werden kann, dass es nicht nur einzelnen Unternehmen zugute kommt, sondern einer ganzen Gesellschaft.

In der Zwischenzeit gibt es sehr viele nationale und regionale Initiativen, die versuchen, einerseits die Entwicklungen von Künstlicher Intelligenz zu fördern, andererseits aber auch Grenzen zu ziehen, deren Überschreitung zu möglichen gesellschaftlichen Schäden führen können.

Die United Nations (UN) ist für so eine Fragestellung prädestiniert, und hat mit der Veröffentlichung UN /2024): Governing AI For Humanity (PDF) eine gute Basis geschaffen, um ausgewogen über das Thema diskutieren zu können.

Aktuell habe ich den Eindruck, dass die Diskussionen über die Entwicklung und Nutzung Künstlicher Intelligenz von den amerikanischen Tech-Konzernen dominiert werden, die ihre wirtschaftlichen Vorteile sehen, die gesellschaftlich negativen Auswirkungen gerne den jeweiligen Ländern überlassen wollen.

Siehe dazu auch Bris, A. (2025): SuperEurope: The Unexpected Hero of the 21st Century und die Erläuterungen zu einer Society 5.0.