Künstliche Intelligenz im Projektmanagement: Ethische Kompetenz für die Projektleitung?

In allen Projekten werden mehr oder weniger oft digitale Tools, bzw. komplette Kollaborationsplattformen eingesetzt. Hinzu kommen jetzt immer stärker die Möglichkeiten der Künstlicher Intelligenz im Projektmanagement (GenAI, KI-Agenten usw.).

Projektverantwortliche stehen dabei vor der Frage, ob sie den KI-Angeboten der großen Tech-Konzerne vertrauen wollen – viele machen das. Immerhin ist es bequem, geht schnell und es gibt auch gute Ergebnisse. Warum sollte man das hinterfragen? Möglicherweise gibt es Gründe.

Es ist schon erstaunlich zu sehen, wie aktuell Mitarbeiter ChatGPT, Gemini usw. mit personenbezogenen Daten (Personalwesen) oder auch unternehmensspezifische Daten (Expertise aus Datenbanken) füttern, um schnelle Ergebnisse zu erzielen – alles ohne zu fragen: Was passiert mit den Daten eigentlich? Siehe dazu auch Künstliche Intelligenz: Würden Sie aus diesem Glas trinken?

Je innovativer ein Unternehmen ist, desto einzigartiger sind seine Daten. Was mit diesen Daten dann passiert, ist relativ unklar. Es wundert daher nicht, dass nur ein kleiner Teil der Unternehmensdaten in den bekannten LLM (Large Language Models) zu finden ist. Siehe dazu Künstliche Intelligenz: 99% der Unternehmensdaten sind (noch) nicht in den Trainingsdaten der LLMs zu finden.

Es stellt sich zwangsläufig die Frage, wie man diesen Umgang mit den eigenen Daten und das dazugehörende Handeln bewertet. An dieser Stelle kommt der Begriff Ethik ins Spiel, denn Ethik befasst sich mit der “Bewertung menschlichen Handelns” (Quelle: Wikipedia). Dazu passt in Verbindung zu KI in Projekten folgende Textpassage:

“In vielen Projektorganisationen wird derzeit intensiv darüber diskutiert, welche Kompetenzen Führungskräfte in einer zunehmend digitalisierten und KI-gestützten Welt benötigen. Technisches Wissen bleibt wichtig – doch ebenso entscheidend wird die Fähigkeit, in komplexen, oft widersprüchlichen Entscheidungssituationen eine ethisch fundierte Haltung einzunehmen. Ethische Kompetenz zeigt sich nicht nur in der Einhaltung von Regeln, sondern vor allem in der Art, wie Projektleitende mit Unsicherheit, Zielkonflikten und Verantwortung umgehen” (Bühler, A. 2025, in Projektmanagement Aktuell 4/2025).

Unsere Idee ist daher, eine immer stärkere eigene Digitale Souveränität – auch bei KI-Modellen. Nextcloud, LocalAI, Ollama und Langflow auf unseren Servern ermöglichen es uns, geeigneter KI-Modelle zu nutzen, wobei alle generierten Daten auf unseren Servern bleiben. Die verschiedenen KI-Modelle können farbig im Sinne einer Ethical AI bewertet werden::

Quelle: https://nextcloud.com/de/blog/nextcloud-ethical-ai-rating/

Digitale Souveränität: Mit Langflow einen einfachen Flow mit Drag & Drop erstellen

Eigener Screenshot vom Langflow-Arbeitsbereich, inkl. der Navigation auf der linken Seite

Langflow haben wir als Open Source Anwendung auf unseren Servern installiert. Mit Langflow ist es möglich, Flows und Agenten zu erstellen – und zwar einfach mit Drag&Drop. Na ja, auch wenn es eine gute Dokumentation und viele Videos zu Langflow gibt, steckt der “Teufel wie immer im Detail”.

Wenn man mit Langflow startet ist es erst einmal gut, die Beispiele aus den Dokumentationen nachzuvollziehen. Ich habe also zunächst damit begonnen, einen Flow zu erstellen. Der Flow unterscheidet sich von Agenten, auf die ich in den nächsten Wochen ausführlicher eingehen werde.

Wie in der Abbildung zu sehen ist, gibt es einen Inputbereich, das Large Language Model (LLM) oder auch ein kleineres Modell, ein Small Language Model (SLM). Standardmäßig sind die Beispiele von Langflow darauf ausgerichtet, dass man OpenAI mit einem entsprechenden API-Key verwendet. Den haben wir zu Vergleichszwecken zwar, doch ist es unser Ziel, alles mit Open Source abzubilden – und OpenAI mit ChatGPT (und andere) sind eben kein Open Source AI.

Um das zu erreichen, haben wir Ollama auf unseren Servern installiert. In der Abbildung oben ist das entsprechende Feld im Arbeitsbereich zu sehe,n. Meine lokale Adresse für die in Ollama hinterlegten Modelle ist rot umrandet unkenntlich gemacht. Unter “Model Name” können wir verschiedene Modelle auswählen. In dem Beispiel ist es custom-llama.3.2:3B. Sobald Input, Modell und Output verbunden sind, kann im Playground (Botton oben rechts) geprüft werden, ob alles funktioniert. Das Ergebnis sieht so aus:

Screenshot vom Playground: Ergebnis eines einfachen Flows in Langflow

Es kam mir jetzt nicht darauf an, komplizierte oder komplexe Fragen zu klären, sondern überhaupt zu testen, ob der einfache Flow funktioniert. Siehe da: Es hat geklappt!

Alle Anwendungen (Ollama und Langflow) sind Open Source und auf unseren Servern installiert. Alle Daten bleiben auf unseren Servern. Wieder ein Schritt auf dem Weg zur Digitalen Souveränität.

Lernkultur und organisatorische Leistungsfähigkeit hängen zusammen

Image by Ronald Carreño from Pixabay

Lernen wird immer noch zu sehr Schulen, Universitäten oder der beruflichen Weiterbildung zugeordnet. Man tut gerade so, als ob man außerhalb dieser Institutionen nicht lernen würde. In Abwandlung des Zitats “Man kann nicht nicht kommunizieren” des Kommunikationswissenschaftlers Paul Watzlawick kann man auch formulieren:

Man kann nicht nicht lernen“.

Gerade in Zeiten tiefgreifender Veränderungen kommt dem Lernen, z.B. in der Arbeitswelt, eine besondere Bedeutung zu. Lernen kann als eine Veränderung des Verhaltens eines Individuums durch Erfahrung und Training (vgl. E. A. Gates) gesehen werden. Solche Veränderungen in der Arbeitswelt hängen mit der Lernkultur zusammen. Siehe dazu auch Was hat der Wandel am Arbeitsplatz mit Lernkultur zu tun?

Dabei werden Kulturen oft in Bildern/Metaphern deutlich. Beispielsweise werden in traditionellen Arbeits- und Lernkulturen oft Zahnräder verwendet, wenn es um die Zusammenarbeit geht. In moderneren Organisationen würden eher verwobene Netze als Bild verwendet – was wiederum Auswirkungen auf das dazugehörende Lernen hat.

“Kulturen sind in undurchschaubarer Weise verwobene Netze von Handlungen, Gegenständen, Bedeutungen, Haltungen und Annahmen. Und eben keine mechanischen Uhrwerke, bei denen voraussehbar ist, welche Veränderung sich ergibt, wenn man bei einem Zahnrad die Anzahl der Zähne vergrößert oder verkleinert” (Meier 2022).

Eine moderne Lernkultur hat dann auch Auswirkungen auf die organisatorische Leistungsfähigkeit. Dieser Zusammenhang wurde schon vor mehr als 20 Jahren aufgezeigt:

“Daher überrascht es nicht, dass im Kontext von tiefgreifenden Veränderungen in der Arbeitswelt Lernkultur zu einem Thema wird (Foelsing und Schmitz 2021) und dass empirische Studien einen Zusammenhang von Lernkultur und organisationaler Leistungs- fähigkeit aufzeigen (McHargue 2003; Ellinger et al. 2003” (Meier 2022).

Siehe dazu auch Wie hängen Immaterielle Werte, Lernkultur, Kompetenzentwicklung und Organisationales Lernen zusammen?

Es wundert mich daher immer noch, dass Führungskräfte in Organisationen oftmals nichts (oder sehr wenig) über das Lernen von einzelnen Mitarbeitern, Teams, der gesamten Organisation und in Netzwerken wissen. Gerade in Zeiten von Künstlicher Intelligenz kommt dem schnellen, selbstorganisierten Lernen eine Schlüsselrolle bei den erforderlichen Transformationsprozessen zu.

Digitale Souveränität: Verschiedene Open Source AI-Modelle ausprobieren

Screenshot AI2 Playground

AI2 ist eine Non-Profit Organisation, die Künstliche Intelligenz für die vielfältigen gesellschaftlichen Herausforderungen entwickelt. Das 2014 in Seattle gegründete Institut stellt dabei auch verschiedene Open Source KI-Modelle zur Verfügung – u.a. auch OLMo2.

“OLMo 2 is a family of fully-open language models, developed start-to-finish with open and accessible training data, open-source training code, reproducible training recipes, transparent evaluations, intermediate checkpoints, and more” (Quelle).

Wenn man die von AI2 veröffentlichten KI-Modelle einmal testen möchte, kann man das nun in einem dafür eingerichteten Playground machen. Wie in der Abbildung zu erkennen, können Sie einzelne Modelle auswählen, und mit einem Prompt testen. Der direkte Vergleich der Ergebnisse zeigt Ihnen, wie sich die Modelle voneinander unterscheiden.

Siehe dazu auch Künstliche Intelligenz: Mit der OLMo2 Modell-Familie offene Forschung an Sprachmodellen vorantreiben.

Open EuroLLM: Ein Modell Made in Europe – eingebunden in unsere LocalAI

Eigener Screenshot: Installation von Open Euro LLM 9B Instruct in unserer LocalAI

Es ist schon erstaunlich, wie dynamisch sich länderspezifische (Polen, Spanien, Schweden usw.) Large Language Models (LLMs) und europäische LLMs entwickeln. In 2024 wurde Teuken 7B veröffentlicht, über das wir in unserem Blog auch berichtet hatten. Siehe dazu Open Source AI-Models for Europe: Teuken 7B – Training on >50% non English Data. Weiterhin haben wir damals auch schon Teuken 7B in unsere LocalAI integriert.

Nun also Open EuroLLM, ein Large language Model made in Europe built to support all official 24 EU languages. Die generierten Modelle sind Multimodal, Open Source, High Performance und eben Multilingual. Interessant dabei ist, dass damit Innovation angestoßen werden sollen.

Das große Modell eurollm-9b-instruct haben wir in unserer LocalAI installiert. Die Abbildung zeigt den Installationsprozess. Ich bin sehr gespannt darauf, wie sich das Modell in unserer LocalAI im Vergleich zu anderen Modellen schlägt. Möglicherweise werden wir auch noch einmal das kleine Modell 1.7B installieren, das auf Huggingface verfügbar ist.

Alle Modelle, die wir in unserer LocalAI installieren, können wir auch je nach Anwendung in unserer Nextcloud über den Nextcloud Assistenten und der Funktion “Chat mit KI” nutzen. Dabei bleiben alle generierten Daten auf unserem Server – ganz im Sinne einer Digitalen Souveränität.

Digitale Souveränität: Nextcloud Version 32 (Hub 25) – no data leaks to third parties

Landingpage zur Version 32 (Hub 25) auf Nextcloud

Zur Digitalen Souveränität und zu Nextcloud habe ich in unserem Blog schon mehrfach, auch in Verbindung mit Künstlicher Intelligenz und KI-Agenten, geschrieben. Siehe meine verschiedenen Blogbeiträge dazu.

An dieser Stelle möchte ich daher nur auf die am 27.09.2025 veröffentlichte neue Nextcloud Version 32 (Hub 25) hinweisen. Es ist erstaunlich, welche dynamische Entwicklung diese Open Source Kollaborations-Plattform in den letzten Jahren verzeichnen kann. Immerhin bietet Nextcloud neben Alternativen zu den üblichen Office-Anwendungen, auch Nextcloud Talk (MS Teams Ersatz), ein Whiteboard, Nextcloud Flow (Abläufe optimieren), auch eine Integration mit Open Project an.

Mit dem Upgrade auf Nextcloud 32 wird auch der Nextcloud Assistent verbessert. Mit Hilfe verschiedener Features wie Chat mit KI usw. wird der Assistent zu einem persönlichen Agenten, der unterschiedliche Abläufe übernehmen kann.

Über die Verbindung zu LocalAI können die verschiedenen Möglichkeiten mt einem KI-Modell – oder mit verschiedenen KI-Modellen – verknüpft werden, sodass alle generierten Daten auf unserem Server bleiben. Ein in der heutigen Zeit unschätzbarer Vorteil, wodurch der Nextcloud Assistent in diesem Sinne ein Alleinstellungsmerkmal aufweist – ganz im Sinne einer Digitalen Souveränität.

Wir werden in Kürze auf die Version 32 (Hub 25) upgraden, und die neuen Features testen. In diesem Blog werde ich in den kommenden Woche darüber schreiben.

Global Innovation Index 2025: Deutschland nicht mehr in den TOP 10

Quelle: Global Innovation Index 2025

Der aktuelle Global Innovation Index 2025 zeigt, dass Deutschland im Ranking nicht mehr zu den TOP 10 zählt (Abbildung). Im internationalen Vergleich rutscht Deutschland etwas ab. Im Global Innovation Index 2017 war Deutschland im Vergleich zu 2016 einen Platz nach oben gerutscht, und belegte immerhin Platz 9.

Schon 2010 hatte ich in einem Blogbeitrag etwas zynisch angemerkt, dass wir in Deutschland mehr Innovationspreise als wirkliche Innovationen haben.

Vergleichen wir uns in Deutschland mit anderen Ländern in der EU, oder mit den eigenen Innovations-Kennzahlen der vergangenen Jahre, sieht es dagegen immer noch recht gut aus. Es ist halt immer die Frage, welche Zahlen ich heranziehe, um die Innovationskraft eines Landes zu bewerten. Es ist eben – frei nach Einstein – alles relativ.

Ein wichtiges Kriterium in unseren Regionen ist das Europäische Paradox. Gemeint ist, dass wir in Europa recht viel Geld in die Forschung stecken, doch im Verhältnis dazu recht wenige Innovationen generieren. Siehe dazu Produkte und Dienstleistungen als Mehrwert für Kunden: Warum funktioniert das einfach nicht?

Doch was können wir tun, um diese Entwicklung zu korrigieren?

In Zeiten von Künstlicher Intelligenz beispielsweise sollte es darum gehen, die bisher nicht erfüllten Bedürfnisse von Menschen endlich in den Mittelpunkt zu stellen, und geeignete Produkte und Dienstleistungen auf den Markt zu bringen.

“There is still an invisible hand behind supply-side reform. Adam Smith argued that the invisible hand that drives markets is capital, while the invisible hand of supply that drives innovation is demand. Generally speaking, the “inconvenience” in the daily life of the people can be used as the traction of technological development. In the AI technology market, enterprises that see fundamental needs can have a large number of applications for their products” (Wu 2025).

UNESCO (2025): AI and the future of education

Ausschnitt von der Titelseite

Es ist deutlich zu erkennen, dass die Entwicklungen im Bereich der Künstlichen Intelligenz Auswirkungen auf den Bildungssektor haben. Die Frage ist nur, ob die sich daraus entstehenden Fragen nur aus der Perspektive von Tech-Unternehmen beantwortet werden sollten. Es ist meines Erachtens in diesem Zusammenhang gut, dass sich die UNESCO diesem Thema ausgewogen und unter einer globalen Perspektive angenommen hat.

UNESCO (2025): AI and the future of education. Disruptions, dilemmas and directions | LINK

Gleich im einleitenden Summary weist die UNESCO darauf hin, dass ein Drittel der Weltbevölkerung offline ist. Das wiederum hat Auswirkungen darauf, welches Wissen, welche Werte und welche Sprachen in den KI-Systemen, und somit auch in der KI-unterstützten Bildung, dominieren.

“Artificial intelligence (AI) is reshaping the way we learn, teach and make sense of the world around us, but it is doing so unequally. While one-third of humanity remains offline, access to the most cutting-edge AI models is reserved for those with subscriptions, infrastructure and linguistic advantage. These disparities not only restrict who can use AI, but also determine whose knowledge, values and languages dominate the systems that increasingly influence education. This anthology explores the philosophical, ethical and pedagogical dilemmas posed by disruptive influence of AI in education” (UNESCO 2025).

KI-Modelle: Von “One Size Fits All” über Variantenvielfalt in die Komplexitätsfalle?

In letzter Zeit gibt es immer mehr Meldungen, dass der Einsatz von Künstlicher Intelligenz in allen gesellschaftlichen Bereichen steigt. Doch nicht immer sind KI-Projekte erfolgreich und werden daher eingestellt – was bei neuen Technologien ja nicht ungewöhnlich ist. Siehe dazu beispielsweise Künstliche Intelligenz: 40% der Projekte zu Agentic AI werden wohl bis Ende 2027 eingestellt (Gartner).

Dennoch ist deutlich zu erkennen, dass es immer mehr Anbieter in allen möglichen Segmenten von Künstlicher Intelligenz – auch bei den Language Models – gibt. Wenn man sich alleine die Vielzahl der Modelle bei Hugging Face ansieht: Heute, am17.09.2025, stehen dort 2,092,823 Modelle zur Auswahl, und es werden jede Minute mehr. Das erinnert mich an die Diskussionen auf den verschiedenen (Welt-) Konferenzen zu Mass Customization and Personalization. Warum?

Large Language Models (LLM): One Size Fits All
Wenn es um die bei der Anwendung von Künstlicher Intelligenz (GenAI) verwendeten Trainingsmodellen geht, stellt sich oft die Frage, ob ein großes Modell (LLM: Large Language Model) für alles geeignet ist – ganz im Sinne von “One size fits all”. Diese Einschätzung wird natürlich von den Tech-Unternehmen vertreten, die aktuell mit ihren Closed Source Models das große Geschäft machen, und auch für die Zukunft wittern. Die Argumentation ist, dass es nur eine Frage der Zeit ist, bis das jeweilige Large Language Model die noch fehlenden Features bereitstellt – bis hin zur großen Vision AGI: Artificial General Intelligence. Storytelling eben…

Small Language Models (SLM): Variantenvielfalt
In der Zwischenzeit wird immer klarer, dass kleine Modelle (SLM) viel ressourcenschonender, in speziellen Bereichen genauer, und auch wirtschaftlicher sein können. Siehe dazu Künstliche Intelligenz: Vorteile von Small Language Models (SLMs) und Muddu Sudhakar (2024): Small Language Models (SLMs): The Next Frontier for the Enterprise, ForbesLINK.

Komplexitätsfalle
Es wird deutlich, dass es nicht darum geht, noch mehr Möglichkeiten zu schaffen, sondern ein KI-System für eine Organisation passgenau zu etablieren und weiterzuentwickeln. Dabei sind erste Schritte schon zu erkennen: Beispielsweise werden AI-Router vorgeschlagen, die verschiedene Modelle kombinieren – ganz im Sinne eines sehr einfachen Konfigurators. Siehe dazu Künstliche Intelligenz: Mit einem AI Router verschiedene Modelle kombinieren.

Mit Hilfe eines KI-Konfigurators könnte man sich der Komplexitätsfalle entziehen. Ein Konfigurator in einem definierten Lösungsraum (Fixed Solution Space) ist eben das zentrale Element von Mass Customization and Personalization.

Die Lösung könnte also sein, massenhaft individualisierte KI-Modelle und KI-Agents dezentralisiert für die Allgemeinheit zu schaffen. Am besten natürlich alles auf Open Source Basis – Open Source AI – und für alle in Repositories frei verfügbar. Auch dazu gibt es schon erste Ansätze, die sehr interessant sind. Siehe dazu beispielsweise (Mass) Personalized AI Agents für dezentralisierte KI-Modelle.

Genau diese Überlegungen erinnern – wie oben schon angedeutet – an die Hybride Wettbewerbsstrategie Mass Customization and Personalization. Die Entgrenzung des definierten Lösungsraum (Fixed Solution Space) hat dann weiter zu Open Innovation (Chesbrough und Eric von Hippel) geführt.

Barbara Geyer: Künstliche Intelligenz und Lernen

Barbara Geyer in diesem LinkedIn-Beitrag (August 2025)

In dem LinkedIn-Beitrag von Barbara Geyer (Hochschule Burgenland) erläutert die Autorin die Abbildung zu KI und Lernen noch etwas genauer. Es ist farblich gut zu erkennen, in welchen Bereichen Künstliche Intelligenz viel helfen kann (grün), begrenzt helfen kann (orange) und nicht helfen kann (rot). Dabei orientiert sich die Autorin an dem Helmke-Modell, einem Angebot-Nutzungs-Modell, und leitet die folgende zentrale Botschaft ab:

KI revolutioniert das ANGEBOT (Materialien, Tests, Feedback) aber LERNEN SELBST bleibt menschlich (Denken, Verstehen, Motivation).

In den Kommentaren zu dem LinkedIn-Beitrag gibt es viel Zustimmung, doch auch kritische Stimmen, die die Möglichkeiten Künstlicher Intelligenz in Lernprozessen hier eher unterschätzt sehen.

Ich finde diese Grafik zunächst einmal gut, da sie dazu anregt, darüber nachzudenken, was wir unter Lernen, bzw. unter menschlichem Lernen, verstehen, und wie wir damit umgehen wollen. Hinzu kommt dann noch die Einordnung Künstlicher Intelligenz als eine weitere Quelle zur Ermöglichung von Lernen – ganz im Sinne einer Ermöglichungsdidaktik. Siehe dazu auch Ist Wissenstransfer in ihrer Organisation wichtig? Wenn ja: Befassen Sie sich mit Erwachsenenbildung!