Entgrenzung des Project Management Office (PMO)

In unserem Blog habe ich schon oft über das Project Management Office (PMO) geschrieben. Es ging und geht dabei oft um eine eher interne Sicht auf diese Form viele Projekte im Unternehmen zu unterstützen. Es wundert daher nicht, dass in dem Artikel Braun et al. (2024): Die Entfesselung des Project Management Office?, in projektmanagementaktuell 4/2024 vorgeschlagen wird, verschiedene Typen zu unterscheiden. Ich kann an dieser Stelle nur Auszüge darstellen:

Typ 1 Vollständig intern: Das PMO agiert vollständig innerhalb der eigenen Organisationsgrenzen und beschäftigt sich ausschließlich mit den Projekten im eigenen Betrieb.

Typ 2 Vorsichtige Experimente: Das PMO handelt exklusiv im Auftrag einer einzelnen Organisation, erkennt jedoch das Potenzial, den Schritt über die eigene Grenze hinauszuwagen.

Typ 3 PMO mit einzelnen organisationsübergreifenden Aktivitäten: Das PMO ist weiterhin innerhalb einer Organisation angesiedelt, fördert und standardisiert jedoch vermehrt Kooperation und interorganisationalen Austausch.

Typ 4 Interorganisationales PMO: Das PMO ist keiner einzelnen Organisation vollständig zugeordnet, es setzt sich zusammen aus Akteuren verschiedener Organisationen.

Die Autoren weisen darauf hin, dass diese Typisierung keine Rangfolge angibt. Weiterhin habe ich in meiner Überschrift zu diesem Blogbeitrag den im Artikel verwendeten Begriff der “Entfesselung” bewusst durch “Entgrenzung” ersetzt. Der Grund sit, dass der Begriff der “Entgrenzung” eine bessere Passung zur Reflexiven Modernisierung hat.

Siehe zum Thema “PMO” auch:

Wie grenzen sich Project Management Office (PMO) und Project Office (PO) voneinander ab?,

Projektmanagement-Office (PMO): Neue Aufgaben durch Künstliche Intelligenz (KI)

Projektmanagement Office (PMO): Organisatorische Einbindung und inhaltliche Möglichkeiten

Mögliche Aufgaben des Project Management Office (PMO)

Das PMO als agiles Kompetenzzentrum?

Solche Zusammenhänge thematisieren wir auch in den von uns entwickelten Blended Learning Lehrgängen, die wir an verschiedenen Standorten anbieten. Weitere Informationen zu den Lehrgängen und zu Terminen finden Sie auf unserer Lernplattform.

Spirituelle Kompetenz – ohne esoterisch zu werden

mage by StockSnap from Pixabay

Heute geht es oft um die täglich zu bewältigenden Aufgaben, die immer komplexer werden. Darüber hinaus geht es allerdings auch um die “großen Fragen”, wie die zur menschlichen Entwicklung, zu ethischen Herausforderungen usw. Diese Themen sind oft “weit weg” von der täglichen Praxis und auch schwer fassbar,. Dennoch ist es wichtig, sich mit den “großen Fragen” zu befassen, und ein für sich angemessenes Handeln daraus abzuleiten. Diese Form der Kompetenz ist Bestandteil einer Selbstkompetenz, die als Spirituelle Kompetenz bezeichnet werden kann.

Spirituelle Kompetenz, diese im Kontext der realistischen Wenden beinahe in Vergessenheit geratene und in die Esoterik abgedrängte Dimension der Selbstkompetenz, ist der eigentliche Kern jeglicher Persönlichkeitsbildung. Die „innere Entwicklung“ der Lernenden transformiert die Wertvorstellungen und ethischen Maßstäbe sowie Möglichkeiten ihres Handelns. In Ihnen wird sichtbar, welche besondere Bedeutung die Lernenden mit ihrem Leben ausdrücken wollen. Spirituelle Kompetenz ist die Fähigkeit, sich selbst und die Welt im Bewusstsein der „großen Fragen“ zu deuten und entsprechend zu handeln (vgl. Astin/Astin/Lindholm 2011).” (Arnold 2017).

Interessant ist darüber hinaus, dass es in der Multiple Intelligenzen Theorie von Howard Gardner auch die Spirituelle Intelligenz gibt. In dem Zusammenhang ist es wichtig, Ähnlichkeiten und Unterschiede der verschiedenen Begriffe herauszustellen. Siehe dazu auch

Kompetenz und Intelligenz – eine Gegenüberstellung

Anmerkungen zu Growth Mindset, Intelligenz und Kompetenz

Kompetenzen, Regeln, Intelligenz, Werte und Normen – Wie passt das alles zusammen?

Business Agility und Organizational Agility

Top view of multiracial young creative people in modern office. Group of young business people are working together with laptop, tablet, smart phone, notebook. Successful hipster team in coworking. Freelancers.

Es ist in der Zwischenzeit unstrittig, dass sich Organisationen an das veränderte Umfeld dynamisch anpassen müssen. Wenn es um Strukturen, Prozesse und Technologien geht, wird das oft als Business Agility bezeichnet.

Eine Organizational Agility oder Systemic Agility geht darüber hinaus. Hier steht “(…) ein menschenzentrierter Ansatz im Mittelpunkt, der die Selbstorganisation der Mitarbeitenden und Teams fördert” (Tuczek et al. 2024, in projektmanagementaktuell 04/2024).

“Das Wachstum der Organisation basiert auf dem Wachstum der Individuen in der Organisation und der Entwicklung einer „Kollektiven Intelligenz“. Zukünftig wird auch die Künstliche Intelligenz Teil dieser Collective Intelligence werden und neue Potenziale eröffnen” (Tuczek et al. 2024, in projektmanagementaktuell 04/2024).

Interessant ist hier der Hinweis auf die Selbstorganisation der Mitarbeitenden und Teams, die aus meiner Sicht noch auf die Ebenen Organisation und Netzwerk erweitert werden müsste. Weiterhin wird der Begriff der “Kollektive Intelligenz” in diesem Zusammenhang verwendet, allerdings ohne zu erwähnen, was darunter gerade im Zusammenspiel zwischen einer Menschlichen Intelligenz und einer Künstlicher Intelligenz gemeint ist.

In meiner Veröffentlichung Freund, R. (2011): Das Konzept der Multiplen Kompetenz auf den Analyseebenen Individuum, Gruppe, Organisation und Netzwerk bin ich solchen Fragen auf Basis der Multiple Intelligenzen Theorie nachgegangen.

Siehe dazu auch Freund, R. (2016): Cognitive Computing and Managing Complexity in Open Innovation Model. Bellemare, J., Carrier, S., Piller, F. T. (Eds.): Managing Complexity. Proceedings of the 8th World Conference on Mass Customization, Personalization, and Co-Creation (MCPC 2015), Montreal, Canada, October 20th-22th, 2015, pp. 249-262 | Springer

Wissenskompetenz als die eigentliche Schlüsselfähigkeit der modernen Wissensgesellschaften?

Der neue Wissensbegriff deutet an, dass viele verschiedene Wissensfragmente zusammengeführt, und kontextspezifisch (domänenspezifisch) bewertet werden müssen. Diese Kompetenz – verstanden als Selbstorganisationsdisposition (Erpenbeck/Heyse 2007 und Erpenbeck/von Rosenstiel 2007) – kann als Wissenskompetenz bezeichnet werden.

Wissenskompetenz schließlich umfasst die Fähigkeiten zur Recherche und Auswertung (Prüfung und Beurteilung) sowie zum Management, zur Einordnung und zum Mitteilen von Wissen und Informationen. Erst wer über diese Kompetenz verfügt, kann sich sicher und selbstlernend durch den Dschungel der Informationsflut und der sich beständig verändernden Wissensstände (insbesondere in der eigenen Domäne) bewegen. Die Wissenskompetenz kann als die eigentliche Schlüsselfähigkeit der modernen Wissensgesellschaften mit ihren sich extrem verkürzenden Halbwertzeiten des Wissens angesehen werden (vgl. Arbesman 2012)” (Arnold 2017:116).

In der Zwischenzeit zeigen uns die Möglichkeiten der Künstlichen Intelligenz, dass viele Arbeiten von entsprechenden Apps übernommen werden können. Die sozialen Dimensionen in der jeweiligen beruflichen Domäne mit ihren Vernetzungen und emotionalen Zuständen müssen von Menschen zusätzlich mit beachtet. und somit mit bewertet werden.

Nicht nur auf der individuellen Ebene (Mensch) spielt das eine Rolle. Hinzu kommen noch die Ebenen Gruppe (Team), Organisation und Netzwerk. Siehe dazu auch Kompetenzmanagement.

OpenAI Model “o1” hat einen IQ von 120 – ein Kategorienfehler?

Lott, M. (2024): Massive breakthrough in AI intelligence: OpenAI passes IQ 120

Wenn wir von Intelligenz sprechen geht es oft um den Intelligenz-Quotienten (IQ) bei Menschen, dessen Ergebnisse in einer Normalverteilung dargestellt werden. Der Wert für den IQ kann dabei aus unterschiedlichen Testverfahren bestimmt werden. Der Mensa Norway IQ-Test ist dafür ein Beispiel.

Maxim Lott hat die dort gestellten Fragen von verschiedenen KI-Anwendungen beantworten lassen. Das Ergebnis ist in der Abbildung zusehen. Das neu vorgestellte Modell “o1” von OpenAI schneidet hier mit 120 Punkten am besten ab. Was bedeutet das?

Da in den IQ-Tests oftmals eher logisch-mathematische Attribute abgefragt werden, ist das Ergebnis wenig überraschend. Es stellt sich aus meiner Sicht eher die Frage, ob der Intelligenz-Quotient (IQ) mit seinen in den letzten über 100 Jahren entwickelten Messverfahren geeignet ist, menschliche Intelligenz abzubilden.

Wird das Verständnis von Intelligenz erweitert (entgrenzt), so kommen Dimensionen wie Emotionale Intelligenz, Soziale Intelligenz usw. hinzu, die von einer KI-App nicht, oder nur bedingt abgebildet werden können.

Aus meiner Sicht bedeutet das Ergebnis (Siehe Abbildung) also nicht, dass Künstliche Intelligenz genau so intelligent – oder intelligenter – als ein Mensch ist, sondern dass das zugrundeliegende Intelligenz-Konstrukt (IQ) möglicherweise nicht passt. In der von Howard Gardner vorgeschlagenen Theorie der Multiplen Intelligenzen ist Intelligenz beispielsweise wie folgt beschrieben:

„Ich verstehe eine Intelligenz als biopsychologisches Potenzial zur Verarbeitung von Informationen, das in einem kulturellen Umfeld aktiviert werden kann, um Probleme zu lösen oder geistige oder materielle Güter zu schaffen, die in einer Kultur hohe Wertschätzung genießen“ (Gardner 2002:46-47).

Der Hinweis auf ein “biopsychologisches Potenzial” deutet schon an, dass es für Howard Gardner bei dem Begriff “Intelligenz” für menschliche Intelligenz verwendet. Den Begriff “Künstliche Intelligenz” sieht Howard Gardner daher als Kategorienfehler. Siehe dazu auch Multiple Intelligenzen nach Howard Gardner: Ist eine Intelligenz der anderen überlegen?

Künstliche Intelligenz im Projektmanagement – eine Definition

Künstliche Intelligenz und die damit verfügbaren Anwendungen werden unsere Gesellschaft und unsere Arbeit beeinflussen und teilweise massiv verändern. Es ist daher sinnvoll, die Künstlicher Intelligenz in der jeweiligen beruflichen Domäne genauer zu beschreiben. Folgende “Definition” habe ich zu Künstlicher Intelligenz im Projektmanagement gefunden:

Künstliche Intelligenz im Projektmanagement bezieht sich auf den Einsatz von Algorithmen und maschinellem Lernen, um Projekte effizienter zu planen, zu überwachen und zu steuern. Sie ermöglicht, aus vergangenen Projektverläufen und -daten zu lernen, Risiken frühzeitig zu erkennen, Ressourcen besser zu verteilen, Prozesse zu automatisieren und fundierte Entscheidungen zu treffen. KI kann dazu beitragen, die Produktivität zu steigern, die Qualität der Ergebnisse zu verbessern und Projekte erfolgreicher abzuschließen“ (Bialas, M. (2024), in Bernert et al. (Hrsg.) (2014): KI im Projektmanagement).

Diese Beschreibung ist sehr stark auf die klassischen, methodischen Elemente des Projektmanagements fokussiert, und stellt die durch den Einsatz von Künstlicher Intelligenz möglichen Effizienzvorteile heraus.

Aus meiner Sicht ist das etwas zu kurz gegriffen, da Künstliche Intelligenz durchaus auch soziale Dimensionen der Projektarbeit unterstützen kann. Siehe dazu auch

Mensch und Künstliche Intelligenz: Engineering bottlenecks und die fehlende Mitte

Projektmanagement: KI-Unterstützung der ICB 4.0 Kompetenzen

Projektmanagement-Office (PMO): Neue Aufgaben durch Künstliche Intelligenz (KI)

Menschliche Intelligenz und Künstliche Intelligenz: ein Idealszenario der Arbeitsteilung.

Solche Zusammenhänge thematisieren wir auch in den von uns entwickelten Blended Learning Lehrgängen Projektmanager/in (IHK) und Projektmanager/in AGIL (IHK). Informationen dazu, und zu aktuellen Terminen, finden Sie auf unserer Lernplattform.

Künstliche Intelligenz: Warum sollten Forscher besser offene Large Language Models (LLM) nutzen?

Usage of large language models (LLMs) in behavioral and social sciences research (Wulff/Hussain/Mata 2024). Die Hervorhebung in Rot ist von mir (Robert Freund) ergänzt worden.

Natürlich verwenden immer mehr Wissenschaftler Künstlichen Intelligenz in ihrer Arbeit. Wie die Grafik zeigt, wird ChatGPT beispielsweise in den Verhaltens- und Sozialwissenschaften sehr stark genutzt. ChatGPT ist allerdings von OpenAI, dessen Large Language Model (LLM) als eher geschlossenes System (Closed LLM) bezeichnet werden kann, da das zugrundeliegende Datenmodell nicht transparent ist. Andere LLM – wie z.B. LLama – sind eher offen LLM (Open LLM), die gerade für Forschung und Wissenschaft geeigneter erscheinen.

In dem aktuellen Paper Wulff/Hussain/Mata (2024): The Behavioral and Social Sciences Need Open LLMs (PDF) argumentieren die Autoren dazu wie folgt:

Academic research should prefer open LLMs because they offer several practical and ethical advantages that are essential for scientific progress.

First, open models provide the transparency necessary for thorough scrutiny, allowing researchers to understand better the tools they are using and ensuring accountability.

Second, this transparency, combined with the adaptability of open models, facilitates innovation by enabling researchers to customize models to meet specific needs and explore new applications (Wulff & Mata, 2024).

Third, open LLMs support reproducibility, a cornerstone of scientific research, by allowing other researchers to replicate and build upon existing work.

Finally, the ethical implications of AI usage are better managed with open models, as they enable greater scrutiny of AI decisions, arguably reduce the risks of deploying biased or unethical systems, and avoid giving away data to further train closed, proprietary models.”

Ich frage mich an dieser Stelle, ob solche Hinweise nicht auch für die Nutzung von Künstlicher Intelligenz in Unternehmen gelten sollten.

Siehe dazu auch Künstliche Intelligenz: Vorteile von Open-Source-Modellen

Top 100 Tools for Learning 2024

Quelle: Tools for Learning

Es ist nicht verwunderlich, dass immer mehr KI-Anwendungen in der Liste der 100 Tools for Learning auftauchen. ChatGPT ist vom 4. auf den 2. Platz vorgerückt und weitere KI-Copilots tauchen in der Liste auf, bzw. rücken auch in den Platzierung vor. Es sieht so aus, als ob immer mehr KI-Anwendungen für Lernprozesse genutzt werden.

Es ist daher für viele an der Zeit, sich mit den Möglichkeiten und Beschränkungen von KI-Anwendungen bei Lernprozessen zu befassen. Am besten geht das in Unternehmen natürlich im Prozess der Arbeit: Kompetenzentwicklung im Prozess der Arbeit.

Erwähnen möchte ich hier, dass mir in der Liste Open-Source-KI-Anwendungen fehlen oder zu kurz kommen. Viele der KI-Anwendungen sind von Microsoft und Google dominiert, auch wenn z.B. ChatGPT von OpenAI ist und suggeriert, dass die Anwendung “Open” ist. Siehe dazu Open Source AI: Nun gibt es endlich eine Definition – und damit interessante Erkenntnisse zu OpenAI und Co. und Künstliche Intelligenz: Vorteile von Open Source Modellen.

Gedanken zur Frage: Warum fällt uns die Zusammenarbeit mit anderen so schwer?

In den letzten mehr als 100 Jahren hat sich die Arbeitsteilung in allen Bereichen der Gesellschaft etabliert. Es stellte sich dabei immer stärker heraus, dass es besser (wirtschaftlicher) ist, komplexe Themen, Prozesse, Produkte zu zerteilen und diese Teilsysteme dann massenhaft effektiv und effizient abzuarbeiten. Das führte zu Skaleneffekte, die kleine Betriebe nicht mehr abbilden konnten.

Es entwickelten sich beispielsweise Produktionsbetriebe, die sich immer weiter spezialisierten. Immer mehr Abteilungen wurden erforderlich, die großen Wert auf das Trennende legten. Jede Abteilung denkt in diesem Umfeld an sich und handelt für sich. Das färbte auch auf die Menschen ab, die fortan mehr an sich als an die Gemeinschaft dachten, und auch heute noch denken. Die Abbildung zeigt die Entwicklung dieser Tayloristischen Arbeitsteilung von Kleinbetrieb bis zum großen Produktionsbetrieb. (Massenproduktion).

Der arbeitsteilige Industriebetrieb (Metzger/Gründler 1994: Zurück auf Spitzenniveau)

Das Trennende wurde allerdings nicht nur in der Produktion umgesetzt, sondern auch in der Politik (Bundesministerien, Ländergrenzen, Grenzen bei den Kommunen) und bei Dienstleistungen. Das gesamte System war darauf ausgerichtet, Standardprodukte und Standarddienstleistungen in großer Zahl effektiv und effizient anzubieten und durchzuführen.

In den letzten Jahrzehnten kam es allerdings global zu immer mehr Vernetzungen von technischen Systemen (Informations- und Kommunikationssystemen), Verkehrswegen (Bahn, Schiff, Flugzeug…), von Personen untereinander, Personen und Dingen, Dingen mit Dingen usw. – das Internet der Dinge ist hier nur ein Schlagwort. Solche Vernetzungen führten zu immer komplexeren Anforderungen an Produkte und Dienstleistungen, die in den etablierten Strukturen kaum noch mit dem nötigen Tempo abgearbeitet werden konnten.

Mit projektorientierter Arbeit über die Grenzen der Abteilungen, und mit der intensiveren Zusammenarbeit mit externen Partnern und Kunden, konnten sich Organisationen auf diese neuen Herausforderungen einstellen (Projekte sind Träger des Wandels). Gesellschaftlich sehen wir diese Adaption in der Politik leider noch nicht. Alle Bürger und Organisationen sollen sich anpassen, die politische Struktur bleibt noch wie sie ist. Dass diese Situation zu Spannungen und Verwerfungen führt, ist offensichtlich.

Darüber hinaus müssen wir alle, die in einer Tayloristischen Arbeitswelt aufgewachsen sind, bzw. auch noch aufwachsen, lernen, wieder mit anderen zusammenzuarbeiten. Der Mensch ist per ein soziales Wesen, das auch an das Wohl anderer Menschen denkt, und entsprechend handelt. Nicht umsonst engagieren sich viele Menschen ehrenamtlich, helfen in der Not anderen Menschen, arbeiten kostenlos in Open-Source-Projekten mit, oder entwickeln frei verfügbare Innovationen, die sie anderen kostenlos zur Verfügung stellen (Open User Innovation).

Durch die Anpassung der Menschen an die Maschinenwelt sind diese Eigenschaften von Menschen etwas “überdeckt” worden. Es wird Zeit, dass diese menschlichen Seiten wieder unser Zusammenleben dominieren.

Vermindert der Einsatz Künstlicher Intelligenz menschliche Fähigkeiten?

Wenn wir ein Navigationssystem nutzen hilft uns das, schnell und bequem unser Ziel zu erreichen. Andererseits vermindert sich dadurch auch die menschliche Fähigkeit, sich zu orientieren. Die Nutzung eines Autos hilft uns, große Strecken zurückzulegen, doch vermindert es auch unsere körperlichen Fähigkeiten. Die Nutzung eines Computers erleichtert uns die Bearbeitung von Zahlenkolonnen, doch reduziert es auch unsere Rechen-Fähigkeiten. Die Nutzung von Suchmaschinen wie Google hat es uns erleichtert, Daten und Informationen schnell zu finden. Manche Fähigkeiten der Recherche und des Prüfens von Daten und Informationen bleiben hier manchmal wegen den schnellen Zyklen der Veränderungen auf der Strecke.

Warum sollten diese Effekte also bei der Nutzung von Künstlicher Intelligenz anders sein?

“Eine grundlegende Erkenntnis besagt, dass jedes technische Hilfsmittel die Fähigkeiten der Kombination «Mensch-Tool» zwar erhöht, jene des Menschen alleine aber potenziell vermindert (every augmentation is also an amputation, frei nach Marshall McLuhan)” (Digital Society Initiative 2023)

Im Kontext der universitären Bildung haben Forscher ermittelt, welche menschlichen Fähigkeiten in Zukunft in einem von KI dominierten Umfeld erhalten und gestärkt werden sollten (vgl. Digital Society Initiative 2023):

Grundlegende technische Fähigkeiten in Bezug auf KI-Technologien.

Sozialisationsfähigkeiten: Soziales Lernen, Einfühlungsvermögen, Resilienz und effektives
Teamwork gefördert werden. Dies bedingt auch ein Verständnis und eine Reflexion über ethische Werte und wissenschaftlichen Ethos.

Kritisches Denken: Kritische Diskurs, das Denken in Modellen und Abstraktionen sowie die Fähigkeit zur multiperspektivischen Kognition und Analyse.

Handeln unter Unsicherheit: Um mit der Geschwindigkeit des technischen Fortschritts (und auch den bekannten globalen Herausforderungen wie z.B. dem Klimawandel) umgehen zu können, sind Fähigkeiten zu fördern, welche das Handeln unter Unsicherheit erleichtern. Unter anderem zu nennen ist hier eine Schulung der Intuition und abstraktes Problemlösen.

Anmerken muss ich an dieser Stelle, dass persönliche Fähigkeiten nicht mit Persönlichkeitseigenschaften gleich gesetzt werden sollten. Siehe dazu auch Über den Umgang mit Ungewissheit. Es geht hier darum, dass gerade der Mensch als soziales und emotionales Wesen komplexe Problemlösungssituationen besser bewältigen kann, als es Technologie vermag. Wie ein Idealszenario der Arbeitsteilung zwischen menschlicher und künstlicher Intelligenz aussehen kann, lesen Sie in diesem Blogbeitrag.