Lokale KI-Anwendungen: Erster Test mit dem Modell Llama 3.2

Screenshot von unserer lokalen KI-Anwendung (LokalKI)

Wie Sie wissen, haben wir auf einem Server die Möglichkeit eingerichtet, KI-Modelle lokal auszuwählen und zu testen, bzw. zu nutzen – LokalKI oder LocalAI. Siehe dazu Free Open Source Software (FOSS): Eigene LocalAI-Instanz mit ersten drei Modellen eingerichtet.

Die verschiedenen Modelle können dazu vorab ausgewählt werden. Für diesen Test habe ich Llama 3.2 ausgewählt, was in der Abbildung zu erkennen ist. Der folgende einfache Prompt wurde im Textfeld (Unten in der Abbildung) von mir eingegeben:

Prompt (Blau hinterlegt): Du bist Projektmanager des Projekts Website. Erstelle eine Übersicht zu möglichen Stakeholder in Tabellenform. Ausgabe in einem Worddokument.

Das Ergebnis (Grün hinterlegt) kann sich durchaus sehen lassen. Die erste Übersicht zu möglichen Stakeholdern könnte genutzt und noch ein wenig angepasst werden.

Die Aufforderung, eine Tabelle in einer Worddatei zu erstellen wurde ignoriert, da das wohl in dieser Modell-Version nicht möglich ist. Das Ergebnis könnte ich natürlich selbst einfach in einer Worddatei kopieren.

Die Antwortzeit war relativ kurz was mich durchaus überrascht hat.

Insgesamt ist das Ergebnis natürlich noch nicht so, wie man das von ChatGPT usw. gewohnt ist, doch hier haben wir den Vorteil, dass alle Daten der KI-Anwendung auf unserem Server bleiben – auch wenn wir z.B. interne Dokumente hochladen.

Free Open Source Software (FOSS): Eigene LocalAI-Instanz mit ersten drei Modellen eingerichtet

Quelle: Eigener Screenshot

In verschiedenen Blogbeiträgen hatte ich darauf hingewiesen, dass es für Organisationen in Zukunft immer wichtiger wird, die digitale Abhängigkeiten von kommerziellen IT-/AI-Anbietern zu reduzieren – auch bei der Anwendung von Künstlicher Intelligenz (AI: Artificial Intelligence), da die Trainingsdatenbanken der verschiedenen Anbieter

(1) nicht transparent sind,
(2) es zu Urheberrechtsverletzungen kommen kann,
(3) und nicht klar ist, was mit den eigenen eingegeben Daten, z.B. über Prompts oder hochgeladenen Dateien, passiert.

Siehe dazu auch Digitale Souveränität: Europa, USA und China im Vergleich. Nicht zuletzt werden die Kosten für die KI-Nutzung immer höher – beispielsweise bei Microsoft und der Nutzung des KI-Assistenten Copilot: KI treibt Microsoft-365-Preise in die Höhe (golem vom 17.01.2025).

Es ist natürlich leicht, darüber zu schreiben und die Dinge anzuprangern, schwieriger ist es, Lösungen aufzuzeigen, die die oben genannten Punkte (1-3) umgehen. Zunächst einmal ist die Basis von einer Lösung Free Open Source Software (FOSS). Eine FOSS-Alternative zu OpenAI, Claude usw. haben wir auf einem Server installiert und die ersten drei Modelle installiert. Was bedeutet das?

Wenn wir in einem Chat einen Prompt (Text, Datei..) eingeben, greift das System auf das ausgewählte Modell (LLM: Large Language Model) zu, wobei die Daten (Eingabe, Verarbeitung, Ausgabe) alle auf unserem Server bleiben.

Wie in der Abbildung zu sehen ist, haben wir neben Llama 3.2 auch Teuken 7B hinterlegt. Gerade Teuken 7B basiert auf einem europäischen Ansatz für eine Trainingsdatenbank (LLM) in 24 Sprachen der Europäischen Union. Siehe dazu Open Source AI-Models for Europe: Teuken 7B – Training on >50% non English Data.

Wir werden diese Modelle in der nächsten Zeit testen und unsere Erkenntnisse in Blogbeiträgen darstellen.

Von der digitalen Abhängigkeit zur digitalen Souveränität

Quelle: Bitkom Pressemitteilung 2025

Seit Jahren und Jahrzehnten begeben wir uns in Deutschland in eine digitale Abhängigkeit, die für viele Menschen, Organisationen und die ganze Gesellschaft nicht gut ist.

Einzelne Personen merken immer mehr, wie digital abhängig sie von Facebook, X (ehemals Twitter), Instagram, WhatsApp, Twitch, TikTok usw. usw. sind. Ähnlich sieht es auch bei Unternehmen aus:

“90 Prozent der Unternehmen sind vom Import digitaler Technologien und Services aus anderen Ländern abhängig, insbesondere aus den USA und China” (Bitkom 2025).

Auch unsere Verwaltungsstrukturen haben sich an diese digitale Abhängigkeit begeben.

Durch diese Entwicklungen fällt es allen schwer, von dieser digitalen Abhängigkeit loszukommen. Ein Verhalten, das Abhängige grundsätzlich haben. Wie wir aus der Theorie der Pfadabhängigkeit wissen, kommt es im Aneignungsprozess z.B. digitaler Anwendungen zu einer Art Lock-in. Es fällt dann allen Beteiligten schwer, aus dem gewohnten Umfeld wieder herauszukommen.

Kann man nichts machen, oder? Doch! Auf europäischer Ebene gibt es seit längerem die Erkenntnis, dass wir in Europa wieder zu einer Digitalen Souveränität kommen müssen.

European Union (2020): Digital sovereignty for Europe (PDF).

Dazu gibt es in der Zwischenzeit viele konkrete Möglichkeiten. Siehe dazu

Sovereign Workplace: Der unabhängige Arbeitsplatz auf integrierter Open Source Basis.

Digitale Souveränität: Europa, USA und China im Vergleich.

Souveränitätsscore: Zoom und BigBlueButton im Vergleich.

Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften.

Buyl et al. (2024): Large Language Models Reflect the Ideology of their Creators

In dem Blogbeitrag Digitale Souveränität: Europa, USA und China im Vergleich wird deutlich gemacht, dass Europa, die USA und China unterschiedliche Ansätze bei dem Thema Digitale Souveränität haben. Diese grundsätzlichen Unterschiede zeigen sich auch in den vielen Large Language Models (Trainingsdatenbanken), die für KI-Anwendungen benötigt werden.

Es wundert daher nicht, dass in dem Paper Buyl et al. (2024): Large Language Models Reflect The Ideology of their Creators folgende Punkte hervorgehoben werden:

“The ideology of an LLM varies with the prompting language.”

In dem Paper geht es um die beiden Sprachen Englisch und Chinesisch für Prompts, bei denen sich bei den Ergebnissen Unterschiede gezeigt haben.

“An LLM’s ideology aligns with the region where it was created.”

Die Region spielt für die LLMs eine wichtige Rolle. China und die USA dominieren hier den Markt.

“Ideologies also vary between western LLMs.”

Doch auch bei den “westlichen LLMs” zeigen sich Unterschiede, die natürlich jeweils Einfluss auf die Ergebnisse haben, und somit auch manipulativ sein können.

Die Studie zeigt wieder einmal, dass es für einzelne Personen, Gruppen, Organisationen oder auch Gesellschaften in Europa wichtig ist, LLMs zu nutzen, die die europäischen Sprachen unterstützen, und deren Trainingsdaten frei zur Verfügung stehen. Das gibt es nicht? Doch das gibt es – siehe dazu

Open Source AI: Nun gibt es endlich eine Definition – und damit interessante Erkenntnisse zu OpenAI und Co.

Open Source AI-Models for Europe: Teuken 7B – Training on >50% non English Data.

Open Source AI: Common Corpus als größte offene Trainingsdatenbank veröffentlicht.

Open Source: Nextcloud-Assistent und Künstliche Intelligenz (KI).

Open Source: Nextcloud-Assistent und Künstliche Intelligenz (KI)

Bei den verschiedenen kommerziellen Anwendungen ist es fast schon Standard, dass Assistenten eingeblendet und angewendet werden, um Künstliche Intelligenz in den jeweiligen Prozess oder Task zu nutzen. Dabei ist immer noch weitgehend unklar, welche Trainingsdaten bei den verschiedenen Trainingsdatenbanken (LLM: Large Language Models) genutzt werden, und was beispielsweise mit den jeweils eigenen Eingaben (Prompts) passiert. Nicht zuletzt werden sich die kommerziellen Anbieter die verschiedenen Angebote mittelfristig auch gut bezahlen lassen.

Es kann daher nützlich sein, Open Source AI zu nutzen.

Praktisch kann das mit NEXTCLOUD und dem darin enthaltenen Nextcloud-Assistenten umgesetzt werden. Jede Funktion (Abbildung) kann man mit einer Traingsdatenbank verbinden, die wirklich transparent und Open Source ist. Solche Trainingsdatenbanken stehen beispielsweise bei Hugging Face zur Verfügung. Darüber hinaus bleiben alle Daten auf dem eigenen Server – ein heute unschätzbarer Wert . Wir werden diesen Weg weitergehen und in Zukunft dazu noch verschiedene Blogbeiträge veröffentlichen. Siehe dazu auch

Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften.

Open Source AI-Models for Europe: Teuken 7B – Training on >50% non English Data.

Open Source AI: Common Corpus als größte offene Trainingsdatenbank veröffentlicht.

Vom Mindmap zu einem KI-Agenten für Wissensmanagement?

 „Wissensmanagement-Mindmap“ von Martin Harnisch, Sonja Kaiser, Dirk Liesch, Florian Schmuhl, Gabriele Vollmar, Sabine Wax, lizenziert unter CC BY 4.0

In einer Arbeitsgruppe der Gesellschaft für Wissensmanagement e.V. (GfWM) wurde 2024 ein umfangreiches Mindmap zu Wissensmanagement erstellt. In der Abbildung ist die Quelle und die Lizenz zur Nutzung genannt.

“Die Wissensmanagement-Mindmap soll einen systematischen Überblick über die wesentlichen Handlungsfelder, Modelle, Methoden und Tools im Bereich des Wissensmanagements geben” (ebd.).

Die Mindmap ist auf der Website der GfWM in verschiedenen Dateiformaten zu finden, die mit Angabe der Quelle genutzt werden können.

Einerseits ist es gut, einen Überblick zu den vielfältigen Themenbereichen des Wissensmanagements zu erhalten. Andererseits weisen die Autoren berechtigt darauf hin, dass dieses Mindmap keinen Anspruch auf Vollständigkeit hat. Wenn da allerdings noch viele weitere “Äste” hinzukommen, wirkt das Mindmap weniger hilfreich und “erschlägt” möglicherweise den Interessenten.

Insofern frage ich mich, ob es nicht besser wäre einen Einstig zu wählen, der sich aus den jeweiligen Situationen, Kontexten, Domänen ergibt. Solche “Ankerpunkte” konkretisieren den Umgang mit Wissen, und führen in einem Bottom-Up-Ansatz zur Entdeckung der vielfältigen Möglichkeiten des Wissensmanagements – speziell abgestimmt auf die einzelne Person, die Gruppe, die Organisation und/oder das Netzwerk.

Umgesetzt werden kann das heute mit KI- Agenten (AI Agents).

IPMA: Initial AI Survey 2024 Report

Initial AI Survey 2024 Report | Authors: Aco Momcilovic Dr. Reinhard Wagner & Dr. Rebeka D. Vlahov | Download the report here.

Es ist unausweichlich, dass sich die bekannten Projektmanagement-Standards des PMI (Project Management Institutes), PRINCE2 und auch IPMA (International Project Management Association) mit Künstlicher Intelligenz im Projektmanagement befassen. Die Gesellschaft für Projektmanagement e.V. orientiert sich an dem IPMA Standard, sodass die aktuelle IPMA-Veröffentlichung zum Thema interessant erscheint: Momcilovic, A.; Wagner, R.; Vlahov, R. D. (2024): Initial AI Survey 2024 Report | PDF. Darin sind die folgenden wichtigsten Erkenntnisse zusammengefasst:

(1) High Interest in AI Tools: Project managers are particularly interested in AI applications for risk management, task automation, and data analysis. These areas are seen as critical for improving project outcomes by reducing uncertainty, streamlining operations, and providing data-driven insights.

(2) Varying Levels of AI Knowledge: While there is significant enthusiasm for AI, there is also a clear knowledge gap. Many project managers feel they lack the understanding and skills needed to fully utilize AI in their work, which remains a major barrier to adoption.

(3) Barriers to Adoption: Key challenges include concerns about data privacy, the cost of AI tools, and uncertainty regarding the return on investment (ROI). Additionally, lack of leadership support and a general resistance to change were cited as obstacles to broader AI integration.

(4) Future Adoption: Despite these barriers, the survey shows an optimistic outlook on AI adoption. A majority of respondents indicated that they are likely to adopt AI tools within the next two years, provided they have access to adequate training, resources, and support

Diese Punkte sind nicht wirklich überraschend und bestätigen nur die generell zu beobachtbare Entwicklung der KI-Nutzung in Organisationen. Bemerkenswert finde ich, dass in dem Report auch hervorgehoben wird, dass ChatGPT und die bekannten KI-Assistenten genutzt werden. Generell halte ich das für bedenklich, da diese Anwendungen mit ihren Trainingsdatenbanken (Large Language Models) intransparent sind, und die Organisation nicht wirklich weiß, was mit den eingegebenen Daten passiert. Auf die mögliche Nutzung von Open Source AI wird in dem IPMA-Report nicht eingegangen – schade.

    Solche Zusammenhänge thematisieren wir auch in den von uns entwickelten Blended Learning Lehrgängen, Projektmanager/in (IHK) und Projektmanager/in Agil (IHK), die wir an verschiedenen Standorten anbieten. Weitere Informationen zu den Lehrgängen und zu Terminen finden Sie auf unserer Lernplattform.

    Projektmanagement und Resilienz

    Speech bubbles, blank boards and signs held by voters with freedom of democracy and opinion. The review, say and voice of people in public news adds good comments to a diverse group.

    Die Zeitschrift projektmanagementaktuell wird in 2025 verschiedene Schwerpunktthemen haben. Darunter ist auch Projektmanagement und Resilienz. In der aktuellen Ausgabe wird darauf wie folgt hingewiesen:

    “Das ökonomische, ökologische und gesellschaftliche Umfeld ist in ständiger Bewegung. Das sorgt bei Projekten für Unsicherheiten und Risiken und für Stress in den Projektteams. Projekte und Projektteams müssen anpassungsfähiger werden.

    Wie können Veränderungsmuster und konkrete Projektrisiken früher erkannt werden?

    Welche Rolle können dabei Simulations-, Szenariotools oder die KI spielen?

    Wie können Projektkrisen besser bewältigt werden?

    Was kann unternommen werden, um die psychologische Resilienz der Projektteams zu fördern?

    Welche zusätzlichen Kompetenzen müssen ProjektleiterInnen erwerben?”

    Quelle: projektmanagementaktuell 4/2024

    Siehe dazu auch:

    Das Verständnis von Resilienz als Outcome.

    Wie hängen “Menschenorientierung” und Resilienz einer Organisation zusammen?

    Durchschnittliches Resilienzprofil der Ausgezeichneten des „Großen Preises des Mittelstandes“

    Wie bleiben Teams während des Veränderungsprozesses handlungsfähig ? Mit Resilienz-Selbsttest!

    Solche Zusammenhänge thematisieren wir auch in den von uns entwickelten Blended Learning Lehrgängen, Projektmanager/in (IHK) und Projektmanager/in Agil (IHK), die wir an verschiedenen Standorten anbieten. Weitere Informationen zu den Lehrgängen und zu Terminen finden Sie auf unserer Lernplattform.

    Menschliches Verhalten operiert mit einem speed limit von 10 bits/s. Was bedeutet das?

    Jede Sekunde prasseln auf uns eine Unmenge an Daten ein. Zheng und Meister (2024) vom California Institute of Technology haben in ihrem Paper The Unbearable Slowness of Being: Why do we live at 10 bits/s? (PDF) dazu analysiert, dass der gesamte menschliche Körper eine Datenmenge von 109 bits/s absorbieren kann. Die Autoren nennen das “outer brain“.

    Dabei stellt sich natürlich gleich die Frage, ob ein Mensch diese Menge auch zeitgleich verarbeiten kann. Die Antwort: Das ist nicht der Fall. Um existieren/leben zu können, müssen wir viele der äußeren Reize / Daten ausblenden. Doch wie viele Daten benötigen wir Menschen bei unserem Verhalten (“inner brain“, ebd.) pro Sekunde? Auch hier geben die Autoren eine deutliche Antwort:

    “Human behaviors, including motor function, perception, and cognition, operate at a speed limit of 10 bits/s. At the same time, single neurons can transmit information at that same rate or faster. Furthermore, some portions of our brain, such as the peripheral sensory regions, clearly process information dramatically faster” (Zheng und Meister 2024).

    Die Evolution hat gezeigt, dass es für den Menschen von Vorteil ist, gegenüber der absorbierbaren Datenflut (outer brain) ein innerliches Regulativ (inner brain) zu haben. Wir haben in der Vergangenheit auch unsere gesamte Infrastruktur (Straßen, Brücken usw.) auf die 10 bits/s ausgerichtet. Was ist, wenn wir die Infrastruktur auf die neuen technologischen Möglichkeiten ausrichten? Ist der Mensch dann darin eher ein Störfaktor?

    Meines Erachtens sollten wir nicht immer versuchen, den Menschen an die neuen technologischen Möglichkeiten anzupassen, sondern die technologischen Möglichkeiten stärker an die menschlichen (inkl. Umwelt) Erfordernisse adaptieren. Aktuell geht die weltweite Entwicklung immer noch zu stark von der Technologie und den damit verbundenen “Märkten” aus. Eine mögliche Alternative sehe ich in der von Japan vor Jahren schon propagierten Society 5.0.

    AI as Engineering: Führt die Perspektive zu unlösbaren Problemen?

    AI (Artificial intelligence) AI management and support technology in the Business plan marketing success customer. AI management concept.

    Grundsätzlich gibt es verschiedene Perspektiven auf Künstliche Intelligenz (AI: Artificial Intelligence). Die aktuell dominierende Perspektive ist die, AI aus der Perspektive des Ingenieurwesens zu betrachten (Siehe Tabelle). Dabei wird davon ausgegangen, dass Intelligenz in AI-Systemen nachgebildet werden kann. Intelligenz wird dabei oftmals mit dem Intelligenz-Quotienten gleich gesetzt, der in Tests (Intelligenz-Tests) mit Hilfe einer Zahl, dem Intelligenz-Quotienten IQ dargestellt werden kann. Bei dieser Betrachtung auf Intelligenz erstaunt es daher nicht, dass die leistungsfähigsten AI-Systeme locker einen hohen IQ-Wert erreichen. Siehe dazu OpenAI Model “o1” hat einen IQ von 120 – ein Kategorienfehler?.

    Idea/DescriptionLable
    Intelligence can be recreated in artificial systems AI-as-engineeringAI-as-Engineering
    Cognition is, or can be understood as, a form of computation AI-as-psychology (a.k.a. computationalism)AI-as-Psychology (a.k.a. computationalism)
    Humans can be replaced by artificial systems AI-as-ideologyAI-as-Ideology
    The label ‘AI’ helps to sell technologies and gain fundingAI-as-Marketing
    Quelle: van Roij et al. (2024): Reclaiming AI as a Theoretical Tool for Cognitive Science

    Forscher haben nun in einem Paper dazu Stellung genommen und verschiedene Situationen mit ingenieurwissenschaftlichen Ansätzen überprüft. Das Ergebnis ist ernüchternd: AI-as-Engineering führt zu unlösbaren Problemen. Unlösbar in dem Sinne, dass die menschliche Intelligenz in vielen Facetten ingenieurwissenschaftlich nicht abgebildet werden kann.

    “This means that any factual AI systems created in the short-run are at best decoys. When we think these systems capture something deep about ourselves and our thinking, we induce distorted and impoverished images of ourselves and our cognition. In other words, AI in current practice is deteriorating our theoretical understanding of cognition rather than advancing and enhancing it. The situation could be remediated by releasing the grip of the currently dominant view on AI and by returning to the idea of AI as a theoretical tool for cognitive science. In reclaiming this older idea of AI, however, it is important not to repeat conceptual mistakes of the past (and present) that brought us to where we are today” (ebd.).

    AI kann natürlich viele Probleme lösen, die vorher so nicht, oder nur zu hohen Kosten lösbar waren. Das heißt allerdings noch lange nicht, dass die vielfältigen kognitiven und psychologischen Dispositionen von Menschen und ihre gesellschaftlichen Netzwerke genau so abgebildet werden können. Es ist verständlich, dass uns die Tech-Industrie das glauben machen will, doch sollten wir die Technologie stärker in den Dienst der Menschen stellen. Wenn wir das nicht machen, gehen die Profite an die großen Tech-Konzerne, wobei die gesellschaftlichen Auswirkungen bei den jeweiligen Ländern hängen bleiben. Eine Gesellschaft ist keine profitorientierte Organisation.