Künstliche Generelle Intelligenz (AGI): Kann das überhaupt erreicht werden?

In den Diskussionen um Künstliche Intelligenz (Artificial Intelligence) werden die Tech-Riesen nicht müde zu behaupten, dass Künstliche Intelligenz die Menschliche Intelligenz ebenbürtig ist, und es somit eine Generelle Künstliche Intelligenz (AGI: Artificial General Intelligence) geben wird.

Dabei wird allerdings nie wirklich geklärt, was unter der Menschlichen Intelligenz verstanden wird. Wenn es der Intelligenz-Quotient (IQ) ist, dann haben schon verschiedene Tests gezeigt, dass KI-Modelle einen IQ erreichen können, der höher ist als bei dem Durchschnitt der Menschen. Siehe dazu OpenAI Model “o1” hat einen IQ von 120 – ein Kategorienfehler? Heißt das, dass das KI-Modell dann intelligenter ist als ein Mensch? Viele Experten bezweifeln das:

“Most experts agree that artificial general intelligence (AGI), which would allow for the creation of machines that can basically mimic or supersede human intelligence on a wide range of varying tasks, is currently out of reach and that it may still take hundreds of years or more to develop AGI, if it can ever be developed. Therefore, in this chapter, “digitalization” means computerization and adoption of (narrow) artificial intelligence” (Samaan 2024, in Werthner et al (eds.) 2024, in Anlehnung an https://rodneybrooks.com/agi-has-been-delayed/).

Es wird meines Erachtens Zeit, dass wir Menschliche Intelligenz nicht nur auf den IQ-Wert begrenzen, sondern entgrenzen. Die Theorie der Multiplen Intelligenzen hat hier gegenüber dem IQ eine bessere Passung zu den aktuellen Entwicklungen. Den Vergleich der Künstlichen Intelligenz mit der Menschlichen Intelligenz nach Howard Gardner wäre damit ein Kategorienfehler.

Künstliche Intelligenz: Wie hängen Modelle, Agenten und Tools zusammen?

General agent architecture and components (Wiesinger et al. (2024): Agents)

In der letzten Zeit kommt immer mehr der Begriff AI Agent – oder auch Gen AI Agent – auf. Mit Hilfe der Abbildung möchte ich die Zusammenhänge der verschiedenen Komponenten erläutern.

Die Modelle (Model), oft als Language Models, Small Language Models oder Large Language Models (LLM) bezeichnet, enthalten eine sehr große Menge an Trainingsdaten. Dabei können Open Source AI Models, Open Weights Models und Closed AI Models unterschieden werden. An dieser Stelle merkt man schon, wie wichtig die Auswahl eines geeigneten Modells ist. Diese Modelle sind üblicherweise nicht auf typische Tools oder Kombinationen von Tools trainiert. Oftmals wird dieser Teil dann mit Hilfe von immer detaillierteren Eingaben (Prompts, Dateien etc.) des Users spezifiziert.

Die Beschränkungen von Modellen bei der Interaktion mit der “äußeren Welt” kann durch geeignete Tools erweitert werden. Dazu können spezielle Datenbanken, API-Schnittstellen usw. genutzt werden. Siehe dazu auch RAG: KI-Basismodelle mit eigener Wissensbasis verknüpfen.

Der AI Agent orchestriert nun alle Komponenten, wie die Eingabe des Users, das jeweilige Modell (oder sogar mehrere), die Tools und gibt das Ergebnis (Output) für den User in der gewünschten Form aus.

Die Möglichkeit, AI Agenten zu erstellen, bieten in der Zwischenzeit viele kommerzielle KI-Anbieter an. Wir gehen demgegenüber den Weg, Open Source AI auf unserem Server zu installieren und zu nutzen:

AI Agenten konfigurieren wir mit Langflow (Open Source). Dabei können wir in Langflow auf sehr viele Open Source AI Modelle über Ollama (Open Source) zugreifen, und vielfältige Tools integrieren. Alle Daten bleiben dabei auf unserem Server.

LocalAI: KI-Modelle und eigene Daten kombinieren

NEXTCLOUD ASSISTENT – Eigener Screenshot

Wenn Sie die bekannten Trainingsmodelle (LLM: Large Language Modells) bei ChatGPT (OpenAI), Gemini (Google) usw. nutzen, werden Sie sich irgendwann als Privatperson, oder auch als Organisation Fragen, was mit ihren eingegebenen Texten (Prompts) oder auch Dateien, Datenbanken usw. bei der Verarbeitung Ihrer Anfragen und Aufgaben passiert.

Antwort: Das weiß keiner so genau, da die KI-Modelle nicht offen und transparent sind.

Ein wirklich offenes und transparentes KI-Modell orientiert sich an den Vorgaben für solche Modelle, die in der Zwischenzeit veröffentlicht wurden. Siehe dazu beispielsweise Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften.

Um die eigene Souveränität über unsere Daten zu erlangen, haben wir seit einiger Zeit angefangen, uns Stück für Stück von kommerziellen Anwendungen zu lösen. Angefangen haben wir mit NEXTCLOUD, das auf unserem eigenen Server läuft. NEXTCLOUD Hub 9 bietet die Möglichkeiten, die wir alle von Microsoft kennen.

Dazu kommt in der Zwischenzeit auch ein NEXTCLOUD-Assistent, mit dem wir auch KI-Modelle nutzen können, die auf unserem Serverlaufen. Dieses Konzept einer LOCALAI – also einer lokal angewendeten KI – ist deshalb sehr interessant, da wir nicht nur große LLM hinterlegen, sondern auch fast beliebig viele spezialisierte kleinere Trainingsmodelle (SML: Small Language Models) nutzen können. Siehe dazu Free Open Source Software (FOSS): Eigene LocalAI-Instanz mit ersten drei Modellen eingerichtet.

In dem Blogbeitrag LocalAI (Free Open Source Software): Chat mit KI über den Nextcloud-Assistenten haben wir dargestellt, wie im NEXTCLOUD Assistenten mit einer lokalen KI gearbeitet werden kann.

Wie in der Abbildung zu sehen, können wir mit dem NEXTCLOUD Assistenten auch Funktionen nutzen, und auch eigene Dateien hochladen. Dabei werden die Dateien auch mit Hilfe von dem jeweils lokal verknüpften lokalen KI-Modell bearbeitet. Alle Daten bleiben dabei auf unserem Server – ein unschätzbarer Vorteil.

Die Kombination von LOCALAI mit eigenen Daten auf dem eigenen Server macht dieses Konzept gerade für Kleine und Mittlere Unternehmen (KMU) interessant.

In Zeiten von Künstlicher Intelligenz (KI) reichen traditionelle Modelle des Changemanagements nicht mehr aus

Es viele Changemanagement-Modelle, die sich in den letzten Jahrzehnten etabliert haben, und heute noch angewendet werden. Siehe dazu beispielhaft diese Blogbeiträge. Janssen (1996) hat beispielsweise vorgeschlagenen “Vier Räume des Wandels” zu beachten.

#1 Raum des SCHOCKS
#2 Raum der VERNEINUNG
#3 Raum der VERWIRRUNG
#4 Raum der AKZEPTANZ

Diese Räume oder auch Schritte sind sicherlich sinnvoll, doch reichen sie In Zeiten der Künstlichen Intelligenz nicht aus. Es wird daher vorgeschlagen, noch einen Raum vorzuschalten und zwei weitere Räume hinzuzufügen:

#0 Raum der AHNUNGSLOSIGKEIT
#1 Raum des SCHOCKS
#2 Raum der VERNEINUNG
#3 Raum der VERWIRRUNG
#4 Raum der AKZEPTANZ
#5 Raum der INTEGRATION
#6 Raum der TRANSFORMATION


Quelle: Koerting/Neumann (2024), in Bernert et al. (Hrsg.) (2024): KI im Projektmanagement.

Solche Zusammenhänge thematisieren wir auch in den von uns entwickelten Blended Learning Lehrgängen Projektmanager/in (IHK) und Projektmanager/in Agil (IHK), die wir an verschiedenen Standorten anbieten. Weitere Informationen zu den Lehrgängen und zu Terminen finden Sie auf unserer Lernplattform.

Generative Künstliche Intelligenz für Industrie und Behörde: Chancen und Risiken

Künstliche Intelligenz (KI) ist in unserem Alltag nicht mehr wegzudenken. Es vergeht kein Tag, an dem nicht von neuen, beeindruckenden Möglichkeiten berichtet wird. Große Technologie-Konzerne, Beratungsfirmen usw. zeigen oft nur die eine, positive Seite von Künstlicher Intelligenz. Es ist daher gut, dass das Bundesamt für Sicherheit in der Informationstechnik (BSI) den Leitfaden Generative KI-Modelle (PDF) herausgebracht hat, in dem es um die Chancen und Risiken für Industrie und Behörden geht. Am Ende werden die wichtigsten Punkte für eine systematische Risikoanalyse zusammengefasst (S. 3.-31):

Sensibilisierung von Nutzenden

Durchführung von Tests

Umgang mit sensiblen Daten

Herstellung von Transparenz

Überprüfung von Ein- und Ausgaben

Beachtung von (Indirect) Prompt Injections

Auswahl und Management der Trainingsdaten

Praktische Expertise aufbauen

Künstliche Intelligenz: Vorteile von Open-Source-Modellen

Was als Open-Source begann, wird oft zu einem wirtschaftlich getriebenen Closed-Source-Modell. Das Beispiel OpenAI zeigt, wie das funktioniert. Zunächst war OpenAI Open-Source basiert und wurde dann unter dem Einfluss und dem Kapital von Microsoft Schritt für Schritt zu einem Closed-Source KI-System, das sich der Konzern gut bezahlen lässt. Es ist zu vermuten, dass dieser Weg auch von anderen Konzernen beschritten wird, sobald sich die Anwender an die zunächst freien Funktionen gewöhnt haben, wodurch sich deren Switching-Cost pro Anwender erhöhen. Diese Entwicklung wird allerdings in dem aktuellen EFI Gutachten (2024) kritisch gesehen, und hervorgehoben, welche Vorteile Open-Source KI-Modelle haben:

“Open-Source-Modelle können den Wettbewerb stärken und bieten mehr Innovationsmöglichkeiten als Closed-Source-Modelle, da sie in der Regel besser anpassbar sind. Zudem können Akteure aus Wissenschaft und Wirtschaft, insbesondere Startups und KMU, von den verhältnismäßig niedrigen Kosten der Open-Source-Nutzung profitieren und
vorhandene Open-Source-Modelle einsetzen, um domänenspezifisch zu innovieren und die Produktivität zu steigern. Dies erhöht den Wettbewerb und die Angebotsvielfalt und beugt somit Monopolisierungstendenzen vor. Darüber hinaus haben Open-Source-Modelle den Vorteil, dass Programmierfehler oder potenzielle Verzerrungen, die bei der Analyse von Daten entstehen, schneller identifiziert und behoben werden können. Dies ist der Transparenz und Zuverlässigkeit von KI-Modellen förderlich” (EFI Gutachten 2024:88).

Jede Organisation sollte sich genau überlegen, welche KI-Strategie geeignet ist, mittel- und langfristig die Chancen von KI-Modellen zu nutzen. Wir nutzen Open-Source-KI-Modelle in unserer Nextcloud und entwickeln dadurch eine KI-Strategie, die zu unseren Anforderungen passt. Wie weit wir Closed-Source KI-Modelle mit integrieren, entscheiden wir je nach Bedarf mit Hilfe des integrierten Ethical KI-Rankings.