Früher war alles klar und eindeutig und konnte durch Dichotomien benannt werden: Mann-Frau, Deuscher-Nicht-Deutscher,Drinnen-Draußen, Wahr-Falsch, 0-1 usw. Doch in den letzten 20 Jahren hat sich so einiges verändert, dass die deutliche Trennung erschwert, ja sogar manchmal unmöglich macht (Soziologen nennen diese Entwicklungen Entgrenzungen in der reflexiven Modernisierung). Solche Unschärfen waren früher auch schon existent, wurden allerdings vernachlässigt. Durch die drei Treiber des dynamischen Wandels “Vernetzung, Geschwindigkeit und der Zunahme nicht greifbarer Werte” kommt es auch zu einer Abwertung von materiellen Werten, die sogar zu einem Hemmnis werden können (Davis/Meyer 2000:11). Es stellt sich daher die Frage, wie wir mit der real vorhandenen Unschärfe umgehen. Eine Möglichkeit ist, dass sich Menschen nach klaren Regeln sehnen und daher den extremen Populisten in Europa in die Arme laufen, oder den Stammtischparolen der Boulevardpresse glauben, oder …. Ein solches Verhalten lässt darauf schließen, dass diese Menschen es nicht schaffen, die Unschärfe und die sich daraus ergebende Unsicherheit zu bewältigen.Andere setzen wiederum auf Computertechnologie und versuchen alles zu erfassen, was möglich ist. DIE vollständige Information wird es allerdings nicht geben können – es bleibt eine Illusion. Die Frage nach der Bewältigung von Unsicherheit ist somit zu einem wichtigen Element geworden, um zukunftsfähig zu bleiben oder zu werden. Ein guter Bezugspunkt ist dabei die von Knight 1921 dargestellte Form der Unsicherheit, die er Uncertainty nennt. Dieser Teil der Unsicherheit kann nicht gemessen werden und entzieht sich somit den klassischen Herangehensweisen, bei denen alles messbar sein muss, bzw. messbar gemacht wird. Im Gegensatz – bzw. in Ergänzung zu Computern und Robotern – ist der Mensch in der Lage, solche Unsicherheiten zu bewältigen – durch seine Kompetenz. Der Kompetenzbegriff ist in dieser Debatte um Unschärfe, Unsicherheit und Uncertainty zentral. Siehe dazu auch Über den Umgang mit Ungewissheit. Diese Unterschiede zu verstehen bedeutet auch, die richtigen Schlüsse daraus zu ziehen, wenn wir über den Arbeitsplatzverlust durch Cognitive Computing diskutieren. Dazu passt auch mein Vortrag, den ich im Oktober auf der Weltkonferenz MCPC 2015 in Montréal/Kanada halten werde: “Cognitive Computing and Managing Complexity in Open Innovation Model”. Siehe dazu auch das Konferenzprogramm (PDF).
Polanyi’s paradox: “We know more than we can tell”
In den Unternehmen ist immer noch die Meinung vertreten, dass man alles Wissen ausdrücken, und damit Externalisieren kann. Polanyi’s paradox—“we know more than we can tell” aus dem Jahr 1966 zeigt allerdings, dass dem nicht so ist:
When we break an egg over the edge of a mixing bowl, identify a distinct species of birds based on a fleeting glimpse, write a persuasive paragraph, or develop a hypothesis to explain a poorly understood phenomenon, we are engaging in tasks that we only tacitly understand how to perform. Following Polanyi’s observation, the tasks that have proved most vexing to automate are those demanding flexibility, judgment, and common sense—skills that we understand only tacitly” (Autor, D. H. (2015): Why Are There Still So Many Jobs? The History and Future of Workplace Automation Journal of Economic Perspectives—Volume 29, Number 3—Summer 2015—Pages 3–30).
In dem genannten Artikel wird deutlich, dass dieses Tacit Knowledge auch nicht so leicht von Maschinen und Roboter ersetzt werden kann. Dennoch erschließt das Cognitive Computing immer mehr Domänen – auch von Wissensarbeitern.
Gesellschaftliche Veränderungen 2030: Selbstoptimierung des Menschen
Ein weiterer Trend der gesellschaftlichen Veränderungen bis 2030 (PDF) wird die Selbstoptimierung der Menschen sein. “Körperliche und geistige Leistungsfähigkeit, ein attraktives Äußeres sowie ein gewinnendes Auftreten werden immer relevanter für soziale Anerkennung und beruflichen Erfolg. Attraktive Menschen erhalten beispielsweise höhere Gehälter als weniger attraktive. Immer mehr Menschen fühlen sich häufig unter Druck, die gesellschaftlichen Erwartungen zu erfüllen und beginnen damit, sich äußerlich wie innerlich zu formen” (S. 74). Bezüge zur Wissensgesellschaft: “Die Wissensgesellschaft stellt insbesondere in einigen Teilbereichen sehr hohe Anforderungen an ihre Mitglieder. Nicht alle Menschen können diese Anforderungen mit ihren natürlichen Ressourcen erfüllen. Immer mehr Menschen sehen sich gezwungen, mit künstlichen Maßnahmen nachzuhelfen, um im Wettbewerb bestehen zu können” (S. 75). Diese Selbstoptimierung geht einher mit einer notwendigen Selbstorganisation, die Kern eines modernen Kompetenzbegriffes ist: Kompetenz als Selbstorganisationsdisposition. Das kann allerdings auch bis zur Selbstausbeutung gehen und muss daher thematisiert werden. In meinem Buch Freund, R. (2011): Das Konzept der Multiplen Kompetenz auf den Analyseebenen Individuum, Gruppe, Organisation und Netzwerk habe ich die verschiedenen Aspekte des Themas analysiert. Darüber hinaus, gehen wir darauf auch in den von uns entwickelten Blended Learning Lehrgängen Innovationsmanager (IHK) und Wissensmanager (IHK) ein. Informationen zu den Lehrgängen finden Sie auf unserer Lernplattform.
MCPC 2015: Mein Paper wurde für die Weltkonferenz in Montréal akzeptiert
Nachdem schon mein Abstract für die MCPC 2015 World Conference on Mass Customization, Personalization, and Co-Creation (20.-22.10.2015 in Montréal/Kanada) angenommen wurde, habe ich in den letzten Wochen auf die Bestätigung meines eingereichten Papers gewartet. Gestern habe ich nun die Kommentare der Reviewer erhalten und bin froh, dass mein Paper akzeptiert wurde! Der Titel meiner Ausarbeitung lautet:
Cognitive Computing and Managing Complexity in Open Innovation Model
Die Reviews sind sehr hilfreich, um die Qualität des Papers noch vor der Veröffentlichung zu erhöhen. Ich werde nun in der kommenden Woche mein Paper verbessern und es dann endgültig abgeben. Die Deadline dafür ist der 24.08.2015. Da ich seit 2001 an fast allen Weltkonferenzen (außer 2013 in Aalborg/Dänemark) teilgenommen habe (Hong Kong 2001 und 2005, München 2003, Boston 2007, Helsinki 2009 und San Francisco 2011 – Siehe ausführlich Konferenzen und Veröffentlichungen), bin ich auch diesmal sehr gespannt, welche neuen Entwicklungen es gibt. Darüber hinaus freue ich mich auch, alte Bekannte zu treffen und mich mit ihnen auszutauschen. Die Erkenntnisse aus den vielen Konferenzen kommen auch den von uns entwickelten Blended Learning Lehrgängen Innovationsmanager (IHK) und Wissensmanager (IHK) zu gute. Informationen zu den Lehrgängen finden Sie auf unserer Lernplattform.
Welche Veränderungen erfährt Wissensarbeit durch neue Technologien?
Der Leitfaden Bitcom (2015): Kognitive Maschinen – Meilenstein in der Wissensarbeit zeigt deutlich auf, zu welchen Leistungen Cognitive Computing heute fähig ist. “Synonyme dafür bilden »Smart Machines« oder »intelligente Maschinen«. Cognitive Computing ist der Oberbegriff für die Gesamtheit aller IT-Infrastrukturen, Technologien, Softwarelösungen und Algorithmen, aus denen die »Cognitive Systems« zusammengesetzt werden, um »Cognitive Services« zu erbringen” (S. 9). Die verschiedenen Beispiele erklären, welche Chancen sich ergeben können. Wir sollten daher nicht nur die Gefahren solcher Entwicklungen thematisieren, sondern auch die Chancen aktiv nutzen. Es wird deutlich, dass sich durch Cognitive Computing gerade auch die “einfache” Wissensarbeit verändern wird. Die Kompetenzstufen Anfänger, Fortgeschrittener und Befähigter (Arbeiten, fakten- und regelbasiert sind) werden in Zukunft immer mehr von solchen Systemen abgelöst. Der Mensch ist allerdings im Vergleich zu Maschinen immer noch zur ganzheitlichen Wahrnehmung in der Lage, was dem Könner- oder Expertenniveau entspricht. Die Anforderungen an Wissensarbeiter steigen daher und haben Einfluss auf die Weiterbildung von Mitarbeitern.
Bitte informieren Sie sich dazu auf unserer Moodle-Lernplattform.
Der Mensch und Künstliche Intelligenz
In dem Artikel Künstliche Intelligenz: Mensch ist durch Kreativität überlegen (Deutschlandradio Kultur vom 16.01.2015) stellt der Medieninformatiker Andreas Butz klar: “Ich rechne nicht damit, dass die künstliche Intelligenz uns Menschen in unserem Menschsein überholen wird”. Natürlich gibt es Bereiche, in denen Maschinen und Netzwerke leistungsfähiger sind als Menschen, doch gehört noch weit mehr zu einem Menschen als Denken und logische Verknüpfungen. Es geht bei der Diskussion um Künstliche Intelligenz und/oder Mensch nicht darum einzelne Fähigkeiten/Fertigkeiten zu vergleichen, sondern darum, Künstliche Intelligenz zum Wohle der Menschen einzusetzen. Wie technologische Entwicklungen bei der Wissenskonstruktion und Wissensnutzung eingesetzt werden können, thematisieren wir in den von uns entwickelten Blended Learning Lehrgängen Innovationsmanager (IHK) und Wissensmanager (IHK). Auf unserer Moodle-Lernplattform finden Sie weitere Hinweise.
Die neue Sicht auf Intelligenz
Es ist spannend zu sehen, wie sich die Forscher der Künstlichen Intelligenz immer mehr auch mit einem umfassenderen, neuen Verständnis von Intelligenz befassen. Einer der führenden europäischen Forscher auf der Gebiet der Künstlichen Intelligenz, Rolf Pfeifer, hat erste Hinweise in seinem Buch Pfeifer, R.; Bongard, J. (2007): How the Body Shapes the Way We Think: A New View of Intelligence veröffentlicht. Auf der TedxZurich2013 hat Rolf Pfeifer den Gedanken noch einmal auf den Punkt gebracht:
Traditionally, in disciplines like artificial intelligence, robotics, and neuroscience, intelligence is viewed as located in the brain and as a consequence, there has been a focus on the study of the brain itself or more generally, the control. Recently, especially with the rise of biologically inspired approaches, there has been increasing consensus that intelligence is not localized in the brain, but is distributed throughout the entire organism, and that it is the result of an intricate relation between brain, body, and environment.
Intelligenz zeigt sich somit in einer intelligenten Problemlösung (Complex Problem solving) bei der der Geist, der Körper und das Umfeld (Kontext der Problemlösung) interagieren. Genau diese Überlegungen sind Bestandteil der Multiple Intelligenzen Theorie, die von Howard Gardner vertreten wird.
If HP knew what HP knows, we would be three times as profitable
In den Unternehmen ist häufig folgender Satz zu hören: “Wenn X wüsste, was X weiß”. Doch woher stammt dieser Satz? Beim Recherchieren fällt auf, dass dieser Satz ganz allgemein HP (Hewlett-Packard) zugeschrieben wird. Genauer gesagt, soll der CEO Lew Platt folgenden Satz formuliert haben: “If HP knew what HP knows, we would be three times as profitable” (vgl. Davenport/Prusak 1998:xii; see also O’Dell/Grayson 1998, zitiert in Hinds/Peffer 2003:3). Um auch noch die letzten Zweifler zu beruhigen, hier noch die genaue Quelle: Hinds, P. J.; Pfeffer, J. (2003): Why Organizations Don’t “Know What They Know”: Cognitive and Motivational Factors Affecting the Transfer of Expertise. In: Ackerman, M. S.; Pipek, V.; Wulf, V. (2003) (Eds.): Sharing Expertise. Beyond Knowledge Management, pp. 3-26. Interessant ist, dass es Lew Platt gar nicht alleine darum ging auf das Nicht-Wissen hinzuweisen – das alleine verkürzt das Zitat unangemessen. Der CEO verknüpft das Nicht-Wissen zusätzlich mit einer Renditeperspektive, die schon erstaunlich ist. Lew Platt vermutet, dass HP dreimal so profitabel wäre, wenn das Unternehmen wüsste, was es weiß. Es sollte Organisationen zu denken geben, immer nur von Wissen zu sprechen, ohne es angemessen zu entwickeln.
Informationsqualität – Wissensqualität
In dem Gastkommentar von Riza C. Birkan Überlebensfaktor Qualität (Die Welt vom 09.01.2008) erläutert der Autor, dass Googles Algorithmen “die Informationsqualität nicht berücksichtigen” kann. Der Ausweg ist nach Auffassung von Riza C. Birkan die “semantische Technologie”. Da der Autor Experte für Künstliche Intelligenz ist, war dieser Schluss natürlich naheliegend. Semantische Technologien können natürlich einen sehr wichtigen Beitrag zur Qualität von Information liefern, und somit zur Verbesserung der Wissenskonstruktion beitragen. Die in dem Artikel angesprochene “Wissensverfeinerung nach semantischer Technologie” wird durch Menschen und deren Wissenskontruktion zu einer Wissensqualität. Dabei kommt heute dem personengebundenen, impliziten Wissen, eine bedeutende Rolle zu. Informationsqualität und Wissensqualität sollten daher unter konstruktivistischen Gesichtspunkten deutlicher abgegrenzt werden. Siehe dazu auch
Grenzen des Wissens
In dem Artikel Wir gegen die Gier – Grenzen des Wissens (Süddeutsche Zeitung vom 08.01.2007) erläutert Joseph Weizenbaum (War Professor für Computer Science am Massachusetts Institute of Technology und gilt als einer der Pioniere der Künstlichen Intelligenz) die Zusammenhänge und Missverständnisse im Umgang mit Wissen. Am Ende der ersten Seite findet man: “Sie [die Information] ist immer eine private Leistung, nämlich die der Interpretation, deren Ergebnis Wissen ist. Information hat, wie, zum Beispiel die Aufführung eines Tanzes, keine Permanenz; sie ist eben weder Materie noch Energie. Das Maß der Wahrheit des produzierten Wissens hängt von der Qualität der angewandten Interpretation ab.” Oder auf Seite 2: “Enthält das New Yorker Telefonbuch Information? Nein! Es besteht aus Daten, nämlich aus Texten, die, um zu Information und Wissen zu werden, interpretiert werden müssen.” Die Begriffe Daten, Information, Wissen und Kompetenz sollten daher im Sinne der von Weizenbaum genannten Unterscheidungen verwendet werden. Erst dann wird deutlich, was unter Datenmanagement, Informationsmanagement, Wissensmanagement und Kompetenzmanagement zu verstehen ist. Siehe dazu auch Wissenstreppe oder Wissensmanagement in der Medizin …