Intellektik

Künstliche Intelligenz (KI, AI) wird zunehmend zum Synonym für die Anwendung von Verfahren des maschinellen Lernens zur Erstellung z.B. von Faltungsnetzen und deren Derivate aus Daten. Zu Unrecht, wie wir nachfolgend beleuchten werden. KI umfasst viel mehr als das Generieren von (multimodalen) Klassifikatoren aus hundertausenden von vorklassifizierten Bildern oder das Erzeugen eines Bildgenerierers aus einem Bildklassifikator, um klassische Anwendungsbeispiele zu nennen. Zur Abgrenzung von diesem einfachen KI-Begriff wurde früher der Begriff Intellektik vorgeschlagen, den wir hier für Forschungsarbeiten im Bereich der Grundlagen der KI wieder aufgreifen möchten.

Menschengerechte Systeme zu fördern, d.h. beweisbar für Menschen nützliche und zuträgliche Systeme zu entwickeln, sollte unser Ziel sein, so dass die angemessene Unterstützung von Menschen in intellektuell herausfordernden Lebens- und Arbeitssituationen erreicht wird (Human-Compatible AI). Wir argumentieren, dass in diesem Zusammenhang vielzitierte ethische Leitsätze sehr gewinnbringend sein können (Trustworthy AI), insbesondere wenn sie nicht nur für Entwickler von Systemen Anwendung finden, sondern für Systeme selbst eine Bedeutung für berechnete Handlungen "zur Laufzeit" erlangen.

Der Begriff Intellektik bezieht sich gleichermaßen auf Human-Compatible AI wie auch auch Trustworthy AI. Unter diesem Begriff der Intellektik beleuchten wir nachfolgend die wichtigsten Entwicklungen und Herausforderungen in der KI aus der Perspektive des intelligenten Verhaltens von technischen Systemen.

Intellektik ist eine Wissenschaft, die die Synthese und Analyse intelligenter Teilsysteme von Anwendungen untersucht (Teilsysteme werden in der Intellektik Agenten genannt, siehe auch Russell und Norvig sowie Poole und Macworth). Agenten können bloße Softwaresysteme oder auch z.B. humanoide Roboter mit einer entsprechenden Hardware sein. Auch das Verhalten eines Menschen in einem Gesamtsystem kann aus technischer Sicht über einen Agenten abstrahiert werden. Das wesentliche Element der Intellektik ist die Annahme einer Situiertheit von Agenten in einer Umgebung, so dass durch Wahrnehmung der Umgebung Agenten ein Modell über ihre Umgebung (und ggf. über andere Agenten in der Umgebung) aufbauen bzw. lernen können. Agenten handeln rational, indem sie aufgrund ihres jeweiligen (ggf. anzupassenden) Ziels aus ihrer lokalen Sicht heraus optimale Handlungen berechnen, die bei Ausführung einen Einfluss auf die Umgebung haben, deren Zustand dann wieder vom Agenten erfasst werden muss, so dass er weiterhin optimal handeln kann (Interaktion mit der Umgebung). Die Erfassung der Umgebung kann auch eine Rückkopplung bzgl. der Wahl von früheren Handlungen umfassen und den Agenten zur Neufassung seines internen Zustandes und seiner zukünftigen Handlungsplanung veranlassen (Reinforcement). Die sog. Sequentielle Entscheidungstheorie löst das Problem der Bestimmung der besten Aktion, geht aber davon aus, dass sowohl die Verteilung von Ereignissen in der Umgebung bekannt ist als auch die möglichen Aktionen a priori bekannt sind, was in der Regel in Realweltsystemen eine nicht geeignete Annahme ist. Ein Agent muss die Verteilung(en) zur Beschreibung der Umgebung erst im Laufe der Zeit schätzen, und er muss auch mögliche neue Handlungen (Aktionen) entdecken. Bei der Handlungsplanung ist jeder Agent in seiner Rationalität den Gesetzen der Komplexitätstheorie unterworfen, d.h. die Rationalität von Agenten ist nicht nur unter starken Zeitbeschränkungen recht stark begrenzt. Optimale Handlungen können nicht unbedingt mit den zur Verfügung stehenden Berechnungsressourcen (Zeit und Speicher) bestimmt werden. Da optimale Handlungen nur approximiert berechnet werden können, werden die theoretisch erreichbaren Ziele eines Agenten praktisch auch nicht immer oder nur verspätet erreicht.

Die beschriebene Form der Konstruktion von Systemen mit situierten Agenten, die in einer Umgebung aus ihrer lokalen Sicht optimal agieren, also rational handeln, bildet die Basis für einen künstlichen, technischen Intelligenzbegriff. Ein Agent ist intelligent, wenn er unter Berücksichtigung der begrenzten Rationalität durch situierte Interaktion mit seiner Umgebung seine Ziele in unerwartet kurzer Zeit erreicht. Manche fordern sogar, dass Ziele in wechselnden Kontexten (oder Umgebungen) erreicht werden, und zwar auf der Basis von abstrakten Beschreibungen der "Regeln" (z.B. Regeln eines Spiels, wie z.B. Schach), die eine Umgebung einem Agenten bereitstellt (Artificial General Intelligence). Für Spiele wie Go, Schach oder Shigo wurde gezeigt, dass durch Reinforcement-Lernen ein System aus einer Beschreibung der Spielregeln generiert werden kann, das menschliche Spieler ohne Probleme schlagen kann. Es ist hervorzuheben, dass es sich bei den genannten Spielen um Spezialprobleme handelt. Das generierte System wird gegen Menschen zwar fast immer gewinnen, kann aber nicht einem Anfänger erklären, wie man ein guter Spieler wird. Sehr generell ist diese Art der Intelligenz nicht. Aus den speziellen gelösten Aufgaben lassen sich aber durchaus sehr generelle Techniken für die Analyse und Synthese von intelligenten Systemen herleiten.

Ohne Berücksichtigung der Situiertheit ist der Begriff der Intelligenz in jedem Fall schlecht definiert. Es ist auch wichtig zu verstehen, dass sich die Intelligenz von Agenten nur "von außen" zeigt. Soll heißen: Die Intelligenz des Agenten, die wir Menschen in das Verhalten von Agenten als Software- oder Hardwaresysteme hineininterpretieren, wird durchaus mit klassischen Techniken der Informatik erbracht. Eine Repräsentations- oder Berechnungsmethode als KI-Methode zu klassifizieren, führt nicht zu tiefen Einsichten. Von "intelligenten Algorithmen" oder "intelligenten Daten" oder gar der "Integration einer KI in ein System" bzw. "Erzeugung einer KI" kann keine Rede sein.

Die angesprochenen Ziele eines Agenten können unsicher sein, spiegeln aber die den Agenten übertragenen Aufgaben wider. Die Analyse eines Systems von Agenten (also eines sog. Mechanismus) und die Prüfung, ob eine gewünschte Funktionalität durch ein solches System von Agenten auch wirklich realisiert wird, stellt eine zentrale Fragestellung in der Wissenschaft der Intellektik dar. Ohne eine Lösung dieser Frage im konkreten Fall sind intelligente Systeme in bestimmen Anwendungsbereichen schlichtweg nicht einsetzbar.

Wir betonen, dass die Zubilligung der Intelligenz von der Erwartungshaltung des Menschen abhängt, der das Verhalten maschineller Agenten interpretiert. Wenn z.B. ein Schachagent (oder Schachprogramm) das Ziel hat, 1000 Spiele zu gewinnen, und man nicht erwartet, dass er dieses Ziel schon nach 1000 Partien erreicht, mag man ein Schachprogramm als intelligent bezeichnen. Bei einem Taschenrechner würde man erwarten, dass er 1000 von 1000 Additionen richtig berechnet, und daher wird das Taschenrechnerprogramm auch kaum als intelligent bezeichnet. Wenn man erwartet, dass ein Schachprogramm immer gewinnt, wird die Tendenz, es als intelligent zu bezeichnen, stark abnehmen. Die Erwartungshaltung kann sich durchaus auch mit der Zeit ändern. Wenn man den Intelligenzbegriff in diesem Rahmen ernst nimmt, kann man auch verschiedene Formen der Intelligenz unterscheiden und stößt dabei zu einem weiteren Kernthema der Intellektik vor, das ohne den Agenten-Begriff verborgen geblieben wäre.

Wichtig ist es auch zu verstehen, dass in der Intellektik der Begriff Lernen sich darauf bezieht, dass ein Agent zur Laufzeit ein Modell seiner Umgebung aufbaut, also selbstlernende Algorithmen verwendet, um seine Ziele besser zu erreichen. Der Einsatz von Lerntechniken zur Entwicklungszeit von Agenten zur Generierung eines initialen Modells bzw. Verhaltens ist möglich, trifft aber nicht den Kern der Intellektik, sondern kann als Data Science zur Systementwicklung verstanden werden. Lernen unter Verwendung von Vorwissen ist wesentlich zur Reduktion der notwendigen Trainingsdaten, denn für die allermeisten Lernprobleme können insbesondere zur Laufzeit kaum ausreichend Trainingsdaten bereitgestellt werden - eine Tatsache, die heute kaum beachtet wird. Mit Vorwissen wird es möglich, den Hypothesenraum für mögliche Lernergebnisse automatisch zu strukturieren, was eine notwendige Voraussetzung für effektives Handeln eines Agenten darstellt.

Ein weitverbreiteter Irrtum ist es anzunehmen, dass in der KI das Lernen (zur Laufzeit) nur in Bezug auf die verwendeten Modelle relevant ist (z.B. für Funktionalitäten wie die Klassifikation von Bildern, Erkennung von Objekten, usw.). Genauso wichtig ist es, dass Agenten ihre Eingabedaten (Perzepte) analysieren, um bestimmte Strategien zu entwickeln, mit den sehr begrenzten Zeit- und Platzressourcen für die Bestimmung der jeweils besten nächsten Aktion effizient umzugehen. Nehmen wir an, ein Agent löst hierzu verschiedene Probleme, deren Klasse sich über die Historie der Eingaben definiert. Mit Techniken wie AutoML oder Automatic Algorithm Configuration lassen sich (z.B. für SAT-Probleme) nach kurzer Trainingsphase sehr effiziente Strategien zur Bearbeitung von Eingaben automatisch generieren bzw. lernen. Es gibt Einsatzszenarien, in den Agenten zunächst einfache Instanzen einer Problemklasse bearbeiten, um geeignete Strategien für die Lösung von Problemen aus der jeweiligen Problemklasse zu identifizieren. Erst danach können harte Instanzen einer Problemklasse angegangen werden. Ohne "Anlernen" durch einfache Probleminstanzen könnten harte Instanzen vielleicht bei gegebenen Zeitressourcen gar nicht bearbeitet werden, ohne auf ein Timeout zu laufen. Strategielernen kann wesentlich bedeutsamer in praktischen Anwendungen sein als Funktionalitätslernen.

Man beachte, dass technische Agenten, die durch Interaktion in einer speziellen Umgebung eine große Performanz erzielt haben, kopierbar sind (im Gegensatz zu Menschen) und in einer anderen, ähnlichen Umgebung gewinnbringend eingesetzt werden können, wodurch sie dann weiter lernen und noch besser werden. Die Kompetenzerhöhung von Agenten mittels Lernen durch Interaktion mit einer Umgebung ist durchaus ein sehr interessantes Prinzip der Systemerstellung. Ob ein durch Lerntechniken erstelltes System in einer bestimmten Umgebung ohne Weiterlernen betrieben werden kann, lässt sich nicht allgemein beantworten. Die Realität entwickelt sich allerdings weiter und ohne laufende Anpassung ist die Verwendbarkeit von durch Lerntechniken gewonnenen Systemen sicherlich begrenzt.

Ängste in der Bevölkerung vor den Ergebnissen der Wissenschaft der Intellektik könnten sich aus einer Überschätzung der Leistungsfähigkeit der oben genannten Form des Kettenbrief-artigen Aufschaukelns der Intelligenz von Agenten durchaus ergeben, insbesondere wenn man die immanente Begrenztheit der Rationalität von Agenten in Betracht zieht. Der Punkt, an dem Systeme entstehen, die intelligenter sind als Menschen (wie auch immer das gemessen werden soll), wird manchmal als Singularität bezeichnet. Ein Aufschaukeln von Intelligenz, insbesondere auch durch automatische Kombination von selbstlernenden Teilsystemen, ist heute keine Realität, gerade auch weil die Rationalität von Agenten aus prinzipiellen Überlegungen heraus begrenzt sein muss. Das spontane Verwenden eines neu eingetragenen Kontaktes in einem Sprachassistenten, also eine Funktionalität, die wir heute schon vorfinden, ist aus dieser Perspektive wenig beeindruckend. Die korrekte Aussprache von neuen Namen ist aufgrund von großen Mengen an Sprachdaten heutzutage auch kein Hexenwerk.

Es ist allerdings deutlich zu machen, dass massenhafte Einflussnahme auf Menschen durch intelligente Agenten heute schon Realität ist und ohne Gegenmaßnahmen immer subtiler wird und auch noch deutlich zunehmen wird, so dass Demokratien in Gefahr geraten können. Man darf auch Intelligenz nicht mit Menschen-kompatiblem Verhalten verwechseln, denn das (unerwartet) schnelle Erreichen von Zielen heißt nicht, dass für Menschen sinnvolle Ziele auch in aus Menschensicht "vernünftiger" Weise durch einen Agenten eigenständig aufgesetzt werden. Sollte die menschliche Kontrolle über das Aufsetzen von Zielen in automatischen Systemen verloren gehen, ist wenig Gutes zu befürchten. Die Wissenschaft der Intellektik muss ihre Forschung darauf konzentrieren, nicht nur die Erstellung von in einem gewissen Sinne korrekten aber unkontrollierbaren Systemen zu ermöglichen, sondern beweisbar Menschen-kompatible Systeme zu erzeugen (siehe Russell 2019). Es wird berechtigt argumentiert, dass Agenten die Ziele bzw. Präferenzen von Menschen bzw. der Menschheit berücksichtigen müssen (und nicht ihre eigenen), damit für beteiligte Menschen beweisbar ein positiver Nutzen erzielt werden kann. Agenten sind zunächst unsicher über die Präferenzen von Menschen und reduzieren diese Unsicherheit durch situierte Interaktion. Eine permanente Unsicherheit über die Präferenzen von Menschen sollte ein Agent beibehalten, um frühere Fehler zu antizipieren und Anpassungen an wechselnde menschliche Präferenzen zu ermöglichen. Geisteswissenschaftliche Forschung spielt also eine bedeutende Rolle für die Intellektik.

Statt Ethik nur so zu begreifen, dass man Konstrukteuren von Systemen moralische Leitsätze natürlichsprachlich vorgibt (vgl. die Asimovschen Leitsätze der Robotik), bietet die KI die Möglichkeit, mit formaler Ethik intelligente Agenten in die Lage zu versetzen, über Modelle des moralischen Handelns die Präferenzen von Menschen mit weniger Aufwand zu schätzen und gegeneinander abzuwägen, was einen enormen Gewinn bezüglich zu kurz greifender ethischer Ansätze für die Konstruktion von Systemen darstellt und wichtige Perspektiven eröffnet (vgl. Begriffe wie z.B. Value Alignment, siehe Russell 2019). Nicht nur die Konstrukteure von KI-Systemen müssen nach ethischen Leitlinien handeln, sondern die konstruierten Systeme (Agenten) selbst. Letzteres wird nur gelingen, wenn bei der Entwicklung des Mechanismus eines Systems (Umgebung und Zusammenspiel der Agenten) berücksichtigt wird, dass das Handeln nach ethischen Leitlinien eine gewinnbringende Strategie darstellt! Die Grundlagen hierfür untersucht das Forschungsgebiet Algorithmic Mechanism Design. Der Ansatz, bei der Konstruktion von Systemen Ethikleitlinen zu befolgen, ist nicht falsch, wird aber den Notwendigkeiten, die sich aus dem Potential der KI ergeben, nicht vollumfänglich gerecht. Es muss erreicht werden, dass rationales Handeln von Agenten bestimmten Ethikleitlinien genügt.

Die wesentlichen Methoden und Techniken der Informatik aber auch der Geisteswissenschaften weiterzuentwickeln, die für den Aufbau und die Analyse beweisbar Menschen-kompatibler intelligenter Agenten notwendig sind, ist Gegenstand der Forschung in der Wissenschaft der Intellektik. Für die Realisierung von Teilaspekten von Agenten werden Programmiertechniken unter Verwendung von Machine Learning wie z.B.  Differential Programming, ein Nachfolger von Deep Learning, (z.B. zur Auswertung von Sensordaten) und Probabilistic Programming (z.B. für die Entscheidungsfindung) eingesetzt, wobei es bei den Techniken durchaus Überlappungen gibt (z.B. im Bereich der Variational Autoencoder Techniken). Probabilistisch-relationale Grundlagen der Modellierung von Realweltsystemen und Techniken der Datenanalyse (Data Science, Data Mining) sowie der optimierenden Entscheidungsfindung auf Basis großer Datenmengen (ggf. mit Web-Skalierung) sind ebenso grundlegend für die Systemerstellung in der Intellektik. Neue Ansätze zum Umgang mit unvollständigen Daten, wie z.B. prädiktives Lernen (auch: imputative learning) sollen insbesondere Probleme der Akquise von Wissen über allgemeine Lebensbereiche (Common Sense) lösen, was später auch in Anwendungen einfließen kann (z.B. Sprachverstehen).

Im Master-Studiengang Informatik bieten wir für interessierte Studierende hierzu eine Vertiefung Data Science und KI, für die die Vertiefung Web und Data Science im Bachelor-Programm einen ideale Basis bietet. Für technisch interessierte Studierende bieten wir den Studiengang Robotik und Autonome Systeme. Im KI-Kolloquium werden verschiedene Forschungsarbeiten vorgestellt.

Das Institut für Informationssysteme (Leitung: Prof. Dr. Ralf Möller) arbeitet an den stochastisch-relationalen Grundlagen der Modellierung in der KI und an der automatischen Gewinnung von probabilistischen relationalen Modellen aus Daten (Data- und Text-Mining, Stochastic Relational Maschine Learning, Web und Data Science) sowie an effizienten Anfragebeantwortungs- und Schlussfolgerungsverfahren bezogen auf komplexe Modelle (Wissensbasen), große Datenmengen und ausdrucksstarken Ontologie-Beschreibungssprachen. IFIS bietet eine breite Palette an Lehrveranstaltungen in den Bereichen KI und Data Science und stellt regelmäßig die Ergebnisse seiner Forschungsarbeiten auf deutschen und internationalen KI-Konferenzen und Zeitschriften vor.

Marcel Gehrke, Tanya Braun, Ralf Möller: Lifted Temporal Most Probable Explanation. In: Proc. of the International Conference on Conceptual Structures, 2019.

Özgür L. Özçep, Felix Kuhr, Ralf Möller: Influence-Based Independence. In: Proc. 32nd Int. Florida Artificial Intelligence Research Society Conference (FLAIRS-19), 2019.

F. Kuhr, R. Möller: Constructing and Maintaining Corpus-Driven Annotations. In: 2019 IEEE 13th International Conference on Semantic Computing (ICSC), p.462-467, 2019.

Tanya Braun, Ralf Möller: Fusing First-order Knowledge Compilation and the Lifted Junction Tree Algorithm. In: 8th International Workshop on Statistical Relational AI at the 27th International Joint Conference on Artificial Intelligence, 2018.

Tanya Braun, Ralf Möller: Parameterised Queries and Lifted Query Answering. In: IJCAI-18 Proceedings of the 27th International Joint Conference on Artificial Intelligence, p.4980-4986, 2018.

Alexander Motzek, Ralf Möller: Indirect Causes in Dynamic Bayesian Networks Revisited. In: Journal of Artificial Intelligence Research (JAIR), Vol.59, p.1-58, 2017.