KI - Wissensakquisition und Wissensrepräsentation

Dauer4 SWS
ArtVorlesung mit Übung
SemesterWS2018/19
DozentDr. Daniel Nyga
ÜbungsleitungMona Abdel-Keream
SpracheDeutsch
Empfohlende VoraussetzungGrundlagen der KI
TermineVorlesung: Di, 16-18 Uhr; Übung: Mo, 12-14 Uhr
Ort TAB-Gebäude (Am Fallturm 1), Eingang F, Raum 0.50/0.51
BemerkungenVorlesungsbeginn: Di, 16.10.2018
Übungsbeginn: Mo, 22.10.2018

Organisatorisches sowie Vorlesungsmaterialien können auf der Stud.IP-Seite zur Veranstaltung gefunden werde: Stud.IP page.

Wissensverarbeitung (Knowledge Processing/Engineering) ist ein Teilgebiet der Künstlichen Intelligenz, welches sich mit der konzeptionellen und technischen Unterstützung von Wissensprozessen innerhalb intelligenter Systeme beschäftigt. Wesentliche Merkmale der Wissensverarbeitung sind das Entdecken und Strukturieren von Wissen in großen Datenmengen (Knowledge Discovery/Machine Learning), das Ableiten von neuem Wissen aus vorhandenem Wissen (Inference/Reasoning), und die Kommunikation des Wissens mit einheitlicher Semantik über Systemgrenzen hinweg (Knowledge Exchange). Eine immer wichtigere Rolle spielen hierbei Methoden der unsicheren Wissensmodellierung, die es Agenten ermöglichen, in Gegenwart von unvollständigen, falschen, widersprüchlichen oder verrauschten Beobachtungen kompetent zu handeln. Die rasant zunehmende Menge an Information aus dem World Wide Web sowie die stetig wachsende Verfügbarkeit dieser Information machen automatisierte Wissensakquisitions- und Repräsentationsprozesse unverzichtbar. Methoden des maschinellen Lernens und der unsicheren Wissensverarbeitung kommen mittlerweile in fast allen Bereichen der rechnergestützten Informationsverarbeitung zum Einsatz, wie zum Beispiel in kognitiver Robotik, medizinischen Diagnosesystemen, virtuellen persönlichen Assistenten, Vorhersagen von Klima- und Finanzmarktentwicklungen, autonomem Fahren, Materialwissenschaften und vielen mehr.

Die Vorlesung behandelt grundlegende Techniken der statistischen Datenanalyse und Wahrscheinlichkeitstheorie, des Bayes'schen maschinellen Lernens und probabilistischer graphischer Modelle, wie auch den aktuellen Stand der Forschung im Bereich probabilistischer relationaler Wissensrepräsentation, probabilistischer Logik und ensemblebasierten Lernverfahren.

Die Inhalte sind im Einzelnen:

  • Probabilistische Wissensverarbeitung
    • Grundlagen der Wahrscheinlichkeitstheorie
    • Bayes'sches maschinelles Lernen
    • Markov-Netze vs. Bayes-Netze
  • Probabilistische Klassifikation und Regression
    • Naive Bayes
    • Logistic Regression
    • Bayesian Linear Regression
    • Classification and Regression Trees
  • Probabilistisches Schließen über die Zeit
    • Stochastische Prozesse: Markov-Ketten
    • Hidden Markov Models (HMM)
    • Conditional Random Fields (CRF)
  • Statistical Relational Learning
    • Markov logic networks (MLN)
  • Ensemble-basierte Lernalgorithmen
    • Adaptive Boosting (AdaBoost)
    • Gradient Tree Boosting (XGBoost)
    • Bagging & Random Forests