Information Systems and Applied Computer Sciences

Cognitive Systems

Research Colloquium Cognitive Systems

General Information

The research colloquium of the CogSys group is a forum for scientific discussion between lecturers, doctorate candidates and master students (interested bachelor students are welcome, too). Talks cover concepts and results of theses as well as current research in the field cognitive systems. Furthermore, current subjects of more general interest can be presented and discussed. Sometimes external researchers are invited.

If you want to be informed about current talks, please sign up for the  course KogSys: General Information in the virtual campus.

From 2014 to 2016 we participated in the Monday Afternon Club (MAC), a joint colloquium of the groups of theory (Mendler), programming languages (Lüttgen) and cognitive systems (look for the VC-course).

Talks SS 18

Dienstag, 12. Juni. 2018, 11:00 Uhr, Raum WE5/05.013

Verteidigung der Masterarbeit

Matthias  Delfs (MA CITH): Forecasting in the Supply Chain with MachineLearning Techniques (joint with Siemens Healtheneers)

This thesis was written in cooperation with Siemens Healthineers. The goal was to predict future sales figures of X-ray systems for the supply chain management. The product line consists of five different systems. Sales figures are predicted for all systems as a single quantity and also individually. The historic data supplied covered 15 years and consisted of 180 data points. These data points are a monthly census of sales related figures. The research question was to compare the performance of traditional time series modeling techniques from statistics with newly emerging machine learning approaches. The established time series modeling techniques were exponential smoothing and ARIMA. The machine learning techniques consisted of modeling feedforward neural networks and random forests. The performance of all methods was measured with the mean absolute percentage error. The best performance of all implemented methods resulted from an extended ARIMA model (ARIMAX). Moreover, the thesis included implementing a software tool for the supply chain management to make forecasts in practice.

Mittwoch, 09. 05. 2018, 12:00 Uhr, Raum WE5/05.013

Verteidigung der Masterarbeit
Ines Rieger (MA CitH): Head Pose Estimation Using Deep Learning

Head poses are an important mean of non-verbal human communication and thus a  crucial element in human-computer interaction. While computational systems have  been trained with various methods for head pose estimation in the recent years, approaches based on convolutional neural networks (CNNs) for image processing have  so far proven to be one of the most promising ones. This master’s thesis starts of  improving head pose estimation by reimplementing a recent CNN approach based on  the shallow LeNet-5. As a new approach in head pose estimation, this thesis focuses  on residual networks (ResNets), a subgroup of CNNs specifically optimized for very  deep networks. To train and test the approaches, the Annotated Facial Landmarks in  the Wild (AFLW) dataset and the Annotated Faces in the Wild (AFW) benchmark  dataset were used. The performance of the reimplemented network and the implemented ResNets of various architectures were evaluated on the AFLW dataset. The  performance is hereby measured in mean absolute error and accuracy. Furthermore,  the ResNets with a depth of 18 layers were tested on the AFW dataset. The best  performance of all implemented ResNets was achieved by the 18 layer ResNet adapted  for an input size of 112 x 112 pixels. In comparison with the reimplemented network  and other state-of-the-art approaches, the best ResNet performs equal or better on the AFLW dataset and outperforms on the AFW dataset.



Donnerstag, 26. April 2018, 09:30 Uhr, Raum WE5/02.020

Verteidigung der Masterarbeit
Louisa Maaß (MA AI):  Lernen regulärer Ausdrücke aus wenigen Nutzerinteraktionen
 für intelligentes Ersetzen in Texten

Der Einsatz von regulären Ausdrücken in der Textverarbeitung bietet das Potential, auch komplizierte Aufgaben mit relativ wenig Aufwand zu bewältigen. Vielen Nutzern fehlen jedoch Kenntnisse über das Schreiben regulärer Ausdrücke, wodurch oftmals eine Anpas- sung der Texte per Hand erfolgt. In der vorliegenden Arbeit wird ein Ansatz für intelligen- tes Ersetzen vorgestellt, mithilfe dessen der Nutzer lediglich Beispiele bereitstellen muss, um einen Vorschlag für ein automatisiertes Anpassen zu erhalten. Ein Algorithmus für das Lernen regulärer Ausdrücke aus Beispielen wurde implementiert, welcher unter geringer Laufzeit zwei Beispiele abstrahiert und aus diesen Abstraktionen reguläre Ausdrücke er- zeugt. Durch das Einbinden der Programming–by–Example–Technologie PROSE können Anpassungen, die der Nutzer im Text vornimmt, verallgemeinert und auf weitere Beispiele angewandt werden. Der Nutzer muss somit lediglich zwei Beispiele verändern und kann im Anschluss diese Veränderung auf den Rest des Textes übertragen.



Donnerstag, 19. April 2018, 12:00 Uhr, WE5/05.013

Verteidigung der Masterarbeit
Andreas Foltyn (MA AI):  Towards automated segmentation of plants – An exploration of deep neural networks for leaf isolation in agricultural crops

Plant phenotyping describes the quantitative analysis of observable plant traits and is gaining importance especially for effective plant breeding. Increasingly,the manual examination of plants is replaced by image-based methods, for which raw data often has to be segmented into semantically coherent parts, such as leaves. To this end, this thesis examines how deep neural networks can be used to segment 3D point clouds of plants, semantically as well as instance-base. In semantic segmentation, the plant is divided into distinct classes, while instance segmentation also distinguishes between individual instances of these classes. For this purpose, two approaches were selected for each case, which were compared with each other. The results show that for semantic segmentation existing methods are already performing well. Although satisfactory results have been achieved for instance segmentation, this task still poses a challenge and requires further research.  



Donnerstag, 19. April 2018, 10:00 Uhr, WE5/05.013

Master-Projekt Präsentation
Krist Fama, Daniel Schäfer (MA AI Projekt):  Pain Recognition with Cartesian Genetic Programming

Pain recognition has recently received significant attention. Over the past years a lot of work is done in this field, trying to find the one equation which defines the pain expression of all humans. Hence it is not a trivial challenge and it depends on a lot of factors. Different methods has been tried in automating pain recognition and some of them achieved good results. We chose Cartesian Genetic Algorithm(CGP) to identify pain by generating a Regular Expression(RegEx) that combines Action Units(AUs). We systematically review the mutation, fitness function and the evolutionary algorithm to achieve good results. The implementation steps are summarized and the statistical result are shown. There are two underlying motivations for us to write this paper. First, wheather it is possible to achieve a simple RegEx which correctly identifies pain expressions of all humans and second to find out how CGP fits with our problem and what results it achieves.

Talks WS 17/18

Dienstag, 27. Februar 2018, 11:00 Uhr, WE5/05.013

Tobias Hecht (MA AI): Context Aware Robot Assistance - Applying Reinforcement Learning to Make Pepper Offer Help to a Human Memory Player

In this thesis the question is examined, whether it is possible to equip the humanoid robot Pepper with learning means to adapt to social circumstances. Therefore, a reinforcement learning algorithm was designed and implemented on Pepper. To evaluate the practicability and possibility of learning from a task-oriented social interaction, the robot was put in a shared spatial environment together with a human. The task was to find all corresponding pairs in a Memory game with as less card turns as possible. Although results from the conducted evaluation study show that learning from social interaction is basically possible, the implemented algorithm is only of limited use and needs several improvements.




Donnerstag, 22. Februar 2018, 12:00 Uhr, WE5/05.013

Marco Dorner (MA AI):  Ein lernbasierter Companion-Ansatz zur Transformation von semi-strukturierten in strukturierte Daten – Systematische Evaluation der FlashMeta Technologie

 Die Automatisierte Erzeugung von Programmen ist eine Problemstellung die im professionellen wie im privaten „Computer-Alltag“ relevant ist. Immer dann, wenn ein Computernutzer sich mit repetitiven Aufgaben konfrontiert sieht, wäre ein kleines Programm sinnvoll. Für Benutzer ohne Programmierkenntnisse ist das allerdings nahezu unmöglich.
In dieser Arbeit wird das PROSE Framework betrachtet, ein von Microsoft entwickeltes Framework zur automatisierten Programmsynthese anhand von Beispielen. Zur Programmsynthese werden Beispiele für die gewünschte Programmausgabe spezifiziert. Programme werden dann mit Hilfe einer vorher definierten Grammatik erstellt. Der Synthesealgorithmus ist prinzipiell domänenunabhängig. Zur Effizienzsteigerung kommt für verschiedene Operatoren domänenspezifisches Wissen zum Einsatz. Um die Funktionsweise von PROSE zu analysieren wurden für drei domänenspezifische Sprachen mehrere Programme synthetisiert.  Diese Programme sollten unterschiedliche Datenextraktionsaufgaben aus einem generisch erzeugten Tabellensatz erledigen. Nicht immer konnte das richtige Programm erzeugt werden. Die Ergebnisse deuten darauf hin, dass der Einsatz eines Companions gerade bei Unregelmäßigkeiten in den Daten durch Rückfragen hilfreich sein kann.



Montag, 13. November 2017, 12:00 Uhr, WE5/05.013

Dr. Michael S. Bittermann: Kognition als Kontinuum der  Pareto-Nichtdominiertheit
im Raum der Entscheidungsvariablen

Ein rechnerisches Modell der Kognition ist Gegenstand des Vortrags. Kognition wird in dieser Arbeit definiert als Bereitschaftszustand, unverzüglich das Beste zu tun, unter Einbeziehung der Einmaligkeit des Umstands in dem sich der/die kognitiv Handelnde befindet. Das „Beste“ bedeutet, dass die Handlung eine minimale Veränderung des Umstands bewirkt, der veränderte Umstand jedoch die Zielsetzungen, welche vom Handelnden verfolgt werden, maximal erfüllt. Von dieser Warte aus erscheint Kognition als eine Form robuster, unmittelbarer Optimierung. Im vorliegenden rechnerischen Modell wird die Formation von Kognition durch stochastische Mehrzieloptimierung abgebildet, deren Resultate über ein selbst-assoziatives Radiale-Basisfunktionen-Netz verallgemeinert werden. Das so trainierte Netz wird mit einem Tupel stimuliert, welches den Umstand darstellt, in dem sich der/die kognitiv Handelnde gegenwärtig befindet. Dies führt am Netzwerkausgang zu einem Tupel, das den durch Einsatz der Kognition veränderten Umstand darstellt. Der zu erwartende Unterschied zwischen Eingangs- und Ausgangstupel identifiziert die „beste“ Tat gemäẞ obiger Definition. Die vorwärts gerichtete, parallele Kopplungsstruktur des Netzwerks sorgt dafür, daẞ die Antwort unmittelbar nach der Stimulation des Netzes vorliegt. Der Einsatz sich überlappender Radiale-Basisfunktionen sorgt für die Robustheit und Einmaligkeit der Antwort. Zur Überprüfung der Gültigkeit des Modells wurden Computerexperimente ausgeführt. Deren Resultate weisen nach, dass das Radiale-Basisfunktionen-Netz mathematisch gesehen einem Kontinuum im Raum der Entscheidungsvariablen entspricht. Nämlich es stellt ein Hypervolumen oder eine Hyperoberfläche dar, das nicht-dominierte von dominierten Regionen des Entscheidungsraums unterscheidet. Rechnerisch betrachtet entspricht Kognition demnach dem Streben im mehrdimensionalen Entscheidungsraum, einen Punkt, welcher sich auẞerhalb des Kontinuums der Nichtdominanz befindet, durch neuronale Informationsverarbeitung auf sozusagen „kürzestem“ Weg an das Kontinuum heranzuführen. Diese Konzeption des Kognitionsphänomens ist neu, und durch ihr mathematisches Wesen ist ihre Undeutlichkeit minimal.



Talks SS 17

Mittwoch, 19. Juli, 12:15 Uhr, WE5/05.013

Rambabu Gupty (MA IntSoSySci): Applying Deep Learning for Classifying Images of Hand Postures in the Rock-Paper-Scissors Game

The goal of our research is to build a model for visual recognition. First, I described Convolutional neural networks, its methods and techniques. Moreover, I also presented briefly the history of deep learning. After that, introduction about few architectures of convolutional neural networks were discussed. The crucial thing about this experiment is that we are dealing with fewer amounts of data for deep learning training and spend less computation power to perform training as architecture is relatively small. I also include several models with different methods and techniques to achieve the best accuracy on CIFAR10 datasets. In the experiment, architecture has to be designed, to classify images of three hand postures of ”Rock-Paper-Scissors” game. An intelligent agent (named NAO) plays this game with people. So, deep learning model has to be built for identifying different hand postures of image. Based on results, similar architecture (with techniques and methods) which obtained higher accuracy in that experiment has been used to classify hand postures of the game.

Dienstag, 16. Mai, 14 Uhr, WE5/05.013

Mark Gromowski: Extending Hidden Markov Models to Set-Valued Observations: A Comparison of Different Approaches on Sequences of Facial Expressions

The present thesis describes the implementation of a classification system based on the concept of Hidden Markov Models. Combinations of parallel observations that occur in the course of an observation sequence are handled either by representing them as separate symbols in the alphabet of possible observations or by using an updated HMM concept processing them as sets of observations. The classification system, which is realized as an extension of the data mining software RapidMiner, is evaluated by applying it to sequences of Action Units representing facial expressions. The system achieves modest results in classifying facial expressions decoding pain and other sentiments. Generalising or completely removing AUs that are irrelevant for the classification of pain leads to a higher recall for the class pain but can result in a decrease of the overall performance. Processes applying the updated HMM concept require more computation time but fewer states and iterations of the training process in order to achieve their optimal results.

Dienstag, 2.Mai, 15 Uhr, WE5/05.013

Marina Jobst: Sequenzbasierte Vorhersage des Kaufverhaltens unter Verwendung von Clickstream-Daten

Laut dem jährlich erscheinenden Global B2C E-Commerce Report der E-Commerce Foundation haben im Jahr 2015 ca. 73% der Bevölkerung in Deutschland über das Internet eingekauft (Willemsen, Abraham, & van Welie, 2016). Seit der Einführung des elektronischen Handels in den 90ern hat sich der Sektor rapide entwickelt, auch im Jahr 2016 wurden zweistellige Wachstumsraten erreicht. Jedoch müssen im E-Commerce alle traditionellen Geschäftsmechanismen überdacht werden, da die Beziehungen zwischen dem Kunden und dem Händler einen Wandel durchlebt. Die Nutzer können einfach zwischen verschiedenen Online-Shops wechseln und beispielsweise Preise vergleichen. Um sich einen Vorteil vor der Konkurrenz zu verschaffen, ist es wichtig den Kunden exakt zu kennen und dessen Verhalten zu analysieren und vorherzusagen. Eine der wichtigsten Quellen von Informationen über das Verhalten der Kunden sind Clickstream-Daten. Diese werden definiert als der elektronische Rekord der Aktivität des Nutzers im Internet (Bucklin & Sismeiro, 2009). In dieser Arbeit wird eine Klassifikation von Clickstream-Daten des BAUR-Online-Shops mittels Hidden Markov Modellen durchgeführt. Hierbei wird eine Einteilung der Kunden in Käufer und keine Käufer vorgenommen. Die Clickstream-Daten werden auf verschiedenen Ebenen betrachtet, die sich im Detaillierungsgrad unterscheiden. Bei einer ersten Evaluation konnten sehr gute Ergebnisse bei der Accuracy erreicht werden. Jedoch müssen für den Einsatz im Real-Time-Umfeld noch Fragen geklärt werden, wie beispielsweise zu welchem Zeitpunkt einer Session eine Klassifikation sinnvoll ist oder wie die Sortimente geschnitten werden müssen, um möglichst genaue Vorhersagen zu treffen.

Talks WS 16/17

Freitag, 11. November, 10:15 Uhr, WE5/05.013

Adrian Schwaiger: Model selection - Hoeffding Races and Bernstein Stopping

Model selection is an important part of machine learning --
either selecting between different learning algorithms or within the
same algorithm using different parameters (parameter optimization).
Evaluating the performance of every model using cross-validation can be
cumbersome or even unfeasible. In this talk methods will be presented
which render the need to complete all cross-validations obsolete.
Candidate models are eliminated ahead of time if they will necessarily
be outperformed.


Dienstag, 08.11.2016,  16:15 Uhr, WE5/04.003 (MAC)

Johannes Rabold: "Exploring Deep Learning for Image Data -- Effort and Performance for Learning a Classifier for Facial Expressions of Pain" (BA Thesis Presentation)

This thesis describes the workflow of automatically recognizing the occurrence of pain in a facial image. A technique called convolutional neural network from the deep learning context will be described and utilized for this task. The traditional way of detecting pain in faces relied on hand-crafted features. These can be error-prone and sometimes not be suitable for the given task. Deep learning techniques provided promising performance results in the recent years. In order to explore the potential of deep learning for the pain detection task, we designed multiple convolutional network architectures and trained them on the popular UNBC Pain Archive. The results of our tests are promising and with a little improvement can reach the performance of current classifiers for pain detection.



Freitag, den 23.9. um 10 Uhr in 5.013 (Lab)

Lea-Louisa Maaß: A Webbased Frontend for Easy Interaction with the Inductive Programming System Igor - Inference of Constructor Terms from Examples and Interactive Testing of Generated Programs (Probevortrag für eine Präsentation, Microsoft Research in Redmond, Washington, USA)

A developer’s work can get quite repetitive. This tedious part of his or her job decreases work time efficiency by a considerable amount. Inductive programming systems can provide a solution to this issue. These tools require only input- and output examples provided by the user to generate the needed functions.
One of these systems is called IGOR II and has been developed by the University of Bamberg. Because of the necessity to use constructor terms instead of native representations of certain data types, interaction with IGOR II is rather elaborate, which distinctly limits its accessibility.
In my talk I will present the newly developed user interface easyIGOR, which allows one to easily interact with IGOR II. On top of providing examples in a readable manner comprehensible for almost everybody, it now is also possible to easily test the function that IGOR II generates with new inputs. At this point, IGOR II is usable by a broad audience and ready to be tested thoroughly.

Bachelorarbeit zum Thema



Talks SS 16

Montag, 30.5.2016,  14-18 Uhr, WE5/05.005

"Workshop on Symbol-Level Learning"

14 - 16 Uhr:

Prof. Dr. Fritz Wysotzki, TU Berlin: Zur Modellierung des Assoziativen Gedächtnisses in Beziehung zu Gehirnstrukturen und tieferen Ebenen.

In Ergänzung zu Vorträgen zur Modellierung des Assoziativen Gedächtnisses auf der Basis von Assoziationsmatrizen und episodischen Grundstrukturen, die bereits von mir in Bamberg vorgetragen worden sind, werden im nächsten Vortrag (nach einer vereinfachten Kurzdarstellung des o.g. ersten Teils) wichtige und für ein tieferes Verständnis notwendige Folgeprozesse betrachtet:

  • die Bildung (das "Lernen") von Narrativen (subjektive "Erzählungen", aus Grundbestandteilen des ersten Teiles gebildet),
  • die Wechselwirkung mit speziellen Gehirnteilen, insbesondere mit dem emotionalen Gedächtnis und seinen Wechselwirkungen (Implizites Gedächtnis),
  • die Wirkung von 2 Typen von (von außen kommenden) Bewertungen, die die Effektivität von Handlungen bzw. Entscheidungen zusätzlich steuern.

16-18 Uhr (MAC):

Michael Siebers: Learning Generalized Patterns of Event Sequences with ILP

Christina Zeller: Modeling Human Rule-Based Classification Learning

Mark Wernsdorfer: Symbol Grounding as Hierarchisation of Integrated Sensorimotor Sequences



Donnerstag, 19.5.2016, 12 Uhr,  WE5/05.013

Christian Teichmann: Ego-Perspective Simulation of Moral Dilemmata and Identification ofBehavioural Predictors of Moral Decisions (Masterarbeit CitH)

A situation without a “back door”, including simply negative decision options, followed by an unpredictable outcome with consequences we can not estimate - this could be a moral dilemma. Is there anything worse? Everyone might act differently facing moral dilemmata or do we have something in common? How do we ascertain our decision and is there an impact of the consequences on us? There are plenty of questions we could derive from dealing with moral dilemmata. Is it possible to get an answer for each of them?

 Researchers of different decades have dealt with this topic and have developed different methods to study their hypotheses. And with the technological development new tools can be used to carry out a study. Even new media like games can be helpful for research, but to which extend? Computer games are a very new medium if you consider all other media like films or books. They become very popular within a very short time. And not only they are popular among young adults but among all age groups. This aspect makes them attractive for the research in moral dilemmata.

 In this thesis I’d like to introduce the implementation of a simulation which will be part of a study from Ena Franz and Victoria Göetz, two psychology students in the master program. We have developed a conceptual basis for the program and cooperated during the implementation phase of the game. As a short introduction I’d like to present some previous work on the topic morality. It will be followed by the conceptual groundwork and the implementation of the simulation itself. At least I wanted to say a few words to the potential for the future research.



Freitag, 15.4.2016, 10 Uhr,  WE5/05.013

Verteidigung der Masterarbeit von Mike Imhof (Computing in the Humanities):
Classification of ERP Components with Imbalanced Datasets
A Comparison of Linear Discriminant Analysis and Logistic Regression

Event-related potential (ERP) components describe voltage fluctuations in the ongoing electroencephalogram (EEG) which is a method to record electrical activity of the brain. The classification of ERP components can be used to control systems over a brain-computer interface (BCI) such as a mental typewriter. It is based on attentional selection processes of letters and can be used as a communication device by individuals who cannot use any motor system (e.g. patients with locked-in syndrome). Linear discriminant analysis (LDA) is a widely used method for classification of ERP components. Although it makes more assumptions about the underlying data compared to other methods, it is recommended to use LDA, even when the requirements are not fulfilled. It is accepted to take a loss in performance in order to gain the advantage of the simplicity of LDA. I compare LDA with linear regression (LR) that also convinces by its simplicity, but makes less assumptions. For this purpose I apply both methods to electroencephalogram data containing an error-related negativity which is an ERP component that occurs during error trials in choice reaction tasks. It belongs to the group of error-related potentials (ErrPs) and its classification has proven to improve the performance of mental typewriters and other systems using a BCI. Datasets containing ErrP components are usually characterized by class imbalance whereas the error class (target class) is under-represented. A performance evaluation using the receiver operating characteristic show that under class imbalance conditions, LR yields better results than LDA. These results indicate that LR is a more suitable candidate for ERP classification as LDA under certain conditions.

Talks WS 15/16

Donnerstag, 4.2.16, 12 - 14 Uhr, WE5/05.005

KogSys-Projekt: Das Schmerzgesicht

Abstract: Die meisten Menschen sind in der Lage, wahrzunehmen, wenn ihrGegenüber Schmerzen empfindet. Ein wichtiger Indikator ist hierbei derGesichtsausdruck des Gegenübers. Es zeigen sich aber auch andereEmpfindungen im Gesichtsausdruck. Einige davon, wie zum Beispiel Freude,können leicht von Schmerz unterschieden werden. Der Gesichtsausdruck vonEkel ist dem von Schmerz allerdings sehr ähnlich. In diesem Projekt wurde untersucht, wie sich Schmerz- undEkelgesichtsausdrücke voneinander unterscheiden. Verwendet wurden Dateneines Versuches der Physiologischen Psychologie, in dem ProbandenSchmerz-, Ekel- und neutrale Mimik zeigten. Aus den symbolischrepräsentierten Daten (keine Bilder/Videos) wurden abstrakteBeschreibungen (Klassifikatoren) gelernt und diese evaluiert.

Freitag, 4.12.15, 10:30 Uhr, WE5/05.013

Teena Hassan & Dominik Seuss (Fraunhofer IIS & Cognitive Systems Group): Automatic Facial Action Unit Detection

Facial expressions are social signals that could reveal an underlying emotional state or physiological condition. They are a key component of nonverbal behavioral analysis. Psychologists have developed a comprehensive framework for analyzing facial expressions through the basic visually distinguishable motions of facial muscles. The framework is called Facial Action Coding System (FACS) and the basic facial movements are called Action Units (AU). The framework allows an objective analysis of facial expressions by coding any facial expression as a combination of AUs along with their intensities.

In this project, we use a model-based approach to infer AU intensities from videos of facial expressions. We use a 3D deformable model of human facial geometry that describes the person-dependent and expression-related shape variations. We combine information about facial geometry and facial appearance in a state estimation framework to infer AU intensities. A motion model based on the viscoelastic properties of facial muscles is used to model the changes in AU intensities over time.

In this presentation, we will provide an overview of the approach, present some evaluation results, and briefly discuss the next steps. 

Talks SS 15

Dienstag, 13.10.15, 16:00 – 18:00 (ct), WE5/01.006

Einladung zur Abschlusspräsention: „Bamberg zaubert: Sensorbasierte Online-Prädiktion von Besucherbewegungen bei Straßenfesten“

Vom 17.-19. Juli 2015 wurde das Festival „Bamberg zaubert“ von einem studentischen Projekt der Uni Bamberg begleitet. Insgesamt 12 Studierende waren im Einsatz, um mit Hilfe von Flowtrack®-Sensoren Besucherströme zu messen, Besucher zu ihrer Mobil-Nutzung zu be-fragen und an einem Stand über das Projekt zu informieren.
Das Projekt unter der Leitung der Bamberger Informatik-Professorinnen Dr. Daniela Nicklas und Dr. Ute Schmid lädt nun zur Abschlusspräsentation der Ergebnisse ein. In drei Teams wurde un-tersucht, wie sich Besucherzahlen zum aktuellen Zeitpunkt vorhersagen können, wie Gruppen von Besuchern erkannt werden können, die gemeinsame Wege gehen, und wie Besucherströme visualiert werden.
Die Veranstaltung ist öffentlich

Do, 30.7.15, 10:00, Raum WE5/05.013

Christina Zeller: Automatische Erzeugung analoger Beispiele aus Debugging-Traces -- Konstruktion von Rückmeldungen für ein Intelligentes Tutor-System zur schriftlichen Subtraktion (Master CitH)

Die schriftliche Subtraktion stellt eine wichtige Kulturtechnik dar. Beim Erlernen werden gehäuft systematische Fehler begangen. Es ist nicht sicher, ob Lehrende dieser immer richtig erkennen und ob Lehrende genug Zeit haben um auf jeden Lernenden individuell einzugehen. Auf Grund der Systematisierung der Fehler können Diagnosemodelle entwickelt werden. Diese Diagnosemodelle können in Intelligenten Tutor-Systemen verwendet werden. Intelligente Tutor-Systeme sind computerbasierende Systeme, die einem Lernenden beim Lernen individuelle Rückmeldung geben. Diese Systeme können unterschiedlich implementiert werden. In dieser Arbeit werden die Vorteile zweier Systeme zusammengefügt. Dadurch entsteht ein System, dass zur Diagnose Algorithmic Debugging verwendet und bei der Diagnose eines Fehlers automatisch eine analoge Aufgabe unter Berücksichtigung des diagnostizierten Fehlers generiert. Die Korrektheit der einzelnen generierten analogen Spalten einer analogen Aufgabe wird mit Hilfe von Strutktureigenschaften und mathematischen Betrachtungen nachgewiesen. Es bleibt jedoch fraglich, ob eine formale Korrektheit dem Anspruch eines Experten an die analogen Aufgaben genügt. Die empirische Prüfung des Systems im Bezug auf erfolgreiches Lernen und der Einfluss auf andere lernförderlichen Variablen steht aus. Diese Prüfung erscheint erst sinnvoll, wenn weitere Forschungserkenntnisse in der graphischen Oberfläche des Systems berücksichtigt werden. Abschließend wird verdeutlicht, dass ein Intelligentes Tutor-System ein unterstützendes Werkzeug der Lehre darstellt. Es darf adaptiv und individuell auf den Lernenden eingehen. Es muss jedoch berücksichtigt werden, dass es ein bestimmtes Ziel verfolgt und dabei auch akzeptable Grenzen aufweisen darf.

MO, 27.7.15, 9:00 s.t., Raum WE5/05.013

Norman Steinmeier: Evaluation der Güte eines Partikelschwarm-Algorithmus zur Funktionsapproximation (Master AI)

In der Masterarbeit wird die Güte eines Approximationsverfahrens auf Basis von Partikelschwarmoptimierung zur Findung numerischer Gegebenheiten innerhalb einer Menge von Daten untersucht. Dabei soll ein vorgegebenes Gerüst eines mathematischen Ausdrucks so in seinen Parametern bestimmt werden, dass für vordefinierte Eingabewerte eine Näherungslösung eines Ausgabewertes möglich ist. Die Güte des Verfahrens wird durch die Abweichung vom ursprünglich vorgegebenen Ausgabewert und errechneten Ausgabewert bemessen. Ausgehend von wichtigen Grundlagen und einer Erläuterung des Untersuchungsaufbaus findet eine abschließende Bewertung der Eignung des Verfahrens für ein reales Problem statt. Außerdem sollen verschiedene Konfigurationen und Funktionsprototypen für einen Vergleich herangezogen werden.

Präsentation studentischer Arbeiten:

DO, 21.5., 9-12 Uhr, Raum WE5/05.013
Ergebnisse Studentischer Arbeiten zum Thema Induktion von Zahlenreihen

  • 9:00: Barbora Hrda und Christian Teichmann: Cognitive Models for Number Series Induction Problems -- An Approach to Determine the Complexity of Number Series (Seminar)
  • 10:00 Henrik Marquardt: Induction on Number Series - A case study with MagicHaskeller on the Web (Bachelor-Projekt)
  • 10:30 Barbora Hrda und Dea Svoboda: Alternating Number Series Problems in IGOR 2 (Master Projekt)

MO, 18.5., 16-18 Uhr, Raum WE5/03.004
Ergebnisse des Bachelor-Projekts Verteiltes Problemlösen

Daniel Bernhard, Bettina Finzel, Michael Groß, Christian Teichmann
Eine im Rahmen der Bachelorarbeit von Tina Kämmerer entwickelte Multi-Agenten-Simulation für eine Schatzsuche wurde um zwei Kooperationsstrategien ergänzt. Zum einen wird über Broadcasting kommuniziert, zum anderen über einen zentralen Agenten. Die Auswirkung der Strategie auf die Effizienz der Zielerreichung wurde systematisch untersucht.

Kolloquium Montag, 4.5.15, 16 Uhr c.t., WE5/05.003

Fritz Wysotzki (TU Berlin): Modellierung des Assoziativen Gedächtnisses

Schwerpunkt ist die Verwendung von symbolischen Repräsentationen auf der Basis eines Episodischen Gedächtnisses mit (kurzem) Bezug zu den klassischen Semantischen Netzen auf der nächsthöheren Ebene. Der Vortrag beginnt mit den theoretischen Grundlagen, folgend von anschaulichen Beispielen für die Funktion des menschlichen Erinnerns von im Gedächtnis gespeicherten Strukturen mit neuen Ergebnissen. Eine neurobiologische Interpretation erfolgt am Rande, kann aber in der auf den Vortrag folgenden Diskussion ausführlicher behandelt werden. Das Problem der verschiedenen Repräsentationsschichten und deren Zusammenhang ist z.Zt. international sehr aktuell.

Talks WS 14/15

Kolloquium Montag, 30.3.15, 10 Uhr, WE5/05.013

Sebastian Boosz: Applying Anti-Unification Strategies to Matching and Generalization of Recursive Functions - Investigating a Second-order approach for Learning from Examples (Masterarbeit AI)

Programmers seldom invent completely new programs, instead they tend to adapt existing programs by analogical reasoning. After a suitable source program has been found, it is a feasible strategy to picture the execution behavior of that program for a certain input. The programmer then tries to envision the execution behavior of the desired program for the very same input. Comparing, she can draw conclusions about what both programs have in common and where the differences are located. Adapting the existing program by applying those differences appropriately, yields the desired program. In this thesis a programming by analogy approach is investigated for recursive func- tions. Based on concrete unfoldings of source and target functions, higher-order anti- unification is used to find a generalization, revealing differences between source and target. A set of heuristics was developed which is used to match and apply those dif- ferences to the source function in order to transform it into the corresponding target function. The success of the heuristics is evaluated and possible means of improvement are suggested.

Keywords: recursion, recursive functions, higher-order anti-unification, generalization, programming by analogy, learning from examples, heuristics

Kolloquium Dienstag, 24.3.15, 10:00 Uhr, WE5/05.013

Frederic Ehmann: Künstliche Intelligenz in Computerspielen -- Lernen von Handlungsstrategien eines autonomen Agenten am Beispiel eines Jump 'n' Run Computerspiels (Masterarbeit AI)

Diese Masterarbeit handelt von dem Lernen von Handlungsstrategien eines autonomen Agenten, der ein Jump 'n' Run Computerspiel spielt. Die Stages werden zufällig generiert, um anschließend von dem Agenten gelernt zu werden. Hierbei soll von Stage zu Stage gelernt werden, um einen stetig ansteigenden Score zu erreichen. Der Score ist die Bewertung der bisherigen Errungenschaften und der Effektivität. Zum einen sollten möglichst in derselben Stage sichtbare Verbesserungen im Score durch das Lernen entstehen, zum anderen sollten von Stage zu Stage Verbesserungen im Score sichtbar werden. Ein Ausgangszustand kann durch eine Aktion (z.B. Bewegung nach rechts) in einen Folgezustand geführt werden. Hierbei entsteht ein Reward. Ein Reward bezeichnet die Bewertung für das Ausführen einer Aktion in einer bestimmten Situation. Diese Situation wird als Zustand bezeichnet. Zustände werden in dieser Arbeit nur durch ihre Eigenschaften de?niert und nicht etwa nummeriert. Der Reward wird nicht nur kurzfristig, sondern auch langfristig betrachtet (durch Q-Learning). Zunächst werden Informationen über die langfristigen Rewards von Anfangszuständen und Aktionen erhalten. Diese Informationen werden genutzt, um klassische Vorhersagealgorithmen (Linear Regression und K Nearest Neighbors) zu verwenden. Somit können ebenfalls unbekannte Anfangszustände und Aktionen einem vorhergesagten langfristigen Reward (Q^-Wert) zugeschrieben werden. So wird die Aktion mit dem höchsten vorhergesagten langfristigen Reward als vermeintlich beste Aktion bestimmt.

Kolloquium Montag, 8.12.14, 10:00 Uhr, WE5/05.004

Florian Muth & Sebastian Ulschmid: Anwendung von Feature-Extraktionsmethoden und Klassifikationslernen zur Identifikation von Fahrzeugtypen (Ergebnisse des Master-Projekts)

Wie können Fotos der Fahrzeugmodelle A4 Limusine, A5 Coupe, A7 Sportback und A3 Basis von der Firma Audi durch Verwendung von Bildverarbeitung und maschinellem Lernen zur Unterscheidung/Identifizierung der Modelle herangezogen werden? Für die Klassifizierung beschränkten wir uns zunächst auf die Features hintere Seitenscheiben, Tankdeckel sowie seitliche Reflektoren die es zu erkennen gilt. Anschließend wurde untersucht, wie globale Verfahren angewandt werden können, also Verfahren, welche nicht auf spezifische Merkmale der Fahrzeuge, sondern auf bild-eigenen Merkmalen basieren. Diese Ansätze wurden dann kombiniert, um deren Vorteile zu vereinen und eine möglichst exakte Klassifizierung zu erreichen.

MAC Dienstag, 2.12.14, 16:00 Uhr, WE5/05.004

Ute Schmid, Applying Inductive Program Synthesis to Induction of Number Series -- A Case Study with IGOR2 

Induction of number series is a typical task included in intelligence tests. It measures the ability to detect regular patterns and to generalize over them, which is assumed to be crucial for general intelligence. There are some computational approaches to solve number problems. Besides special-purpose algorithms, applicability of general purpose learning algorithms to number series prediction was shown for E-generalization and artificial neural networks (ANN). We present the applicability of the analytical inductive programming system Igor2 to number series problems.
An empirical comparison of Igor2 shows that Igor2 has comparable performance on the test series used to evaluate the ANN and the E-generalization approach. Based on findings of a cognitive analysis of number series problems by Holzman et al. (1982, 1983) we conducted a detailed case study, presenting Igor2 with a set of number series problems where the complexity was varied over different dimensions identified as sources of cognitive complexity by Holzman. Our results show that performance times of Igor2 correspond to the cognitive findings for most dimensions.

Kolloquium 13.10.14, WE5/05.013

Martina Milovec: Applying Inductive Programming to Solving Number Series Problems - Comparing Performance of IGOR with Humans (Masterarbeit AI)

Number series problems in IQ tests are challenging, especially for humans and computer programs. This thesis presents a comparison study between the IGOR algorithm and human performance on number series problems. IGOR's task was to find a correct function for number series problems with different complexity factors, in order to generate the number series from this function. IGOR's performance results bring closer the capabilities of a computer program to the human intelligence. The introduction of this thesis describes induction and the psychological background. Furthermore, different computer models for solving number series problems, such as MagicHaskeller, ANN, Semi-analytical model, Spaun, Asolver and Seqsolver, are given. A short introduction to the IGOR algorithm in Maude and representation of number series problems in IGOR is also given. The results first focus on the human performance and the preliminary study on number series problems with IGOR. Secondly, the comparison of both performances of IGOR and humans are represented and summarized. The conclusion gives an overview of the results, problems and some corresponding solution suggestions, as well as ideas for further research on number series problems with IGOR

Talks SS 14

Kolloquium, 15.9.14, 16:00 Uhr (s.t.) WE5/05.013

Tamara Engelbrecht, Norman Steinmeier:  Wahrnehmungsqualität dreidimensionaler Video Streams/Quality of Experience in Stereoscopic Video Streaming
(Ergebnisse des gemeinsamen MA Projekts mit KTR)

Entwurf eines Untersuchungsdesigns zur Klärung der Frage: Welche Art und welche Stärke von Übertragungsfehlern bei gestreamten 3D-Videos sind insbesondere qualitätsverschlechternd? Informationen zur Durchführung des Experiments, sowie anschließende Darstellung und Bewertung der Untersuchungsergebnisse. Informationen zur Weiterführbarkeit.

Kolloquium 18.7.14, 10 Uhr, WE5/05.042

P. Hohmann, S. Höpfel, A. Rohm: Results of the Bachelor-Project "Applying IGOR to Enduser Programming"

We investigated how the inductive programming system IGOR can be applied to learn programs for end-user support. Application domain was string transformations in Excel. In this domain already exists a plug-in called Flashfill. Main part of the project work was to define suitable abstract data types and specify input/output examples for IGOR. We could show that IGOR can learn the Flashfill transformations and identified some problems which are beyond Flashfill but solvable with IGOR. For a more convenient handling of IGOR and Maude, a GUI was developped.

Kolloquium of the SS14 Reading Club, 9.7.14, 10:00, WE5.003

Christina Zeller, Dea Svoboda, Michael Sünkel, Daniel Bernhard: Experimenting with a Humanoid Robot - Programming NAO to (Inter-)Act

In the context of the Reading Club, an application has been implemented, which allows a humanoid robot the behavior of a polite and courteous gentlemen. The robot is already trained to recognizefamiliar people. Unknown he should know and remember. During this procedure, it should always comply with pleasantries.

Kolloquium  Mo 5.5.14, 16 Uhr,  (WE5/05.005) 

Fritz Wysotzki (TU Berlin) mit großem Anteil von Jürgen Körner (FU Berlin): Übergeneralisierung mit Methoden der Künstlichen Intelligenz und Kybernetik 

Experimentelle Grundlage ist die Beschreibung des Prozesses einer neurotischen Erkrankung  anhand  zweier Fallbeispiele aus  psychoanalytischer und kybernetischer Sicht.  Ziel ist es, komplexe klinische Phänomene mithilfe von  Methoden der Systemtheorie (speziell der Entscheidungstheorie) zu modellieren und als Lerngeschichte abzubilden.
Dann erscheint z.B. der Wiederholungszwang, dem eine Patientin unterliegt, indem sie ihr altruistisches Verhalten aus der Kindheit auf alle sozialen Situationen auch außerhalb der Familie überträgt, als Folge einer Übergeneralisierung, mit der sie negative Emotionen als Kosten für Fehlentscheidungen vermeidet. Dieser Prozess  wird  in mathematisch formalisierter Form dargestellt und begründet. Es wird gezeigt, wie eine derartige Lerngeschichte in einem iterativen Prozess dazu führt, dass die Patientin nicht mehr unterscheiden kann, ob ihr neurotisches Verhalten in der aktuellen sozialen Situation angemessen ist oder nicht.
Die  Schlussfolgerungen aus dieser Betrachtung , die  auch für allgemeine Verhaltensaspekte und Gedächtnisstrukturen relevant sind, stimmen wieder mit psychoanalytischen Behandlungserfahrungen gut überein: Therapeutische Veränderungen lassen sich nicht allein mithilfe sprachlicher, also symbolischer Interventionen erzielen. Denn die unbewussten Phantasien werden nicht digital, sondern analog  nach den Prinzipien neuronaler Netzwerke verarbeitet; sie müssen z.B. in der Übertragungsanalyse erst affektiv erlebt und dadurch dem Bewusstsein zugänglich werden. 

Talks WS 13/14

Kolloquium  FR 28.3.14, 10 Uhr,  (WE5/05.013) 

Claudia Buhl: Anwendung von Methoden des maschinellen Lernens im Kontext der Simulation reaktiver Strömungen 

Bei der numerischen Simulation von reaktiven Strömungen wird die numerische Strömungsmechanik mit numerischen Methoden zur Lösung chemischer Probleme gekoppelt. Die Berechnung der chemischen Reaktionen nimmt dabei einen Großteil der gesamten Simulationszeit in Anspruch. Eine Möglichkeit, diesem Problem entgegenzuwirken, sind Flamelet-Datenbanken, in denen vor der Simulation die exakte chemische Lösung diskreter Zustände hinterlegt wird. Mittels linearer Interpolation können dann während der Simulation für beliebige Zustände die Lösungen approximiert werden. Diese Datenbanken sind jedoch extrem speicherintensiv. Aufgabe dieser Masterarbeit ist es, mittels maschinellen Lernens die Datenmengen zu reduzieren und dabei noch eine möglichst hohe Ergebnisqualität zu erreichen. Als Lernverfahren wird die Methodik K-Nächste-Nachbarn verwendet. Zunächst wird eine analytische Validierung von KNN und der linearen Interpolation durchgeführt. Des Weiteren wird für KNN eine adaptive Generierung der Trainingsdaten umgesetzt. Anschließend werden beide Verfahren mittels einer vereinfachten Flamelet-DB als Datenbasis verglichen. 

Kolloquium DI,  18.2.14, 10:00 Uhr,  (WE5/05.013) 

Johannes Folger (MA AI): Classification of Facial Expressions of Pain from Video Streams

The main concern of this thesis was the development and evaluation of an approach for classifying pain from video streams. In contrast to the analysis of individual images, videos provide temporal information that can improve the classification of facial expressions. The presented approach considered such kind of information by extracting data from temporal frames of different sizes. The method was evaluated by classifying pain, disgust, and neutral expressions within video sequences of four different subjects. As this work is considered to be a pilot study, three individual classifiers were trained and tested only in a person-dependent manner. Results showed that all classifiers obtained mean accuracy rates above chance. Additionally, no classifier could achieve outstanding performances and the size of the temporal frames seems to have no influence on the performance results. One reason for this could be the number of attributes considered for machine learning.

Kolloquium DI,  4.2.14 12:00 Uhr,  (WE5/05.013) 

Christian Reißner (MA AI): Researching Heuristic Functions to Detect and Avoid Dead Ends in Action Planning   

One approach to reduce the runtime in learning is to find dead ends by planning and use this information to avoid them efficiently. The heuristic search is a well performing planning approach. The target of this paper is the modification of the heuristic search. I will present methods to detect dead ends and run them in different planning domains. A comparison of the results decides the best method to detect dead ends in planning. I will show that the Wisp method delivers the best results and that abstraction heuristics are the best for detecting dead ends.

Kolloquium Di 28.1.14 12:00 Uhr, WE5/05.013 

Andre Kowollik (externe Masterarbeit, FAU): Mensch-Roboter-Interaktion in gestenbasierten Zweipersonenspielen -- NAO spielt Schere, Stein, Papier   

Das Spiel "Schere, Stein, Papier" ist eine Situation, in der normalerweise eine zwischen-menschliche Interaktion stattfindet. Diese Interaktion wurde auf den Roboter (NAO) übertragen, indem eine simple Spracherkennung implementiert, eine Gestenerkennung auf Basis des Frameworks OpenCV und verschiedene Spielstrategien entwickelt wurden. Die Strategien stellen dabei vereinfachte Verhaltensmuster von NAO dar. Zur Bewertung der Mensch-Roboter-Interaktion und der Verhaltensmuster wurde eine Nutzer-studie durchgeführt.    

Kolloquium Mo 27.1.14 12:00 Uhr, WE5/05.013 

Matthias Düsel (MA AI): Semantisches Matching von Freizeitaktivitäten mittels Wikipediabasierter Kategorisierung   

Diese Arbeit untersucht, inwiefern Wikipedia genutzt werden kann, um semantische Ähnlichkeit zu berechnen. Das Ziel ist es, ein Matching-System zu erstellen, in welches ein Benutzer eine Freizeitaktivität eingibt und daraufhin Einträge mit ähnlichen Aktivitäten als Ergebnis zurück bekommt. Hierbei liegt das Augenmerk auf der Bedeutung der Einträge. Die Matches sollen also aufgrund ihrer semantischen Ähnlichkeit entstehen und nicht nur, weil zwei Einträge das selbe Wort enthalten. Bei einem rein lexikalischem Vergleich gibt es kein Match zwischen "Ich würde gerne in die Oper gehen" und "Ich sehe mir heute Don Giovanni an". Semantisch sind diese Einträge jedoch verwandt, da Don Giovanni eine Oper ist.   

Kolloquium  MO 16.12. 12:00 Uhr,  WE5/05.013

Simone Schineller (MA WI): A Hierarchical Approach for Classifying Pain and Disgust by Aggegration over Facial Regions

Im Rahmen der Arbeit wurde ein zweistufiger Ansatz zur Erkennung von Schmerz und Ekel basierend auf Gesichtsdaten entwickelt, der mit Hilfe der Software Rapid Miner umgesetzt wurde. Die Besonderheit des Modells liegt in der Aufteilung des Gesichtes in einzelne Regionen und deren anschließender Klassifikation als Vorverarbeitungsschritt. Ziel der Arbeit war es, die Eignung verschiedener Klassifikatoren für die mimikbasierte Schmerz- und Ekelerkennung zu untersuchen und miteinander zu vergleichen. Weiterhin wurden sowohl individuelle als auch personenunabhängige Klassifkatoren gegenübergestellt, um zu ermitteln, ob letztere für die gestellte Aufgabe ausreichend gut geeignet sind.

Talks SS 13 

Kolloquium  DO 27.6. 14:15 Uhr,  WE5/05.013


Chess Engines have long surpassed all but the most potent of human chess players. The vast majority of chess players cannot even come close to beating any given engine on a personal computer with mainstream hardware.Hence chess programs are mostly used for two purposes: analyzing past games and getting used to playing new openings. The analysis is mostly done by hand, importing any past game and the replaying it with the calculations of the engine showing when mistakes were made in the game.The goal of this thesis now is to analyze past games on a larger scale using the complete game database of a particular player. The software to be programmed will import any number of games and analyze them. The analysis will both find mistakes made by the player using an open source chess engine and then classify the mistakes the player made so that statistical information regarding the type and magnitude of mistakes the player makes will be available for further training.Each mistake can be singled out and analyzed individually. At the end of this thesis the author will propose a way of using the error database to teach the player to get rid of his mistakes even better.

Kolloquium DI 11.6. 10:15 Uhr, WE5/5.013

Stefan Betzmeir (Master WI): Inducing Structural Prototypes for the Classification of Semi-Structured Data

The internet has evolved from a network of documents into a network of heterogeneous web applications. Semi-structured data offers enough structural flexibility, while providing the necessary semantic annotation to transfer information between those applications. Today the XML Data Model is the de facto standard meta-model for semi-structured data on the internet. Due to its generic nature, XML has become the foundation of numerous domain specific formats, causing an abundance of XML data that holds considerable potential for data analysis. This paper presents a case-based reasoning framework for classifying semi-structured data. It supports the extraction of a prototype tree from a cluster of data trees, as well as the classification of a data tree, based on its similarity to a set of prototype trees. By representing each cluster with only one prototype, an acceptable runtime of the classification can be maintained, even if the data clusters keep on growing.

Colloquium Archive

You find information on past talks in the Colloquium Archives [WS 12/13]  [SS12]  [WS 11/12]   [SS 11]  [WS 10/11]  [SS 10]  [WS 09/10]  [SS 09]  [WS 08/09]   [SS 08]   [WS 07/08] and the colloquium archive (old)