Research Colloquium Cognitive Systems

General Information

The research colloquium of the CogSys group is a forum for scientific discussion between lecturers and doctorate, diploma and master students. Talks cover concepts and results of theses as well as current research in the field cognitive systems. Furthermore, current subjects of more general interest can be presented and discussed. Sometimes external researchers are invited.

If you want to be informed about current talks, please sign up for the course in the virtual campus.

Talks SS 09 

Kolloquium 8.9.09, 16 Uhr c.t., Raum F 380 

Susumu Katayama from Miyzaki University Japan (Homepage) presents his evolutionary functional programming system MagicHaskeller.
 
Susumu is visitor of the CogSys group from 7th to 10th September 2009 and was the host of Martin Hofmann who spent a two month research visit at his department in summer 2009, fundet by DAAD.
 

Kolloquium 30.6.09, 14 Uhr c.t., Raum F 125

Dipl.-Psych. Eva Wiese, Graduiertenkolleg prometei, TU Berlin: Räumliches Schließen mit externen Repräsentationen – Effekte aktiver und passiver Interaktion mit virtuellen 3D-Objekten

Externe Repräsentationen (visuell-räumliche Darstellungen) werden häufig verwendet, um interne Bearbeitungsprozesse wie Verstehen, Lernen oder Planen zu unterstützen. Dabei werden computerisierte 3D-Graphiken hauptsächlich in der Forschung, aber auch in angewandten Disziplinen wie Architektur, Maschinenbau, Medizin oder Geographie eingesetzt, um komplexe Informationen und strukturelle Zusammenhänge in hoher Qualität sichtbar zu machen. Werden solche 3D-Repräsentationen mit Hilfe eines intuitiven Interfaces dargestellt, mit dem Nutzer aktiv interagieren können, besteht die Möglichkeit, interne Vorstellungen und Prozesse mit externen Veränderungen der 3D-Graphik abzugleichen und in Einklang zu bringen. Dadurch können kognitiv anspruchsvolle, interne Prozesse in weniger beanspruchende, perzeptiv-motorische Prozesse umgewandelt und mentale Ressourcen in externe Ressourcen ausgelagert werden.

Bisherige Studien auf diesem Gebiet hatten den Vergleich der Effekte aktiver Interaktion und passiver Simulation beim Lernen aus und Verstehen von externen Repräsentationen zum Ziel. Dabei ergaben sich uneinheitliche Befunde hinsichtlich der Nützlichkeit interaktiver Visualisierungen. Diese Unstimmigkeiten wurden hauptsächlich auf metakognitive Aspekte, unterschiedliche Verfügbarkeit von Informationen und die Verwendung verschiedener Aufgabentypen und Untersuchungsszenarien zurückgeführt. Während auf diese Weise zwar Informationen über die Effektivität und Effizienz unterschiedlicher Interaktionsarten gewonnen werden konnten, kann die Frage nach der generellen Nützlichkeit interaktiver, externer Repräsentationen im Vergleich zu einer rein internen Problembearbeitung nicht beantwortet werden. Hier stellt sich besonders die Frage, ob vor allem durch die Externalisierung der Speicherfunktion oder durch die Externalisierung der Manipulationsfunktion profitiert werden kann. Desweiteren kann auch nicht geklärt werden, nach welchen Prinzipien interne und externe Ressourcen bei der Problemlösung aufgeteilt werden und wie sich der Einsatz solcher Problemlösestrategien auf die Performanz bei der Problemlösung auswirkt. In diesem Zusammenhang soll untersucht werden, ob die Komplexität der Objektstruktur einen Einfluss auf die Verteilung externer und interner Ressourcen hat. Ein weiterer Punkt, der bei bisherigen Untersuchungen nicht eindeutig beantwortet werden konnte, ist die Frage, ob die Effekte aktiver Interaktion im Vergleich zu passiver Simulation hauptsächlich auf die verbesserte Enkodierung des Objektes oder auf eine effektivere Unterstützung der Problemlösung zurückgeführt werden können. Diese Unterscheidung ist in bisherigen Studien nicht möglich, da Enkodierung und Problemlösen in einem Schritt abgeprüft werden (Keehner et al., 2008). Um diese beiden Punkte zu trennen, werden aktive Interaktion und passive Simulation sowohl in der Enkodierungsphase als auch in der Problemlösephase systematisch variiert.

 

Montag, 15.6. 16 Uhr, Raum F 303 

Neil Crossley (Präsentation der Masterarbeit): Analytical Preprocessing for Evolutionary Inductive Programming 

Evolutionary programming is the most powerful method for inducing recursive functional programs from input/output examples while taking into account efficiency and complexity constraints for the target program. However, synthesis time can be considerably high. A strategy which is complementary to the generate-and -test based approaches of evolutionary programming is inductive analytical programming where program construction is example-driven, that is, target programs are constructed as minimal generalization over the given input/output examples. Synthesis with analytical approaches is fast, but the scope of synthesizable programs is restricted. We propose to combine both approaches in such a way that the power of evolutionary programming is preserved and synthesis becomes more efficient. We use the analytical system {\sc Igor2} to generate seeds in form of program skeletons to guide the evolutionary system {\sc Adate} when searching for target programs. In an evaluations with several examples we can show that using such seeds indeed can speed up evolutionary programming considerably

Kolloquium

Termin wird  noch bekanntgegeben.

Fortsetzung des Human-Robot-Workshops.

Im Mini-Workshop der Gruppe KogSys gemeinsam mit den Mitarbeitern des EU-Projekts LIREC werden wir versuchen, Fragestellungen von gemeinsamem Interesse zu identifizieren. Nach Vorträgen der LIREC-Gruppe sowie von Andreas Hirschberger (KogSyS) beim ersten Treffen am 17.3. wird nun Gaby Streffing KogSys) ihre Diplomarbeit vorstellen. Themas ist eine Fragebogenstudie mit Pflegepersonal, Angehörigen von Alzeimer Patienten sowie Nicht-Betroffenen zum prospektiven Bedarf an intelligente technische Assistenzsysteme im Falle einer eigenen Demenzerkrankung.

Donnerstag, 28.5.09,  14 Uhr, F 125

Florian Bader (Masterarbeit in Kooperation mit SAP): Modellbasierte Klassifikation von Störungsmeldungen in betriebswirtschaftlichen Softwaresystemen. Ein Ansatz zum Prototyp-Lernen durch strukturbasierte Generalisierung.

Die automatische, modellbasierte Klassifikation von Störungsmeldungen in betriebswirtschaftlichen Softwaresystemen ist vor allem für Software, welche auf den Massenmarkt ausgerichtet ist, von enormer Bedeutung. So entsteht im Support-Prozess ein hoher Aufwand für die Bearbeitung erneut auftretender Störungsmeldungen. Die Ursachenanalyse einer Störungsmeldung ist mit einem großen Aufwand verbunden. Eine einmal gefundene Lösung wird nur in geringen Maße wiederverwendet. Es ist vor allem in einem Massenmarkt schwer, ähnliche Probleme von unterschiedlichen Kunden oder Systemen wiederzuerkennen. Mit einer unzuverlässigen Wiedererkennung der Problemsituation leidet unter anderem auch die Servicequalität. Das damit einhergehende Problem ist, dass neu auftretende Störungsmeldungen oftmals von neuem bearbeitet werden, obwohl es bereits ähnliche Störungsmeldungen mit einer identifizierten Problemanaylse geben kann. Somit wird auf bereits erworbenes Wissen nur in eingeschränktem Maße zurück gegriffen und es entstehen hohe Kosten für die mehrfache Bearbeitung ähnlicher Störungsmeldungen. Mit Verfahren aus der Informatik, insbesondere der Künstlichen Intelligenz, soll die Wiedererkennung und die Klassifizierung neuer Störungsmeldungen zu bereits aufgetretenen ähnlichen Störungsmeldungen untersucht werden. Gegenstand der Arbeit war die Untersuchung und die Bewertung dreier Lernverfahren auf Eignung der modellbasierten Klassifikation von Störungsmeldungen

 

Montag, 11.5.09, 16 Uhr, Raum F 303 

Fritz Wysotzki: A new, cost dependent information measure and the construction of decision trees with object dependent costs for misclassifications

It is described how costs of misclassification given with the individual training objects can be used in learning decision trees for cost optimal instead of error minimal class decisions. This is demonstrated by introducing modified, cost depending probabilities, a new, cost depending information measure and using a cost sensitive extension of the algorithm CAL5 for learning decision trees. The cost dependent information measure guarantees the selection of the (locally) next best discriminating attribute in the sequential construction of the trees. It is shown to be a cost dependent generalization of the classical information measure introduced by Shannon and may therefore be of general importance for Information Theory, Knowledge Processing and Cognitive Science since subjective evaluations can be included in information. Experiments with two artificial data sets and one application example show that this approach is more adequate than a method using class dependent costs given by experts a priori.

 

 Colloquium Archive

You find information on past talks in the Colloquium Archives [WS 08/09],  [SS 08], [WS 07/08] and the colloquium archive (old)