University of Bamberg Press

Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik

Profil der Reihe

In der Fakultät WIAI werden die auf die Wirtschaftswissenschaften und der Informatik aufbauende Wirtschaftsinformatik mit kultur- und humanwissenschaftlich ausgerichteten Angewandten Informatiken sowie klassischen Fachgebieten der Theoretischen und Praktischen Informatik verbunden. In den Schriften spiegeln sich diese Inhalte wieder.

Schriftenreihe auf dem OPUS-Hochschulschriftenserver

Bisher erschienene Bände

SOCNET 2018 : Proceedings of the “Second International Workshop on Modeling, Analysis, and Management of Social Networks and Their Applications” / Kai Fischbach, Udo R. Krieger (eds.)

Bamberg: Univ. of Bamberg Press, 2018
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 26)

Preis: 18,50 €

Modeling, analysis, control, and management of complex social networks represent an important area of interdisciplinary research in an advanced digitalized world. In the last decade social networks have produced significant online applications which are running on top of a modern Internet infrastructure and have been identified as major driver of the fast growing Internet traffic. The "Second International Workshop on Modeling, Analysis and Management of Social Networks and Their Applications" (SOCNET 2018) held at Friedrich-Alexander-Universität Erlangen-Nürnberg, Germany, on February 28, 2018, has covered related research issues of social networks in modern information society. The Proceedings of SOCNET 2018 highlight the topics of a tutorial on "Network Analysis in Python" complementing the workshop program, present an invited talk "From the Age of Emperors to the Age of Empathy", and summarize the contributions of eight reviewed papers. The covered topics ranged from theoretical oriented studies focusing on the structural inference of topic networks, the modeling of group dynamics, and the analysis of emergency response networks to the application areas of social networks such as social media used in organizations or social network applications and their impact on modern information society. The Proceedings of SOCNET 2018 may stimulate the readers' future research on monitoring, modeling, and analysis of social networks and encourage their development efforts regarding social network applications of the next generation.

Zugriff auf den Volltext über OPUS:



Effective and Efficient Process Engine Evaluation / Simon Harrer

Bamberg: Univ. of Bamberg Press, 2017
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 25)

Preis: 27,00 €

Business processes have become ubiquitous in industry today. They form the main ingredient of business process management. The two most prominent standardized languages to model business processes are Web Services Business Process Execution Language 2.0 (BPEL) and Business Process Model and Notation 2.0 (BPMN). Business process engines allow for automatic execution of business processes. There is a plethora of business process engines available, and thus, one has the agony of choice: which process engine fits the demands the best? The lack of objective, reproducible, and ascertained information about the quality of such process engines makes rational choices very difficult. This can lead to baseless and premature decisions that may result in higher long term costs. This work provides an effective and efficient benchmarking solution to reveal the necessary information to allow making rational decisions. The foundation comprises an abstraction layer for process engines that provides a uniform API to interact with any engine similarly and a benchmark language for process engines to represent benchmarks in a concise, self-contained, and interpretable domain-specific language. A benchmark framework for process engines performs benchmarks represented in this language on engines implementing the abstraction layer. The produced benchmark results are visualized and made available for decision makers via a public interactive dashboard. On top of that, the efficient benchmark framework uses virtual machines to improve test isolation and reduce “time to result” by snapshot restoration accepting a management overhead. Based on the gained experience, eight challenges faced in process engine benchmarking are identified, resulting in 21 process engine benchmarking. Results show that this approach is both effective and efficient. Effective because it covers four BPEL-based and another four BPMN-based benchmarks which cover half of the quality characteristics defined by the ISO/IEC 25010 product quality model. Efficient because it fully automates the benchmarking of process engines and can leverage virtualization for an even higher execution efficiency. With this approach, the barrier for creating good benchmarks is significantly lowered. This allows decision makers to consistently evaluate process engines and, thus, makes rational decisions for the corresponding selection possible.

Zugriff auf den Volltext über OPUS:



MMBnet 2017 : Proceedings of the 9th GI/ITG Workshop „Leistungs-, Verlässlichkeits- und Zuverlässigkeitsbewertung von Kommunikationsnetzen und Verteilten Systemen“ / Udo R. Krieger, Thomas C. Schmidt, Andreas Timm-Giel (eds.) 

Bamberg: Univ. of Bamberg Press, 2017
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 24)

Preis: 20,00 €

Nowadays, mathematical methods of systems and network monitoring, modeling, simulation, and performance, dependability and reliability analysis constitute the foundation of quantitative evaluation methods with regard to software-defined next-generation networks and advanced cloud computing systems. Considering the application of the underlying methodologies in engineering practice, these sophisticated techniques provide the basis in many different areas. The GI/ITG Technical Committee “Measurement, Modelling and Evaluation of Computing Systems“ (MMB) and its members have investigated corresponding research topics and initiated a series of MMB conferences and workshops over the last decades. Its 9th GI/ITG Workshop MMBnet 2017 „Leistungs-, Verlässlichkeits- und Zuverlässigkeitsbewertung von Kommunikationsnetzen und Verteilten Systemen“ was held at Hamburg University of Technology (TUHH), Germany, on September 14, 2017. The proceedings of MMBnet 2017 summarize the contributions of one invited talk and four contributed papers of young researchers. They deal with current research issues in next-generation networks, IP-based real-time communication systems, and new application architectures and intend to stimulate the reader‘s future research in these vital areas of modern information society.

Zugriff auf den Volltext über OPUS:



Portability of Process-Aware and Service-Oriented Software : Evidence and Metrics / von Jörg Lenhard

Bamberg: Univ. of Bamberg Press, 2016
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 23)

Preis: 22,00 €

The development of modern distributed software systems has been shaped by the trends of service-orientation and process-awareness. Execution platforms supporting these trends are called engines. Applications and engines interface via language standards. A primary motivation for the usage of standards is the portability of applications, the ability to move software among different execution platforms without the necessity for full or partial reengineering. Nevertheless, practice shows that service-oriented and process-aware applications today are limited with respect to their portability. The reason for this is that engines rarely implement a complete standard. This work contributes to the development of portable service-oriented and process-aware software in two ways: Firstly, it provides evidence for the existence of portability issues and the insufficiency of standards for guaranteeing software portability. Secondly, it derives and validates a novel measurement framework for quantifying portability. We present a methodology for benchmarking the conformance of engines to a language standard and implement it in a fully automated benchmarking tool. On this basis, this work derives a measurement framework for portability, which is aligned to the ISO/IEC SQuaRE model and measurement methodology. This quality model separates the software quality characteristic of portability into the subcharacteristics of installability, adaptability, and replaceability. Each characteristic is addressed by a separate analysis, metrics derivation, evaluation, and validation.

Zugriff auf den Volltext über OPUS:



INTERACT 2015 Adjunct Proceedings : 15th IFIP TC.13 International Conference on Human-Computer Interaction 14-18 September 2015, Bamberg, Germany / Christoph Beckmann, Tom Gross (eds.)

Bamberg: Univ. of Bamberg Press, 2015
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 22)

Preis: 28,50 €

INTERACT is among the world’s top conferences in Human-Computer Interaction. Starting with the first INTERACT conference in 1990, this conference series has been organised under the aegis of the Technical Committee 13 on Human-Computer Interaction of the UNESCO International Federation for Information Processing (IFIP). This committee aims at developing the science and technology of the interaction between humans and computing devices. The 15th IFIP TC.13 International Conference on Human-Computer Interaction - INTERACT 2015 took place from 14 to 18 September 2015 in Bamberg, Germany. The theme of INTERACT 2015 was "Connection.Tradition.Innovation". This volume presents the Adjunct Proceedings - it contains the position papers for the students of the Doctoral Consortium as well as the position papers of the participants of the various workshops.

Zugriff auf den Volltext über OPUS:



Entwicklung von Modellen generischer Managementprozesse für die Gestaltung und Lenkung prozessorientierter Unternehmen / von Li Xiang

Bamberg: Univ. of Bamberg Press, 2015
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 21)

Preis: 23,00 €

Ein funktionsspezialisiertes Großunternehmen kann aufgrund seiner starren Struktur und Organisationsträgheit oft nicht schnell und flexibel reagieren. Deshalb sollte ein solches Unternehmen auf Prozessorientierung umgestellt werden, um an das dynamische und komplexe wirtschaftliche Umfeld von heute angepasst zu werden. Für diese Transformation sind Managementprozesse essenziell, welche die Gestaltung und Lenkung prozessorientierter Unternehmen übernehmen und den Kern der Unternehmensführung bilden. In der vorliegenden Arbeit werden diese Managementprozesse untersucht. Ziel ist es dabei, die Transformation eines Großunternehmens hin zur Prozessorientierung mittels generischer Managementprozesse zu unterstützen. Hierfür werden gemäß der SOM-Methodik zwei Referenzmodelle generischer Managementprozesse entwickelt: zum einen das Referenzmodell für die Gestaltung und Lenkung eines operativen Geschäftsprozesses (GPM-RM), zum anderen das Referenzmodell für die Gestaltung und Lenkung der Gesamtleistungserstellung prozessorientierter Unternehmen (RM der Makro-Geschäftsprozess-Führung). Die generischen Managementprozesse bieten den Ansatzpunkt für die Erstellung konkreter Managementprozesse von prozessorientierten Unternehmen und können so zur Transformation in Richtung Prozessorientierung beitragen. Neben dem Beitrag für die Praxis besteht die wissenschaftliche Relevanz dieser Arbeit darin, dass zwei Forschungslücken geschlossen werden können: Einerseits dienen die generischen Managementprozesse der Aufgabensystematisierung im Geschäftsprozessmanagement, andererseits bilden sie den Ausgangspunkt für die systematische Überleitung vom Geschäftsprozessmanagement zu einer prozessorientierten Zielorganisationsstruktur.

Zugriff auf den Volltext über OPUS:



Model and Proof Theory of Constructive ALC : Constructive Description Logics / von Stephan M. Scheele

Bamberg: Univ. of Bamberg Press, 2015
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 20)

Preis: 22,00 €

Description logics (DLs) represent a widely studied logical formalism with a significant impact in the field of knowledge representation and the Semantic Web. However, they are equipped with a classical descriptive semantics that is characterised by a platonic notion of truth, being insufficiently expressive to deal with evolving and incomplete information, as from data streams or ongoing processes. Such partially determined and incomplete knowledge can be expressed by relying on a constructive semantics. This thesis investigates the model and proof theory of a constructive variant of the basic description logic ALC, called cALC. The semantic dimension of constructive DLs is investigated by replacing the classical binary truth interpretation of ALC with a constructive notion of truth. This semantic characterisation is crucial to represent applications with partial information adequately, and to achieve both consistency under abstraction as well as robustness under refinement, and on the other hand is compatible with the Curry-Howard isomorphism in order to form the cornerstone for a DL-based type theory. The proof theory of cALC is investigated by giving a sound and complete Hilbert-style axiomatisation, a Gentzen-style sequent calculus and a labelled tableau calculus showing finite model property and decidability. Moreover, cALC can be strengthened towards normal intuitionistic modal logics and classical ALC in terms of sound and complete extensions and hereby forms a starting point for the systematic investigation of a constructive correspondence theory.

Zugriff auf den Volltext über OPUS:



Resource Description and Selection for Similarity Search in Metric Spaces / von Daniel Blank

Bamberg: Univ. of Bamberg Press, 2015
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 19)

Preis: 20,00 €

Ständig zunehmende Datenmengen und eine immer größer werdende Vielfalt an Datentypen in verschiedenen Anwendungskontexten erfordern sowohl skalierbare als auch flexible Indexierungs- und Suchtechniken. Metrische Zugriffsstrukturen (MAMs: metric access methods) können diese Flexibilität bieten, weil sie lediglich unterstellen, dass die Distanz zwischen zwei Datenobjekten durch eine Distanzmetrik modelliert wird. Darüber hinaus lassen sich skalierbare Lösungen mit Hilfe verteilter MAMs entwickeln. Sowohl IF4MI als auch RS4MI, die beide in dieser Arbeit vorgestellt werden, stellen metrische Zugriffsstrukturen dar. IF4MI gehört zur Gruppe der zentralisierten MAMs. Diese Zugriffsstruktur basiert auf einer invertierten Liste und repräsentiert daher eine hybride Indexstruktur, die neben einer inhaltsbasierten Ähnlichkeitssuche in beliebigen metrischen Räumen direkt auch Möglichkeiten der Textsuche unterstützt. Im Gegensatz zu IF4MI handelt es sich bei RS4MI um eine verteilte MAM, die auf Techniken der Ressourcenbeschreibung und -auswahl beruht. Dabei sind die Datenobjekte physisch verteilt. RS4MI ist jedoch keineswegs auf die Anwendung in einem bestimmten verteilten Information-Retrieval-System beschränkt. Verschiedene Anwendungsfelder sind für die Techniken zur Ressourcenbeschreibung und -auswahl denkbar, zum Beispiel im Bereich der Visuellen Analyse. Dabei gehen Anwendungsmöglichkeiten weit über den für die Arbeit unterstellten Anwendungskontext der inhaltsbasierten Bildsuche hinaus.

Zugriff auf den Volltext über OPUS:



Konstruktion integrierter Geschäfts-Geschäftsprozessmodelle : Konzeption einer Modellierungsmethodik unter Nutzung hybrider zeitdiskret-zeitkontinuierlicher Simulationssysteme / von Michael Jacob

Bamberg: Univ. of Bamberg Press, 2014
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 18)

Preis: 26,00 €

Von Aristoteles stammt das Zitat "Das Ganze ist mehr als die Summe seiner Teile". Es steht stellvertretend für die Denkweise der griechischen Philisophie der Antike, die geprägt war vom ganzheitlichen Denken. Im Lauf der Jahrhunderte verlor dieses Denken jedoch seine Bedeutung und wurde spätestens in der Renaissance durch das Denken in Elementen abgelöst. Dieses jedoch stößt überall da an seine Grenzen, wo ein Problem nicht in kurze isolierbare Kausalketten oder in Beziehungen zwischen wenigen Variablen aufgespalten werden kann. Integrierte Geschäfts-Geschäftsprozessmodelle bestehen aus miteinander gekoppelten Geschäfts- und Geschäftsprozessmodellen, die in Form grafischer Systeme oder in Form von hybriden zeitdiskret-zeitkontinuierlichen Simulationssystemen modelliert werden. Sie können ein Instrument sein, Unternehmungen sowohl ganzheitlich und aggregiert, als auch in ihren Elementen, zu beschreiben, zu analysieren und zu gestalten. Sie bieten Potenziale, zu detaillierten, gleichzeitig aber auch ganzheitlichen Problemlösungen zu gelangen. Diese sind notwendig, da auch Unternehmungen mehr als nur die Summe von Funktionsbereichen und Ressourcen sind. Auch sie sind ein Ganzes.

Zugriff auf den Volltext über OPUS:



Modellgetriebene Validierung von System-Architekturen gegen architekturrelevante Anforderungen : Ein Ansatz zur Validierung mit Hilfe von Simulationen / André Pflüger

Bamberg: Univ. of Bamberg Press, 2014
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 17)

Preis: 28,00 €

Die Entwicklung von Systemen bestehend aus Hardware und Software ist eine herausfordernde Aufgabe für den System-Architekten. Zum einen muss er die stetig steigende Anzahl an System-Anforderungen, inklusive ihrer Beziehungen untereinander, bei der Erstellung der System-Architektur berücksichtigen, zum anderen muss er mit kürzer werdenden Time-to-Market-Zeiten sowie Anforderungsänderungen durch den Kunden bis in die Implementieungsphase hinein umgehen. Die vorliegende Arbeit stellt einen Prozess vor, der dem Architekten die Validierung der System-Architektur gegenüber den architekturrelevanten Anforderungen ermöglicht. Dieser Prozess ist Bestandteil der System-Design-Phase und lässt sich in die iterative Entwicklung der System-Architektur integrieren. Damit der Architekt nicht den Überblick über alle Anforderungen und deren Beziehungen untereinander verliert, fasst er die Anforderungen anhand von architekturspezifischen Aspekten, die sogenannten Validierungsziele, zusammen. Für jedes Validierungsziel werden Validierungszielverfahren und Prüfkriterien zur Bestimmung des Validierungsstatus festgelegt. Falls alle betrachteten Validierungsziele erfüllt sind, d. h. die Ergebnisse der Validierungszielverfahren erfüllen die dazugehörigen Prüfkriterien, erfüllt auch die System-Architektur die dazugehörigen architekturrelevanten Anforderungen. Anstelle von formalen Prüftechniken wie beispielsweise dem Model-Checking bevorzugt der in der Arbeit vorgestelle Ansatz Simulationen als Prüftechnik für die Validierungszielverfahren. Bei der Dokumentation setzt der Ansatz auf die Modellierungssprache Unified Modeling Language (UML). Alle für die Simulationen erforderlichen Daten sind Bestandteil eines UML-Modells. Für die Konfiguration und Durchführung der Simulationen werden diese Daten aus dem Modell ausgelesen. Auf diese Weise wirken sich Modelländerungen direkt auf das Validierungsergebnis der System-Architektur aus. Der in der Arbeit vorgestellte Prozess unterstützt den Architekten bei der Erstellung einer den architekturrelevanten Anforderungen entsprechenden System-Architektur sowie bei der Auswirkungsanalyse von Anforderungs- oder Architekturänderungen. Die wesentlichen Prozessschritte werden mit Hilfe eines Werkzeugs partiell automatisiert, wodurch die Arbeit des Architekten erleichtert und die Effizienz des Systementwicklungsprozesses verbessert wird.

Zugriff auf den Volltext über OPUS:



MMB & DFT 2014 : Proceedings of the International Workshops ; Modeling, Analysis and Management of Social Networks and their Applications (SOCNET 2014) & Demand Modeling and Quantitative Analysis of Future Generation Energy Networks and Energy-Efficient Systems (FGENET 2014) / Kai Fischbach, Marcel Großmann, Udo R. Krieger, Thorsten Staake (eds.)

Bamberg: Univ. of Bamberg Press, 2014
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 16)
ISBN 978-3-86309-208-5
Preis: 18,50 €

At present, a comprehensive set of measurement, modeling, analysis, simulation, and performance evaluation techniques are employed to investigate complex networks. A direct transfer of the developed engineering methodologies to related analysis and design tasks in next-generation energy networks, energy-efficient systems and social networks is enabled by a common mathematical foundation. The International Workshop on "Demand Modeling and Quantitative Analysis of Future Generation Energy Networks and Energy-Efficient Systems" (FGENET 2014) and the International Workshop on "Modeling, Analysis and Management of Social Networks and their Applications" (SOCNET 2014) were held on March 19, 2014, at University of Bamberg in Germany as satellite symposia of the 17th International GI/ITG Conference on "Measurement, Modelling and Evaluation of Computing Systems" and "Dependability and Fault-Tolerance" (MMB & DFT 2014). They dealt with current research issues in next-generation energy networks, smart grid communication architectures, energy-efficient systems, social networks and social media. The Proceedings of MMB & DFT 2014 International Workshops summarizes the contributions of 3 invited talks and 13 reviewed papers and intends to stimulate the readers’ future research in these vital areas of modern information societies.

Zugriff auf den Volltext über OPUS:



Geografische Empfehlungssysteme / von Christian Matyas

Bamberg: Univ. of Bamberg Press, 2014
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 15)
ISBN 978-3-86309-204-7
Preis: 20,00 €

Mobile Geräte werden immer häufiger mit Sensoren zur Bestimmung der eigenen Position ausgestattet, zum Beispiel mit GPS. Mit Hilfe der Ortsinformationen dieser Sensoren können beispielsweise moderne Bildmanagementanwendungen digitale Fotos automatisch nach geografischen Regionen gruppieren oder passende Schlagworte generieren. Dies führt unter anderem zu einer besseren Suchbarkeit dieser digitalen Daten. Grundsätzlich geben Ortsinformationen in digitalen Fotos nicht nur Hinweise auf das Foto selbst, sondern machen auch sichtbar, welche geografischen Entscheidungen der Fotograf bei deren Erstellung getroffen hat. Diese Arbeit nutzt diese Entscheidungen für die Berechnung von weiteren Empfehlungen für den Nutzer, beispielsweise einer Bildmanagementanwendung. Ein konkreter Anwendungsfall lautet folgendermaßen: Einem Nutzer sollen für eine frei wählbare geographische Region (z.B. einer Stadt), mehrere Bilder empfohlen werden, die zum einen typisch für diese Region sind, zum anderen aber auch für ihn persönlich interessant sein könnten. Um diese geografischen Mehr-Objekt-Empfehlungen zu berechnen, wurde ein neuartiger Algorithmus entwickelt, der zunächst die Ortsinformationen aller Nutzer zu einem geografischen Modell bündelt. Auf Grundlage dieser prototypischen Konzeptualisierung von einzelnen Regionen, können dann typische Bilder empfohlen werden. Weiterhin werden diese geografischen Modelle in einem zweiten Schritt für die zusätzliche Gewichtung der einzelnen geografischen Entscheidungen der Nutzer verwendet, um über den Ansatz eines kollaborativen Filters zu einer persönlichen Empfehlung zu gelangen. Dazu wurden mehrere Verfahren entwickelt und miteinander verglichen. Diese Arbeit ist im Rahmen des europäischen Projektes Tripod entstanden, für das der entwickelte geografische Empfehlungsalgorithmus als Softwaremodul prototypisch implementiert wurde. Damit wurden die Empfehlungen mit Hilfe von georeferenzierten Bildern evaluiert, die auf den Online-Galerien und veröffentlicht wurden. Durch die Auswertung der geografischen Informationen und der daraus berechneten Ortsmodelle, ließen sich deutlich präzisere Empfehlungen vorschlagen, als mit anderen bekannten Empfehlungsverfahren.

Zugriff auf den Volltext über OPUS:



Information Management for Digital Learners : Introduction, Challenges, and Concepts of Personal Information Management for Individual Learners / von Stefanie Gooren-Sieber

Bamberg: Univ. of Bamberg Press, 2014
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 14)
ISBN 978-3-86309-206-1
Preis: 20,00 €

The current cultural transition of our society into a digital society influences all aspects of human life. New technologies like the Internet and mobile devices enable an unobstructed access to knowledge in worldwide networks. These advancements bring with them a great freedom in decisions and actions of individuals but also a growing demand for an appropriate mastering of this freedom of choice and the amount of knowledge that has become available today. Naturally, this observable rise and progress of new technologies—gently but emphatically becoming part of people’s everyday lives—not only changes the way people work, communicate, and shape their leisure but also the way people learn. This thesis is dedicated to an examination of how learners can meet these requirements with the support that modern technology is able to provide to learners. More precisely, this thesis places a particular emphasis that is absent from previous work in the field and thus makes it distinctive: the explicit focus on individual learners. As a result, the main concern of this thesis can be described as the examination, development, and implementation of personal information management in learning. Altogether two different steps towards a solution have been chosen: the development of a theoretical framework and its practical implementation into a comprehensive concept. To establish a theoretical framework for personal information management in learning, the spheres of learning, e-learning, and personalised learning have been combined with theories of organisational and personal knowledge management to form a so far unique holistic view of personal information management in learning. The development of this framework involves the identification of characteristics, needs, and challenges that distinguish individual learners from within the larger crowd of uniform learners. The theoretical framework defined within the first part is transferred to a comprehensive technical concept for personal information management in learning. The realisation and design of this concept as well as its practical implementation are strongly characterised by the utilisation of information retrieval techniques to support individual learners. The characteristic feature of the resulting system is a flexible architecture that enables the unified acquisition, representation, and organisation of information related to an individual’s learning and supports an improved find-ability of personal information across all relevant sources of information. The most important results of this thesis have been validated by a comparison with current projects in related areas and within a user study.

Zugriff auf den Volltext über OPUS:



Proceedings of KogWis 2012 : 11th Biannual Conference of the German Cognitive Science Society / Ute Schmid, Michael Siebers, Claus-Christian Carbon, Marius Raab, Jascha Rüsseler, Tom Gross, Christoph Schlieder, and Dietrich Dörner (eds.)

Bamberg: Univ. of Bamberg Press, 2012
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 13)
ISBN 978-3-86309-100-2
Preis: 19,00 €

The German cognitive science conference is an interdisciplinary event where researchers from different disciplines - mainly from artificial intelligence, cognitive psychology, linguistics, neuroscience, philosophy of mind, and anthropology - and application areas - such as eduction, clinical psychology, and human-machine interaction - bring together different theoretical and methodological perspectives to study the mind. The 11th Biannual Conference of the German Cognitive Science Society took place from September 30 to October 3 2012 at Otto-Friedrich-Universität in Bamberg. The proceedings cover all contributions to this conference, that is, five invited talks, seven invited symposia and two symposia, a satellite symposium, a doctoral symposium, three tutorials, 46 abstracts of talks and 23 poster abstracts.

Zugriff auf den Volltext über OPUS:



The CHORCH Approach : how to Model B2Bi Choreographies for Orchestration Execution / von Andreas Schönberger

Bamberg: Univ. of Bamberg Press, 2012
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 12)
ISBN 978-3-86309-076-0
Preis: 32,00 €

The establishment and implementation of cross-organizational business processes is an implication of today's market pressure for efficiency gains.In this context, Business-To-Business integration (B2Bi) focuses on the information integration aspects of business processes.A core task of B2Bi is providing adequate models that capture the message exchanges between integration partners.Following the terminology used in the SOA domain, such models will be called choreographies in the context of this work.Despite the enormous economic importance of B2Bi, existing choreography languages fall short of fulfilling all relevantrequirements of B2Bi scenarios.Dedicated B2Bi choreography standards allow for inconsistent outcomes of basic interactions anddo not provide unambiguous semantics for advanced interaction models.In contrast to this, more formal or technical choreography languages may provide unambiguous modeling semantics,but do not offer B2Bi domain concepts or an adequate level of abstraction.Defining valid and complete B2Bi choreography models becomes a challenging task in the face of these shortcomings.At the same time, invalid or underspecified choreography definitions are particularly costly considering the organizationalsetting of B2Bi scenarios.Models are not only needed to bridge the typical gap between business and IT,but also as negotiation means among the business users of the integration partners on the one handand among the IT experts of the integration partners on the other.Misunderstandings between any two negotiation partners potentially affect the agreements between all other negotiation partners.The CHORCH approach offers tailored support for B2Bi by combining the strengths of both dedicated B2Bi standards and formal rigor.As choreography specification format, the ebXML Business Process Specification Schema (ebBP) standard is used.ebBP provides dedicated B2Bi domain concepts such as so-called BusinessTransactions (BTs) that abstractly specify the exchange of a request business documentand an optional response business document.In addition, ebBP provides a format for specifying the sequence of BT executions for capturing complex interaction scenarios.CHORCH improves the offering of ebBP in several ways.Firstly, the execution model of BTs which allows for inconsistent outcomes among the integration partnersis redefined such that only consistent outcomes are possible.Secondly, two binary choreography styles are defined as B2Bi implementation contract format in order to streamline implementation projects.Both choreography styles are formalized and provided with a formal execution semantics for ensuring unambiguity.In addition, validity criteria are defined that ensure implementability using BPEL-based orchestrations.Thirdly, the analysis of the synchronization dependencies of complex B2Bi scenarios is supportedby means of a multi-party choreography style combined with an analysis framework.This choreography style also is formalized and standard state machine semantics are reused in order to ensure unambiguity.Moreover, validity criteria are defined that allow for analyzing corresponding models for typical multi-party choreography issues.Altogether, CHORCH provides choreography styles that are B2Bi adequate, simple, unambiguous, and implementable.The choreography styles are B2Bi adequate in providing B2Bi domain concepts, in abstracting from low-level implementation detailsand in covering the majority of real-world B2Bi scenarios.Simplicity is fostered by using state machines as underlying specification paradigm.This allows for thinking in the states of a B2Bi scenario and for simple control flow structures.Unambiguity is provided by formal execution semantics whereas implementability (for the binary choreography styles) is ensured by providingmapping rules to BPEL-based implementations.The validation of CHORCH's choreography styles is performed in a twofold way.Firstly, the implementation of the binary choreography styles based on Web Services and BPEL technology is demonstratedwhich proves implementability using relatively low-cost technologies.Moreover, the analysis algorithms for the multi-party choreography styles are validated using a Java-based prototype.Secondly, an abstract visualization of the choreography styles based on BPMN is provided that abstracts fromthe technicalities of the ebBP standard.This proves the amenability of CHORCH to development methods that start out with visual models.CHORCH defines how to use BPMN choreographies for the purpose of B2Bi choreography modelingand translates the formal rules for choreography validity into simple composition rules thatdemonstrate valid ways of connecting the respective modeling constructs.In summary, CHORCH allows integration partners to start out with a high-level visual model of their interactions in BPMNthat identifies the types and sequences of the BusinessTransactions to be used.For multi-party choreographies, a framework for analyzing synchronization dependencies then is available.For binary choreographies, an ebBP refinement can be derived that fills in the technical parameters that are needed for deriving the implementation.Finally, Web Services and BPEL based implementations can be generated.Thus, CHORCH allows for stepwise closing the semantic gap between the information perspective of business process modelsand the corresponding implementations.It is noteworthy that CHORCH uses international standards throughout all relevant layers, i.e., BPMN, ebBP, Web Services and BPEL,which helps in bridging the heterogeneous IT landscapes of B2Bi partners.In addition, the adoption of core CHORCH deliverables as international standards of the RosettaNet communitygive testament to the practical relevance and promise dissemination throughout the B2Bi community.

Zugriff auf den Volltext über OPUS:



Facettenbasierte Indexierung multipler Artefakte : ein Framework für vage Anfragen in der Produktentwicklung / von Nadine Weber

Bamberg: Univ. of Bamberg Press, 2011
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 11)
ISBN 978-3-86309-058-6
Preis: 28,00 €

Durch den zunehmenden Einsatz von Informations- und Kommunikationstechnologien sowie den schnellen Technologiefortschritt steht die Entwicklung technischer Produkte vor immer neuen Herausforderungen. Dabei ist die Aufgabe der Produktentwicklung selbst als Problemlösungsprozess zu betrachten, in dem Lösungen mittels intensiver Informationsverarbeitung gefunden werden. Somit werden täglich unterschiedlichste Arten von Informationen erstellt, benötigt und verarbeitet, die primär in digitaler Form vorliegen. Diese werden in heterogenen Anwendungssystemen verwaltet, was eine Wiederverwendung bereits existierender Informationen erschwert. Damit beansprucht die Suche nach Informationen noch immer einen erheblichen Anteil der Entwicklungszeit.Zur Verbesserung der Informationsversorgung im Bereich der technischen Produktentwicklung wird ein interaktives Information Retrieval-System – das LFRP-Framework – vorgestellt. Dieses kombiniert die vier Basiskonzepte der multiplen Ebenen, der facettierten Suche, des Rankings und der parallelen Koordinaten, um hochkomplexe Informationsbedürfnisse zu befriedigen. Seine Realisierung erfordert neben einer geeigneten Suchoberfläche die Entwicklung einer Indexierungskomponente, welche die vorhandenen Informationen in eine für das LFRP-Framework rechnerverarbeitbare Form transformiert. Dieser als Indexierung bezeichnete Prozess stellt die Grundvoraussetzung für die Funktionsfähigkeit eines Suchsystems dar und liegt daher im Fokus der Betrachtung. Es wird ein Lösungsansatz vorgestellt, welcher eine Indexierung in Form facettenbasierter Suchkriterien ermöglicht und dabei nicht nur Informationen aus heterogenen Anwendungssystemen, sondern insbesondere aus entwicklungsspezifischen Dokumenten, wie CAD-Modellen, technischen Zeichnungen oder Stücklisten, berücksichtigt.

Zugriff auf den Volltext über OPUS:



Interactive Search Processes in Complex Work Situations: a Retrieval Framework / von Raiko Eckstein

Bamberg: Univ. of Bamberg Press, 2011
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 10)
ISBN 978-3-86309-017-3
Preis: 21,70 €

Seit einigen Jahren ist ein stetiges Ansteigen der Menge an Informationen, die in Unternehmen erzeugt werden, festzustellen. Um als Unternehmen wettbewerbsfähig zu bleiben, ist es notwendig, vorhandenes Wissen wiederzuverwenden, um aus vergangenen Projektergebnissen profitieren zu können. Weiterhin ist ein vollständiges Informationsbild unabdingbar, um informierte Entscheidungen treffen zu können. Die Informationsvielfalt in modernen Unternehmen übersteigt häufig die Fähigkeiten aktuell anzutreffender unternehmensweiter Suchlösungen. Die Gründe hierfür sind vielfältig und reichen von nicht verknüpften Informationen aus verschiedenen Softwaresystemen bis hin zu fehlenden Funktionen, um den Nutzer bei der Suche zu unterstützen. Vorhandene Suchfunktionen im Unternehmen unterstützen häufig nicht die Suchparadigmen, die in diesem Umfeld notwendig sind. Vielfach ist den Suchenden bei der Formulierung ihrer Suchanfrage nicht bekannt, welche Ergebnisse sie finden werden. Stattdessen steht der Aspekt des Wissensaufbaus und der Gewinnung neuer Einsichten in den vorhandenen Daten im Vordergrund. Hierzu werden Suchparadigmen benötigt, die dem Nutzer Werkzeuge zur Verfügung stellen, die ein exploratives Navigieren im Datenbestand erlauben und ihnen bei der Erkennung von Zusammenhängen in den Suchergebnissen unterstützen.
Das Ziel dieser Arbeit ist die Vorstellung eines Rahmenwerks, dass explorative Suchvorhaben im Unternehmensumfeld unterstützt. Das beschriebene LFRP-Framework baut auf vier Säulen auf.
1. Die Multi-Layer Funktionalität erlaubt es Nutzern, komplexe Suchanfragen zu formulieren, die sich auf mehr als einen Ergebnistyp beziehen. Dies ermöglicht beispielsweise Suchabfragen, die - ausgehend von einer Menge von relevanten vergangenen Projekten - Selektionen auf den dazugehörigen Dokumenten erlauben.
2. Das Suchparadigma der facettierten Suche unterstützt Nutzer bei der inkrementellen Formulierung von Suchanfragen mithilfe von dynamisch angebotenen Filterkriterien und vermeidet leere Ergebnismengen durch die Bereitstellung gültiger Filterkriterien.
3. Die Erweiterung der facettierten Suche um die Möglichkeit, die Suchergebnisreihenfolge basierend auf Filterkriterien zu beeinflussen, erlaubt es Nutzern feingranular vorzugeben, welche Kriterienausprägungen im Suchergebnis stärker gewichtet werden sollen. Für den Nutzer geschieht die Beeinflussung des Rankings transparent über sogenannte Nutzerpräferenzfunktionen.
4. Die letzte Säule umfasst die Visualisierung der parallelen Koordinaten, die in der Suchoberfläche des LFRP-Frameworks zwei Aufgaben übernimmt. Zum einen formuliert der Nutzer damit die Suchanfrage ausschließlich grafisch über die Visualisierung und zum anderen erhält er eine grafische Repräsentation der Suchergebnisse und kann so leichter Beziehungen zwischen Suchergebnissen und deren Facetten erkennen.
Das Framework, welches in dieser Arbeit formal aus Sicht des Anfragemodells sowie als prototypische Umsetzung betrachtet wird, ermöglicht Nutzern den navigierenden Zugriff auf große vernetze Datenbestände und stellt einen Baustein einer umfassenden Informationsstrategie für Unternehmen dar.

Zugriff auf den Volltext über OPUS:



Dienstorientierte IT-Systeme für hochflexible Geschäftsprozesse / Elmar J. Sinz, Dieter Bartmann, Freimut Bodendorf, Otto K. Ferstl (Hrsg.)

Bamberg: Univ. of Bamberg Press, 2011
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 9)
ISBN 978-3-86309-009-8
Preis: 21,50 €

Der vorliegende Band „Dienstorientierte IT-Systeme für hochflexible Geschäftsprozesse“ enthält ausgewählte Ergebnisse des Forschungsverbundes forFLEX aus den Jahren 2008 - 2011.
Ausgehend von einer Charakterisierung des Forschungsfeldes und zwei fallstudienbasierten Anwendungsszenarien werden Fragen der Analyse, der Modellierung und Gestaltung sowie der Infrastruktur, Sicherheit und Werkzeugunterstützung von hochflexiblen Geschäftsprozessen und ihrer Unterstützung durch dienstorientierte IT-Systeme untersucht.
Das Buch wendet sich an IT-Fach- und Führungskräfte in Wirtschaft und Verwaltung sowie an Wissenschaftler, die an der Analyse und Gestaltung von Flexibilitätspotenzialen (teil-) automatisierter Geschäftsprozesse interessiert sind.

Zugriff auf den Volltext über OPUS:



A Service Description Method for Service Ecosystems : Meta Models, Modeling Notations, and Model Transformations / von Gregor Scheithauer

Bamberg: Univ. of Bamberg Press, 2011
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 8)
ISBN 978-3-86309-007-4
Preis: 21,50 €

Im Rahmen der fortschreitenden Globalisierung und des technischen Wandels spielt das Internet eine immer größere Rolle um Dienstleistungen anzubieten und zu vermitteln. Zur selben Zeit spezialisieren sich Unternehmen zunehmend auf ihre Kernkompetenzen und schließen sich in „Service Ecosystems“ zusammen, um flexibel auf den Markt reagieren zu können. Eine wichtige Fragestellung hierbei ist, wie neue Dienstleistungen innerhalb von Service Ecosystems entwickelt und beschrieben werden können um effizient über das Internet gehandelt zu werden. Hierzu schlägt die vorliegende Arbeit eine Methode zur Beschreibung von Dienstleistungen vor, die sich in Dienstleistungsentwicklungsprozesse integrieren lässt.
Die Entwicklung einer solchen Methode führt zu drei Herausforderungen: Erstens muss herausgefunden werden, welche Eigenschaften sich für die Beschreibung von Dienstleistungen eignen. Diese Arbeit untersucht existierende Ansätze im Bereich Marketing, Wirtschaftsinformatik und Angewandte Informatik und erarbeitet ein Modell für eine formale Beschreibung von Dienstleistungen, welches das Anbieten und Finden von Dienstleistungen im Internet vereinfacht. Zweitens muss die Aufnahme, Dokumentation und Kommunikation von Beschreibungen über den gesamten Dienstleistungsentwicklungsprozess gewährleistet werden. Der in der Arbeit verfolgte Ansatz ist die Entwicklung einer geeigneten Modellierungsnotation als Erweiterung der Unified Modeling Language (UML). Drittens bedarf es einer Überführung der konzeptionellen Beschreibung für Dienstleistungen in Softwarerealisierungssprachen, die im Internet Anwendung finden. Der Beitrag dieser Arbeit umfasst die automatische Überführung der Dienstleistungsbeschreibung in ein Web Service Description Language (WSDL) Dokument mittels Modell-zu-Modell Transformationen.
Die Methode zur Beschreibungen von Dienstleistungen wurde einerseits durch Implementierung einer integrierten Modellierungsumgebung und zugehöriger Transformationsskripte und andererseits durch zwei Fallstudien in der Versicherungs- und IT Outsourcing Branche in der Praxis evaluiert.

Zugriff auf den Volltext über OPUS:



Gemeinschaftliche Qualitätsgesicherte Erhebung und Semantische Integration von Raumbezogenen Daten / von Sebastian Matyas

Bamberg: Univ. of Bamberg Press, 2011
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 7)
ISBN 978-3-86309-002-9
Preis: 22,50 €

In den vergangenen Jahren ist die Verbreitung von mobilen Geräten mit integrierter Lokalisierungstechnologie (z.B. GPS) stark gestiegen. Jeder, der ein solches Gerät besitzt, kann zum Datenlieferanten werden und in einem Netzwerk von Freiwilligen, die Rolle eines Datensensors übernehmen.
In der vorliegenden Dissertation werde ich zwei Problemstellungen näher betrachten, die im Kontext von raumbezogenen Daten, erhoben von Gemeinschaften aus fachlich (hier: geowissenschaftlich) nicht geschulten Nutzern, noch ungelöst sind:
Wie können geowissenschaftliche Laien motiviert werden, freiwillig qualitätsgesicherte raumbezogene Daten zu erheben?
Der erste Beitrag meiner Dissertation liefert eine Antwort auf diese Frage. Er beinhaltet ein Framework zum Design von ortsbezogenen Spielen, die geowissenschaftliche Laien motivieren, raumbezogene Daten qualitätsgesichert in spielerischer Art und Weise zu sammeln. Um es mit den Worten von Peltola et al. (2006) auszudrücken: ”game play is a natural motivator to participate in something that is not necessary or beneficial. [...] By controlling game events and perhaps game logics and rules, the agencies that ultimately use the gathered data, can steer players to do tasks supporting their needs“.
Wie kann die Qualität von Sammlungen semantisch angereicherter raumbezogener Daten verbessert werden?
Eine wichtige Eigenschaft von ortsbezogenen Spielen zur Datenerhebung ist die wiederholte Spielbarkeit. Im Gegensatz zu anderen Domänen ist nämlich die Erstellung redundanter Daten im raumbezogenen Kontext sogar erwünscht. Das Zusammenführen von Daten mehrerer Nutzer kann man als Mehrfachmessung auffassen, die sich dazu nutzen lässt, die Qualität von Lokalisierung (Wo?) und Kategorisierung (Was?) zu verbessern. Der zweite Beitrag meiner Dissertation gibt eine Antwort auf die Fragestellung und besteht in einem Ansatz zur semantischen Integration der gesammelten raumbezogenen Daten. 

Zugriff auf den Volltext über OPUS:



Entwicklung und Überprüfung von Kausalhypothesen : Gestaltungsoptionen für einen Analyseprozess zur Fundierung betrieblicher Ziel- und Kennzahlensysteme durch Kausalhypothesen am Beispiel des Performance-Managements
 / von Thomas Voit

Bamberg: Univ. of Bamberg Press, 2010
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 6)
ISBN 978-3-923507-94-8
Preis: 18,70 €

Viele Unternehmen setzen moderne Performance-Management-Konzepte, wie zum Beispiel die Balanced Scorecard, ein. Hierbei werden Ursache-Wirkungs-Vermutungen aufgestellt, um nicht-finanzielle Kennzahlen zu identifizieren und deren Einfluss auf nachgelagerte Finanzkennzahlen abzubilden. Darüber hinaus werden kausale Abhängigkeiten zwischen Maßnahmen und Zielen in Form von Zweck-Mittel-Beziehungen unterstellt. Die hierfür benötigten Kausalhypothesen werden aber nicht systematisch, sondern meist assoziativ und allein auf Basis von Intuition entwickelt. Man verlässt sich auf vage Vermutungen und hypothetische Zusammenhänge, ohne diese zu überprüfen. Dies birgt die Gefahr einer Fehlsteuerung, indem nutzlose, konfliktäre oder sogar schädliche Maßnahmen aus den nur unzureichend begründeten Ziel- und Kennzahlbeziehungen abgeleitet werden.
Es stellt sich daher die Frage, wie Unternehmen im Performance-Management ein anderer, systematischerer Umgang mit Ursache-Wirkungs-Beziehungen gelingen kann. Auf welchen Wegen können die benötigten Kausalhypothesen entwickelt und überprüft werden?
Um diese Fragen zu beantworten, entwirft diese Arbeit einen generischen Performance-Management-Prozess, der Kausalhypothesen als zentrales Mittel zur ganzheitlichen Gestaltung und Lenkung der betrieblichen Performance nutzt. Daran anknüpfend werden Gestaltungsoptionen für einen Analyseprozess ausgearbeitet, der Kausalhypothesen evidenzbasiert entwickelt und überprüft.
Der wesentliche Beitrag dieser Arbeit besteht darin, dass neben der Datenanalyse ein zweiter - und bis dato noch unbeschrittener - Weg zur Kausalanalyse vorgestellt wird: die modellzentrierte Kausalanalyse. Welche Synergien sich aus der Kombination modell- und datenzentrierter Analyseverfahren ergeben, insbesondere mit den Verfahren des On-Line-Analytical-Processing (OLAP) und Data-Minings, wird empirisch am Beispiel eines Sportartikelherstellers gezeigt.

Zugriff auf den Volltext über OPUS:



Refactoring of Security Antipatterns in Distributed Java Components / von Marc Schönefeld

Bamberg: Univ. of Bamberg Press, 2010
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 5)
ISBN 978-3-923507-67-2
Preis: 18,00 €

Die Bedeutung der Programmiersprache JAVA als Baustein für Softwareentwicklungs- und Produktionsinfrastrukturen ist im letzten Jahrzehnt stetig gestiegen. JAVA hat sich als bedeutender Baustein für die Programmierung von Middleware-Lösungen etabliert. Ebenfalls evident ist die Verwendung von JAVA-Technologien zur Migration von existierenden Arbeitsplatz-Anwendungen hin zu webbasierten Einsatzszenarien.
Parallel zu dieser Entwicklung hat sich die Rolle der IT-Sicherheit nicht zuletzt aufgrund der Verdrängung von mainframe-basierten Systemen hin zu verteilten Umgebungen verstärkt. Der Schutz von Vertraulichkeit, Integrität und Verfügbarkeit ist seit einigen Jahren ein kritisches Alleinstellungsmerkmal für den Markterfolg von Produkten. Verwundbarkeiten in Produkten wirken mittlerweile indirekt über kundenseitigen Vertrauensverlust negativ auf den wirtschaftlichen Erfolg der Softwarehersteller, zumal der Sicherheitsgrad eines Systems durch die verwundbarste Komponente bestimmt wird.
Ein zentrales Ziel dieser Arbeit ist die Erkenntnis zu vermitteln, dass die alleinige Nutzung einer als ´sicher´ eingestuften Programmiersprache nicht als alleinige Grundlage zur Erstellung von sicheren und vertrauenswürdigen Anwendungen ausreicht. Vielmehr führt die Einbeziehung des Bedrohungsmodells der Programmiersprache zu einer verbesserten Risikobetrachtung, da die Angriffsfläche einer Anwendung detaillierter beschreibbar wird.
Die Entwicklung und fortschreitende Akzeptanz einer Programmiersprache führt zu einer Verbreitung von allgemein anerkannten Lösungsmustern zur Erfüllung wiederkehrender Qualitätsanforderungen.
Im Bereich der Dienstqualitäten fördern ´Gegenmuster´, d.h. nichtoptimale Lösungen, die Entstehung von Strukturschwächen, welche in der Domäne der IT-Sicherheit ´Verwundbarkeiten´ genannt werden. Des Weiteren ist die Einsatzumgebung einer Anwendung eine wichtige Kenngröße, um eine Bedrohungsanalyse durchzuführen, denn je nach Beschaffenheit der Bedrohungen im Zielszenario kann eine bestimmte Benutzeraktion eine Bedrohung darstellen, aber auch einen erwarteten Anwendungsfall charakterisieren.
Während auf der Modellierungsebene ein breites Angebot von Beispielen zur Umsetzung von Sicherheitsmustern besteht, fehlt es den Programmierern auf der Implementierungsebene häufig an ganzheitlichem Verständnis. Dieses kann durch Beispiele, welche die Auswirkungen der Verwendung von ´Gegenmustern´ illustrieren, vermittelt werden.
Unsere Kernannahme besteht darin, dass fehlende Erfahrung der Programmierer bzgl. der Sicherheitsrelevanz bei der Wahl von Implementierungsmustern zur Entstehung von Verwundbarkeiten führt. Bei der Vermittlung herkömmlicher Software-Entwicklungsmodelle wird die Integration von praktischen Ansätzen zur Umsetzung von Sicherheitsanforderungen zumeist nur in Meta-Modellen adressiert. Zur Erweiterung des Wirkungsgrades auf die praktische Ebene wird ein dreistufiger Ansatz präsentiert.
Im ersten Teil stellen wir typische Sicherheitsprobleme von JAVA-Anwendungen in den Mittelpunkt der Betrachtung, und entwickeln einen standardisierten Katalog dieser ´Gegenmuster´. Die Relevanz der einzelnen Muster wird durch die Untersuchung des Auftretens dieser in Standardprodukten verifiziert.
Der zweite Untersuchungsbereich widmet sich der Integration von Vorgehensweisen zur Identifikation und Vermeidung der ´Sicherheits-Gegenmuster´ innerhalb des Software-Entwicklungsprozesses. Hierfür werden zum einen Ansätze für die Analyse und Verbesserung von Implementierungsergebnissen zur Verfügung gestellt. Zum anderen wird, induziert durch die verbreitete Nutzung von Fremdkomponenten, die arbeitsintensive Auslieferungsphase mit einem Ansatz zur Erstellung ganzheitlicher Sicherheitsrichtlinien versorgt.
Da bei dieser Arbeit die praktische Verwendbarkeit der Ergebnisse eine zentrale Anforderung darstellt, wird diese durch prototypische Werkzeuge und nachvollziehbare Beispiele in einer dritten Perspektive unterstützt.
Die Relevanz der Anwendung der entwickelten Methoden und Werkzeuge auf Standardprodukte zeigt sich durch die im Laufe der Forschungsarbeit entdeckten Sicherheitsdefizite. Die Rückmeldung bei führenden Middleware-Herstellern (Sun Microsystems, JBoss) hat durch gegenseitigen Erfahrungsaustausch im Laufe dieser Forschungsarbeit zu einer messbaren Verringerung der Verwundbarkeit ihrer Middleware-Produkte geführt.
Neben den erreichten positiven Auswirkungen bei den Herstellern der Basiskomponenten sollen Erfahrungen auch an die Architekten und Entwickler von Endprodukten, welche Standardkomponenten direkt oder indirekt nutzen, weitergereicht werden. Um auch dem praktisch interessierten Leser einen möglichst einfachen Einstieg zu bieten, stehen die Werkzeuge mit Hilfe von Fallstudien in einem praktischen Gesamtzusammenhang. Die für das Tiefenverständnis notwendigen Theoriebestandteile bieten dem Software-Architekten die Möglichkeit sicherheitsrelevante Auswirkungen einer Komponentenauswahl frühzeitig zu erkennen und bei der Systemgestaltung zu nutzen.

Zugriff auf den Volltext über OPUS:



Modellbasierte Analyse von Führungsinformationssystemen : ein Ansatz zur Bewertung auf der Grundlage betrieblicher Planungs- und Lenkungsprozesse / von Alexander Bach
Bamberg: Univ. of Bamberg Press, 2009
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 4)
ISBN 978-3-923507-52-8
Preis: 24,50 €

Die Komplexität von Managementaufgaben steigt infolge zunehmender Einflüsse aus der Unternehmensumwelt und hieraus resultierenden innerbetrieblichen Zustandsänderungen. Um über eine zur Komplexitätsbeherrschung ausreichende Lenkungsvarietät verfügen zu können, wächst dementsprechend der qualitäts- und mengenbezogene Informationsbedarf des Managements. Führungsinformationssysteme unterstützen die Bereitstellung managementrelevanter Informationen, setzen allerdings voraus, dass für die Gestaltung dieser Systeme durchgängig betriebliche Geschäftsprozesse zugrunde gelegt werden.
In der vorliegenden Arbeit wird die zuvor beschriebene Anforderung aufgegriffen und zunächst ein Vorgehen zur Transformation der Methodik der modellbasierten Geschäftsprozessuntersuchung von der Ebene der betrieblichen Leistungserstellung auf die Ebene der Planungs- und Lenkungsprozesse entwickelt. Durch dieses Vorgehen wird ermöglicht, Aufgaben der strategischen Lenkungsebene strukturieren und analysieren zu können.
Weiterer Gegenstand der Untersuchung in der Arbeit ist die Bewertung des Führungsinformationssystems SAP SEM BPS/CPM anhand von Branchen-Referenzmodellen und Geschäftsprozessmodellen. Auf der Grundlage von Beobachtungsergebnissen aus der Branche ´Öffentliche Versorgung & Infrastruktur´werden anhand von Referenzmodellen Gestaltungspotenziale der Software SAP SEM BPS/CPM abgeleitet. Im Rahmen der praxisorientierten Untersuchung eines Fallstudienunternehmens wird zudem der Anwendungsumfang von SAP SEM hinsichtlich der Faktoren Kosten, Zeit und Qualität evaluiert. Zur Analyse des Anwendungsumfangs werden Geschäftsprozessmodelle genutzt, deren Konstruktion auf der Methodik des Semantischen Objektmodells (SOM) basiert.

Zugriff auf den Volltext über OPUS:



A realistic Approach for the autonomic management of component-based Enterprise Systems / von Jens Bruhn
Bamberg: Univ. of Bamberg Press, 2009
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 3)
ISBN 978-3-923507-49-8
Preis: 18,00 €

Seit einigen Jahrzehnten ist ein stetiges Ansteigen der Leistungsfähigkeit verfügbarer Hardwareressourcen festzustellen. Dieses ermöglicht die Zuweisung immer umfangreicherer Aufgaben an Softwaresysteme, was gleichzeitig ein massives Ansteigen der inhärenten Komplexität der verwendeten Systeme zur Folge hat. Ein für die Zukunft zu erwartender weiterer Komplexitätsanstieg erfordert eine explizite Adressierung. Das Konzept der Komponentenorientierung stellt einen Ansatz zur Komplexitätsreduktion für die Entwicklung und Konfiguration von Software durch funktionale Dekomposition dar. Mit der Vision des Autonomic Computing existiert ein Ansatz zur Komplexitätsbewältigung für Betrieb und Wartung von Softwaresystemen. In diesem Zusammenhang wird der Ansatz verfolgt, Aufgaben zur Feinsteuerung eines verwalteten Systems auf das System selbst zu übertragen. Da die Komponentenorientierung zu klar voneinander abgrenzbaren Elementen innerhalb von Systemarchitekturen führt, erscheint sie als viel versprechende Grundlage zur Realisierung der Vision des Autonomic Computing.

Diese Arbeit stellt eine realistische Infrastruktur für die autonome Verwaltung von komponentenbasierten Geschäftsanwendungen vor. Der Anwendungsbereich solcher Systeme stellt spezielle Anforderungen an verwaltete Systeme und ist besonders von der Komplexitätsproblematik betroffen. Um die praktische Relevanz der verfolgten Konzepte und Verfahren zu gewährleisten, wurde ein etablierter Komponentenstandard als Grundlage des Ansatzes gewählt. Bei diesem handelt es sich um Enterprise JavaBeans, Version 3.0. Die vorgestellte Infrastruktur ist generisch konzipiert und umgesetzt. Sie stellt eine Plattform bereit, auf deren Basis Lösungen für verschiedene Anwendungsfelder des Autonomic Computing realisiert werden können. Zur Unterstützung autonomer Verwaltungseinheiten wird eine Programmierschnittstelle bereitgestellt, welche ein System auf drei Ebenen abbildet und dessen Steuerung ermöglicht: Auf oberster Ebene erfolgt die Betrachtung der einem System zugrunde liegenden Software. Auf mittlerer Ebene wird die Architektur eines verwalteten Systems adressiert. Interaktionen innerhalb eines Systems werden auf der untersten Ebene dargestellt. Auf dieser Grundlage kann ein System ganzheitlich und modellbasiert verwaltet werden. Zur Unterstützung der Laufzeitverwaltung eines Systems dient eine spezielle Komponente, welche in ein betroffenes System integriert werden muss. Sie ist konform zum verwendeten Standard und erfordert keine Anpassung der zugrunde liegenden Komponentenplattform. Für die Herstellung der Verwaltbarkeit von Komponenten wird ein Werkzeug bereitgestellt, welches automatisiert alle nötigen Anpassungen vornimmt. Darüber hinaus ist die Verwaltung eines Systems für dessen Elemente zur Laufzeit transparent. Zusammengenommen bleibt die Entwicklung von Geschäftsanwendungen von einer Verwendung der Infrastruktur unbeeinflusst.

Zugriff auf den Volltext über OPUS:



Privacy-enhancing Technologies for Private Services / von Karsten Loesing
Bamberg: Univ. of Bamberg Press, 2009
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 2)
ISBN 978-3-923507-45-0
Preis: 17,60 €

Privatsphäre im Internet wird immer wichtiger, da ein zunehmender Teil des alltäglichen Lebens über das Internet stattfindet. Internet-Benutzer verlieren die Fähigkeit zu steuern, welche Informationen sie über sich weitergeben oder wissen nicht einmal, dass sie dieses tun. Datenschutzfördernde Techniken helfen dabei, private Informationen im Internet zu kontrollieren, zum Beispiel durch die Anonymisierung von Internetkommunikation. Bis heute liegt der Fokus bei datenschutzfördernden Techniken hauptsächlich auf dem Schutz von Anfragen an öffentliche Dienste. Diese Arbeit wirft die Frage nach den Risiken beim Betrieb von Internetdiensten durch Privatpersonen auf. Ein Beispiel hierfür sind Instant-Messaging-Systeme, die es ermöglichen, Anwesenheitsinformationen und Textnachrichten in Echtzeit auszutauschen. Üblicherweise schützen diese Systeme die Anwesenheitsinformationen, die auf zentralen Servern gespeichert werden, nicht besonders. Als Alternative verringern dezentrale Instant-Messaging-Systeme dieses Problem, indem Privatpersonen sich gegenseitig Dienste anbieten. Allerdings bringt das Anbieten eines Dienstes als Privatperson im Vergleich zu Organisationen oder Unternehmen neue Sicherheitsprobleme mit sich: Erstens werden durch die Verfügbarkeit eines solchen Dienstes Informationen über die Präsenz des Dienstanbieters preisgegeben. Zweitens soll der Standort des Servers unerkannt bleiben, um nicht den Aufenthaltsort des Dienstanbieters zu offenbaren. Drittens muss der Server besonders vor unautorisierten Zugriffsversuchen geschützt werden.

Diese Arbeit schlägt die Nutzung von pseudonymen Diensten als Baustein von privaten Diensten vor. Pseudonyme Dienste verbergen den Standort eines Servers, der einen bestimmten Dienst anbietet. Der hier geleistete Beitrag soll herausfinden, welche Teile von pseudonymen Diensten, besonders von Tor Hidden Services, fehlen, um sie für private Dienste einzusetzen. Dies führt zu drei Hauptproblemen, zu denen Lösungen vorgeschlagen werden: Erstens skalieren bisherige Ansätze für pseudonyme Dienste nicht für die in Zukunft zu erwartende Anzahl von privaten Diensten. Diese Arbeit schlägt einen neuen Ansatz vor, der Hidden-Service-Beschreibungen in einer verteilten Datenstruktur ablegt, anstatt sie auf zentralen Servern zu speichern. Ein besonderer Fokus liegt auf der Unterstützung von privaten Einträgen, die für private Dienste benötigt werden. Zweitens geben pseudonyme Dienste während des Anbietens im Netzwerk und der Verbindungsherstellung durch Clients zu viele Informationen über die Identität des Dienstes preis. Der in dieser Arbeit verfolgte Ansatz ist, die Informationen, die ein Dienst im Netzwerk bekanntgibt, auf ein Minimum zu reduzieren und nicht-autorisierte Clients am Zugriff auf den Dienst schon während der Verbindungsherstellung zu hindern. Diese Änderungen schützen die Aktivität und das Nutzungsmuster des Dienstes vor nicht-autorisierten Personen. Drittens weisen pseudonyme Dienste eine schlechtere Effizienz auf als Dienste, auf die direkt zugegriffen wird. Der Beitrag dieser Arbeit ist, die Effizienz zu messen, mögliche Probleme zu identifizieren und Verbesserungen vorzuschlagen.

Zugriff auf den Volltext über OPUS:



Überwindung semantischer Heterogenität bei multiplen Data-Warehouse-Systemen / von Stefan Hartmann
Bamberg: Univ. of Bamberg Press, 2008
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 1)
ISBN 978-3-923507-41-2
Preis: 16,50 €

Der bedarfsorientierte Zugriff auf ein konsolidiertes Berichtswesen stellt für betriebliche Organisationen einen entscheidenden Erfolgsfaktor dar, um einen Informationsvorsprung gegenüber ihren Wettbewerbern erzielen zu können. Data-Warehouse-Systeme (DWH-Systeme) dienen dazu, Entscheidungsträgern die für ihre aktuelle Aufgabe relevanten Informationen rechtzeitig und in geeigneter Form zur Verfügung zu stellen. In der Praxis existieren jedoch multiple DWH-Systeme, die vor allem auf Ebene der Datenschemata sowie der zugrunde liegenden Terminologien eine starke Heterogenität aufweisen. Inkonsistenzen zwischen den generierten Berichten sowie eine divergente Interpretation der Berichtsergebnisse sind die Folge. Der Aufbau eines konsolidierten Berichtswesens ist daher nur mit nachträglichem, manuellem Abstimmungsaufwand möglich.
Die vorliegende Arbeit widmet sich insbesondere dem durch multiple DWH-Systeme offerierten Informationsangebot. Mithilfe der im Semantic Web etablierten Technologie Resource Description Framework (RDF) und der Web Ontology Language (OWL) wird ein Rahmen zur semantisch reichhaltigen Beschreibung von DWH-Metadaten geschaffen. Derartig ausgezeichnete Metadaten unterschiedlicher DWH-Systeme werden anschließend in einer semantischen Homogenisierungsschicht (sHGS) zusammengeführt. Mit diesem Hilfsmittel können Beziehungen zwischen multiplen DWH-Systemen identifiziert und deren semantische Heterogenität überwunden werden.

Zugriff auf den Volltext über OPUS: