Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik

In der Fakultät WIAI werden die auf die Wirtschaftswissenschaften und der Informatik aufbauende Wirtschaftsinformatik mit kultur- und humanwissenschaftlich ausgerichteten Angewandten Informatiken sowie klassischen Fachgebieten der Theoretischen und Praktischen Informatik verbunden. In den Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg (SWIAI) spiegeln sich diese Inhalte wieder.

ISSN: 1867-7401, eISSN: 2750-8560

Schriftenreihe im Forschungsinformationssystem (FIS) der Universität

Bisher erschienene Bände

A Simulation Framework for Function as a Service / Johannes Manner

Bamberg: Univ. of Bamberg Press, 2024
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 43)
978-3-86309-978-7

Preis: 24,00 €

Serverless Computing is seen as a game changer in operating large-scale applications. While practitioners and researches often use this term, the concept they actually want to refer to is Function as a Service (FaaS). In this new service model, a user deploys only single functions to cloud platforms where the cloud provider deals with all operational concerns – this creates the notion of server-less computing for the user.
Nonetheless, a few configurations for the cloud function are necessary for most commercial FaaS platforms as they influence the resource assignments like CPU time and memory. Due to these options, there is still an abstracted perception of servers for the FaaS user. The resource assignment and the different strategies to scale resources for public cloud offerings and on-premise hosted open-source platforms determine the runtime characteristics of cloud functions and are in the focus of this work. Compared to cloud offerings like Platform as a Service, two out of the five cloud computing characteristics improved. These two are rapid elasticity and measured service. FaaS is the first computational cloud model to scale functions only on demand. Due to an independent scaling and a strong isolation via virtualized environments, functions can be considered independent of other cloud functions. Therefore, noisy neighbor problems do not occur. The second characteristic, measured service, targets billing. FaaS platforms measure execution time on a millisecond basis and bill users accordingly based on the function configuration. This leads to new performance and cost trade-offs.
Therefore, this thesis proposes a simulation approach to investigate this tradeoff in an early development phase. The alternative would be to deploy functions with varying configurations, analyze the execution data from several FaaS platforms and adjust the configuration. However, this alternative is time-consuming, tedious and costly. To provide a proper simulation, the development and production environment should be as similar as possible. This similarity is also known as dev-prod parity. Based on a new methodology to compare different virtualized environments, users of our simulation framework are able to execute functions on their machines and investigate the runtime characteristics for different function configurations at several cloud platforms without running their functions on the cloud platform at all. A visualization of the local simulations guide the user to choose an appropriate function configuration to resolve the mentioned trade-off dependent on their requirements.

Zugriff auf den Volltext:
https://doi.org/10.20378/irb-92913

 

The Standardized Coordination Task Assessment (SCTA) : A Method for Use-Inspired Basic Research on Awareness and Coordination in Computer-Supported Cooperative Settings / Christoph Oemig

Bamberg: Univ. of Bamberg Press, 2022
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 42)
978-3-86309-882-7

Preis: 28,00 €

Today’s modern world often affords individuals to form teams to work together towards shared goals and objectives. The need for tools to digitally support collaboration distributed in time and space increased over the past decades significantly with a recent sudden increase due to the Corona pandemic crisis. The research goal in the field of computer-supported cooperative work (CSCW) has always been to design systems that facilitate collaboration based on the understanding of groups and social interaction – especially on how people coordinate their work.
In the real-world coordination happens in a seemingly seamless and effortless way. However, the resulting mechanisms translated to digital systems often provide a clumsy and awkward experience as users lack the means for subtle and rich interaction beyond the spoken word. After numerous failures revealing system deficits and a large number of ethnographic studies, researchers identified awareness to become the support mechanism for effortless coordination in digital systems. Yet, instead of addressing the problem using appropriate methods and tools, researchers found themselves trapped in circular reformulations of concepts and evaluations of prototypes on the basis of disciplinary preferences ignoring the basic characteristics of the objects of interest. Even worse, the most basic design tensions stemming from a use-inspired perspective have not been resolved indicating a substantial problem with the evaluation of awareness and coordination support. Effortless coordination cannot be reached without being measured, thus not without an appropriate measurement approach.
This thesis introduces an appropriate assessment method for the efforts related to awareness and coordination support in cooperative settings – the STANDARDIZED COORDINATION TASK ASSESSMENT (SCTA). Applying a use-inspired basic research driven approach it creates and leverages an effort-based operationalization of the two constructs derived from literature and especially from a cognitive perspective. A highly automated and scalable framework delivers quantitative results to be used for hypotheses validations that allows a benchmark-based approximation of effortless coordination. At the same time the method opens the door for a lot more use-inspired basic research to resolve many of the still open design tensions and challenges.

Zugriff auf den Volltext:
https://doi.org/10.20378/irb-55384

 

Data Structure Identification from Executions of Pointer Programs / Thomas Rupprecht

Bamberg: Univ. of Bamberg Press, 2020
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg  ; 41)
978-3-86309-717-2

Preis: 32,00 €

Reverse engineering of binaries is tedious, yet mandatory when program behavior must be understood while source code is unavailable, e.g., in case of malware. One challenge is the loss of low level type information, i.e., primitive and compound types, which even state-of-the-art type recovery tools, such as Howard, often cannot reconstruct with full accuracy. Further programmers use high level dynamic data structures, e.g., linked lists. Therefore the detection of data structure shapes is important for reverse engineering. A recent approach called Data Structure Investigator (DSI), aims for detecting dynamic pointer based data structures. While DSI is a general approach, a concrete realization for C programs requiring source code is envisioned as type casts and pointer arithmetic will stress test the approach.

This dissertation improves upon the state-of-the-art of shape detection and reverse engineering by (i) realizing and evaluating the DSI approach, including contributions to DSI’s theory, which results in a DSI prototype; (ii) opening up DSI for C/C++ binaries to extend DSI to reverse engineering, resulting in a DSIbin prototype; (iii) handling data structures with DSIbin not covered by some related work, e.g., skip lists; (iv) refining the nesting detection and performing type merging for types excavated by Howard.

Zugriff auf den Volltext:
https://doi.org/10.20378/irb-47325

 

Reverse Engineering of Real-Time System Models From Event Trace Recordings / Andreas Sailer

Bamberg: Univ. of Bamberg Press, 2019
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 40)
978-3-86309-690-8

Preis: 35,50 €

Model-driven approaches are experiencing an increasing acceptance in the automotive domain thanks to the availability of the AUTOSAR standard. However, the process of creating models of existing system components is often difficult and time consuming, especially when legacy code is involved or information about the exact timing is needed.

This work focuses on reversely engineering an AUTOSAR-compliant model, which can be used for further processing including timing simulation and optimisation, via a dynamic analysis from trace recordings of a real-time system. Huselius, whose work is among the publications most related to the topic of this thesis, proposes a technique to reverse engineer a model that reflects the general temporal behaviour of the original real-time software. However, like other existing solutions, it was not developed with AUTOSAR in mind.

We want to tackle this deficiency by introducing an approach that seizes on Huselius’s considerations and extends them in order to make them applicable to the automotive domain. To do so, we present Core-TAna, a prototypical tool that derives an AUTOSAR compliant model of a real-time system by conducting dynamic analysis using trace recordings. Motivated by the challenge of assessing the quality of reverse engineered models of real-time software, we also introduce a mathematical measure for comparing trace recordings from embedded real-time systems regarding their temporal behaviour and a benchmark framework based on this measure, for evaluating reverse engineering tools such as CoreTAna.

Zugriff auf den Volltext:
https://doi.org/10.20378/irb-46506

 

Integrierte Entwicklung und Ausführung von Prozessen in dezentralen Organisationen : Ein Vorschlag auf Basis der Blockchain / Felix Härer

Bamberg: Univ. of Bamberg Press, 2019
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 39)
978-3-86309-682-3

Preis: 29,50 €

Die Informationssysteme von dezentralen Organisationen sind heute als Komponenten eines globalen Informationssystems miteinander vernetzt. Organisationen, Individuen und Software agieren autonom und sind zugleich kooperativ an der Erstellung von Leistungen beteiligt. Die Planung und Ausführung der hierfür erforderlichen Interaktionen in Form von Prozessen stehen dabei nicht unter der Kontrolle Einzelner. Zur Entwicklung und Ausführung von Prozessen unter dezentraler Koordination schlägt diese Arbeit einen Ansatz auf der Basis von Blockchain-Technologien vor. Damit wird zum einen die Gestaltung dezentraler Organisationen adressiert und zum anderen die innerhalb von solchen Systemen verteilt und nicht-zentral gesteuerte Koordination der Entwicklung. Die Arbeit beschreibt die Dezentralisierung und die modellbasierte Entwicklung von prozessorientierten Systemen zunächst aus organisationstheoretischer Sicht. Als Entwicklungs- und Ausführungsplattformen stehen anschließend dezentrale Blockchain-Systeme im Fokus, mit denen die Verbindlichkeit und Integrität von Transaktionen zwischen a priori unbekannten Knoten eines Netzes gewährleistet werden kann. Die Entwicklung und Ausführung von Prozessen werden auf dieser Basis durch einen modellbasierten Ansatz realisiert. Dieser wird durch einen Architekturrahmen zur konzeptuellen Modellierung, zur kooperativen Modellbildung und zur Nachverfolgung von Instanzen etabliert. Die konzeptuelle Modellierung von Netzwerken, Prozessen und Instanzen greift auf das Semantische Objektmodell (SOM) zurück, um die Aufgabenebene dezentraler Organisationen auf eine dezentral realisierte Aufgabenträgerebene abzubilden. Die kooperative Modellbildung und die Nachverfolgung von Instanzen nutzen Technologien zur verteilten Versionsverwaltung in Verbindung mit Smart Contracts des Blockchain-Systems Ethereum. Die Demonstration der Anwendbarkeit des Ansatzes anhand einer Fallstudie und einer Software-Implementierung schließen die Arbeit ab.

Zugriff auf den Volltext:
https://doi.org/10.20378/irbo-55721

 

Effective and Efficient Summarization of Two-Dimensional Point Data : Approaches for Resource Description and Selection in Spatial Application Scenarios / Stefan Kufer

Bamberg: Univ. of Bamberg Press, 2019
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 38)
978-3-86309-672-4

Preis: 45,50 €

Spatial data is everywhere, and its amount is increasing every day. Spatial data is often two-dimensional point data that is associated with data objects (e.g. media objects such as images or text). Due to the large amounts of data, there is a need for efficient and effective search systems that can handle the spatial properties of these data objects. The search systems can be both distributed and centralized solutions. In both scenarios, the concept of resource description and selection is an applicable paradigm for similarity searches performed regarding the spatial properties of the data objects. To achieve highly performant solutions, it is necessary to summarize the geographical footprint of a resource by means of geometrically delimited areas. Hereby, both efficiency as well as effectiveness are important. The term „effectiveness“ refers to a spatially very accurate geometric delimitation of the data point sets to be described whereas the term „efficiency“ aims at their storage-spacesaving representation. The work deals with the  development of effective and at the same time efficient summarization approaches for sets of two-dimensional data points. For the distributed application scenario, a total of 14 summarization approaches are presented and evaluated for different data collections. For the centralized application scenario, the two most suitable summary approaches are integrated into a centralized, multidimensional access structure and evaluated against the state-of-the-art for several data collections.

Zugriff auf den Volltext:
https://doi.org/10.20378/irbo-55137

 

On the Automated Derivation of Domain-Specific UML Profiles / Alexander Kraas

 

Bamberg: Univ. of Bamberg Press, 2019
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 37)
978-3-86309-670-0

Preis: 29,50 €

The model-driven engineering (MDE) of domain-specific languages (DSLs) becomes increasingly important for standardization. Both metamodels and profiles for the Unified Modeling Language (UML) are often provided for standardized DSLs. Usually, the mappings of metamodels to UML profiles are only specified in some abstract manner by such standards. Consequently, not all details required to create executable model transformations are defined. Moreover, the static semantics of metamodels and/or UML profiles are often specified only in natural language. Thus, on the one hand, ambiguities can occur, and on the other hand, the soundness of the static semantics cannot be verified and validated without a manual translation into a machine-processable language.

The main goal of this dissertation is to remedy the identified weaknesses in developing DSLs, for which a metamodel and a UML profile shall be created. To achieve this goal, we propose a holistic MDE-based approach for automatically deriving UML profiles and model transformations basedon CMOF metamodels. This approach enables an automatic transfer of DSL’s static semantics to UML profiles, so that the well-formedness of UML models with applied UML profile of a DSL can be verified automatically. In addition, the interoperability between UML and DSL models can already be validated in the development phase using the derived model transformations. Apart from new DSLs that are created from scratch, our approach also supports a migration of existing grammar-based DSLs towards metamodels, provided syntax rules exist.

Zugriff auf den Volltext:
https://doi.org/10.20378/irbo-54891

 

Predictive Analytics for Energy Efficiency and Energy Retailing / Konstantin Hopf

 

Bamberg: Univ. of Bamberg Press, 2019
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 36)
978-3-86309-668-7

Preis: 32,50 €

Digitization causes large amounts of data in organizations (e.g., transaction data from business processes, communication data, sensor data). Besides, a large number of data sources are emerging online and can be freely used. Firms are looking for ways to commercialize this increasing amount of data and research aims to better understand the data value creation process. The present dissertation answers five central research questions in this context and examines how machine learning (ML) can be used to create value from data, using case studies from energy retailing and energy efficiency. First, a systematic literature review gives an overview of firm internal and external data sources for potential analyses. Second, the importance of human cognition, theory, and expert knowledge in effective data preparation for ML is demonstrated. Third, current ML algorithms and variable selection methods are empirically compared using industry data sets. Implications for theory and practice are identified. Finally, the successful use of the information gained through ML is exemplified through case studies where increased energy efficiency, customer value, and service quality can demonstrate economic, environmental, and social value. Thus, this empirical work contributes to the so far rather conceptual discussion on value creation from big data in information systems research.

Zugriff auf den Volltext:
https://doi.org/10.20378/irbo-54833

 

Ermittlung aufgabenbezogener Integrationsbedarfe zur Ableitung von Integrationsarchitekturen für Informationssysteme / Florian Bader

 

Bamberg: Univ. of Bamberg Press, 2019
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 35)
978-3-86309-650-2

Preis: 22,50 €

Das Informationssystem ist für Organisationen das informationsverarbeitende System. Dieses ist unter anderem für die Planung, Steuerung sowie die Kontrolle von Geschäftsprozessen zuständig. Zur Durchführung von Geschäftsprozessen werden häufig sowohl unterschiedliche maschinelle, insbesondere Anwendungssysteme, als auch personelle Aufgabenträger eingesetzt. Dies führt dazu, dass Ressourcenebenen von Geschäftsprozessen meist heterogen geprägt sind. Damit entsteht das Problem, geeignete Integrationsarchitekturen zu konstruieren und dabei die relevanten Integrationsmerkmale der Ressourcenebene mit den spezifischen Anforderungen der Geschäftsprozesse geeignet zu kombinieren. Für die Erschließung dieses Problemfeldes bietet die vorliegende Arbeit zunächst einen Überblick über bestehende Ansätze zum Entwurf von Integrationsarchitekturen für Informationssysteme. Bei der ersten Annäherung an das Thema ist schnell festzustellen, dass bei der Integration der Fokus häufig auf die Technologie gerichtet wird, insbesondere auf die Erstellung von Schnittstellen für die beteiligten Anwendungssysteme. Darüber hinaus wird auf Ressourcenebene neben Anwendungssystemen der personelle Anteil bei der Konstruktion von Integrationsarchitekturen oftmals unzureichend berücksichtigt. Zur Vermeidung dieser einengenden Sichtweise wird deshalb im Rahmen dieser Arbeit ein Top-Down-Ansatz entworfen. Bei diesem werden ausgehend vom Geschäftsprozess Integrationsbedarfe identifiziert und mittels Merkmalen die Anforderungen an die Integration aus Sicht der involvierten Aufgaben spezifiziert. Unter geeigneter Kombination mit der Ressourcenebene können verschiedene Szenarien miteinander verglichen werden. Grundlage des entwickelten Top-Down-Ansatzes ist das Semantische Objektmodell. Die Anwendung wird anhand von Fallstudien aus dem Hochschulbereich sowie der Güterdistribution verdeutlicht und mithilfe eines entwickelten Prototypen unterstützt.

Zugriff auf den Volltext:
https://doi.org/10.20378/irbo-54651

 

On the Portability of Applications in Platform as a Service / Stefan Kolb

 

Bamberg: Univ. of Bamberg Press, 2019
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 34)
978-3-86309-631-1

Preis: 29,50 €

In recent years, the cloud hype has led to a multitude of different offerings across the entire cloud market, from Infrastructure as a Service (IaaS) to Platform as a Service (PaaS) to Software as a Service (SaaS). Despite the high popularity, there are still several problems and deficiencies. Especially for PaaS, the heterogeneous provider landscape is an obstacle for the assessment and feasibility of application portability.

Thus, the thesis deals with the analysis and improvement of application portability in PaaS environments. In the course of this, obstacles over the typical life cycle of an application - from the selection of a suitable cloud provider, through the deployment of the application, to the operation of the application - are considered. To that end, the thesis presents a decision support system for the selection of cloud platforms based on an improved delimitation and conceptualization of PaaS. With this system, users can identify offerings that enable application portability. For validation, a case study with a real-world application is conducted that is migrated to different cloud platforms. In this context, an assessment framework for measuring migration efforts is developed, which allows making the differences between compatible providers quantifiable. Despite semantically identical use cases, the application management interface of the providers is identified as a central effort factor of the migration. To reduce the effort in this area, the thesis presents a unified interface for application deployment and management.

In summary, the work provides evidence of application portability problems in PaaS environments and presents a framework for early detection and avoidance. In addition, the results of the work contribute to a reduction of lock-in effects by proposing a suitable standard for management interfaces.

Zugriff auf den Volltext:
https://doi.org/10.20378/irbo-54102

 

New Concepts for Presence and Availability in Ubiquitous and Mobile Computing : Enabling Selective Availability through Stream-Based Active Learning / Mirko Fetter

 

Bamberg: Univ. of Bamberg Press, 2018
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 33)
978-3-86309-623-6

Preis: 26,00 €

Modern Computer-mediated Communication technologies like Instant Messaging (IM) systems enable spontaneous communication over distance. With the advances in Mobile and Ubiquitous Computing, these technologies move away from the desktop computers of our offices, and become more and more pervasive and interwoven with our daily lives. The introduction of these great possibilities to communicate from everywhere with everyone however comes at a cost: The cost of constantly being available to everybody, everywhere, leading to an increasing number of interruptions in our daily tasks. The challenge is, that current technology does not empower users to manage their availability in an adequate manner. Most IM clients for example, only support one single online status that needs to be managed manually by the user. In this work I am founding the concepts of Presence and Availability on a deep understanding of human privacy needs, derived from literature. Based on this foundation, I show how the selective and dynamic nature of privacy is not sufficiently reflected in current systems. Based on two user studies I reveal patterns for selective information disclosure and present an analysis of Selective Availability needs. With the collected study data, I further show that Selective Availability for nomadic users can be predicted based on sensors installed on the users’ laptop computer with a good accuracy through machine learning. As the personalised nature of the data requires new concepts for building an adaptive system, I introduce the LILOLE Framework. The LILOLE Framework outlines the concept of an adaptive system that relies on stream-based active learning to continuously learn and automatically adapt fine-grained personal availability preferences for individual users. The concept is validated through a proof-of-concept implementation and an evaluation based on real user data. In comparison to related work, the presented work is one of very few examples that goes beyond the pure analysis of the predictability, but provides a concept and an implementation of a real system as validation. My approach is novel by combining concepts from Data Stream Mining and Active Learning to predict availability, thus making it very flexible for different settings. This way I am able to address the selective and dynamic nature of availability preferences for nomadic users.

Zugriff auf den Volltext:
https://doi.org/10.20378/irbo-53161

 

Proof Search in Multi-Agent Dialogues for Modal Logic / Martin Sticht

 

Bamberg: Univ. of Bamberg Press, 2018
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 32)
978-3-86309-599-4

Preis: 22,50 €

 In computer science, modal logics play an important role in various areas, e.g., to model knowledge structures or ontologies. Intuitionistic or constructive pro­positional logic can be considered as a special kind of modal logic. Constructive modal logics describe a restrictive family of modal systems. To prove validity of a statement formalized in such logics, various reasoning procedures (calculi) have been investigated. When searching for proofs, a normalization of deductions in a calculus is desired. A new attempt to find a normalized calculus leads to dialogical logic, a game-theoretic reasoning technique. Usually, two players, one proponent and one opponent, argue about an assertion, expressed as a formula and stated by the proponent at the beginning of the play. The dialogical approach is very flexible as the game rules can be adjusted easily. It turns out that intro­ducing  further proponent-players who fight one opponent in a round-based set­ting leads to a normalization of proofs. Ordinary sequent systems can easily be transferred into the dialectic setting to achieve that normalization. Further, the round-based scheduling induces a method to parallelize the reasoning process. Modifying the game rules makes it possible to construct new intermediate or even more restrictive logics.

In this work, multi-proponent dialogical systems are introduced and adequate­ness proofs for rules that implement intuitionistic propositional logic and the modal systems S4 and CS4, are provided. Similarities and differences to various sequent systems and dialogical approaches are investigated.

Zugriff auf den Volltext:
https://doi.org/10.20378/irbo-52527

 

Korpusbasierte Verfahren zur Generierung lexikalischer Ressourcen für das Opinion Mining / von Dirk Reinel

 

Bamberg: Univ. of Bamberg Press, 2018
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 31)
978-3-86309-593-2

Preis: 22,00 €

Die ständig zunehmende Anzahl nutzergenerierter textueller Daten im World Wide Web, wie beispielsweise Kundenrezensionen, und die Begehrlichkeiten diese Daten hinsichtlich der darin ausgedrückten Meinungen zu Unternehmen, Produkten, Dienstleistungen etc. maschinell auszuwerten, erfordern gut funktionierende, angepasste Methoden des Opinion Mining. Die Grundlage für viele dieser Methoden bilden lexikalische Ressourcen in Form von Lexika meinungstragender Wörter und Phrasen. Diese Lexika existieren bisher allerdings nur für ausgewählte Sprachen, haben diverse inhaltliche Lücken, und sind automatisch (für verschiedene Sprachen) nur mit großem Aufwand zu erzeugen. In dieser Arbeit wird deshalb ein neues Verfahren vorgestellt, das dazu beitragen soll, die benannten Probleme – durch den Einsatz statistischer Methoden – zu überwinden. Zudem wurde, mittels dieses Verfahrens, der Prototyp eines neuen Lexikons mit meinungstragenden Wörtern und Phrasen für die deutsche Sprache generiert und anschließend evaluiert. Dafür wurde im Rahmen eines Experiments mit 20 Teilnehmern ein Basis-Referenzlexikon für die deutsche Sprache manuell erzeugt. Klassische Einsatzgebiete der Opinion Mining Algorithmen und Ressourcen, und damit des vorgestellten Verfahrens, sind Systeme zur Erfassung von Kundenmeinungen zu verschiedenen Unternehmensbereichen zur Unterstützung des Beschwerde- und Reputationsmanagements. Allerdings sind die Möglichkeiten des neu entwickelten Verfahrens nicht auf diese klassischen Anwendungsfelder begrenzt. Auch der interdisziplinäre Einsatz, z.B. zur Untersuchung von Sprachvarietäten im Forschungsfeld der Sprachstatistik, ist denkbar.

Zugriff auf den Volltext:
https://doi.org/10.20378/irbo-52349

 

Rekonstruktion von Orten als sozialem Phänomen : Geoinformatische Analyse semantisch annotierter Verhaltensdaten / von Dominik Kremer

 

Bamberg: Univ. of Bamberg Press, 2018
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 30)
978-3-86309-579-6

Preis: 24,00 €

Im Feld der Angewandten Informatik leistet die Arbeit einen Beitrag im Bereich ortsbezogene Geoinformationssysteme, indem durch einen räumlichen Lösungsansatz für eine ortsbezogene Verbundoperation eine bislang nicht verfügbare Funktion (Ähnlichkeit auf Orten) über unterschiedliche Datenarten und -quellen realisiert werden konnte, die sich für einen wichtigen Anwendungsfall (touristische Exploration einer Stadt) als äußerst produktiv erwiesen hat. Das Vorgehen, Zusammenhang zwischen Orten über partielle räumliche Koinzidenz herzustellen, steht dabei komplementär zu bisherigen Ansätzen, Verknüpfungen im Sinne des Qualitativen Räumlichen Schließens ausschließlich auf Ebene des verfügbaren ortsbezogenen Wissens herzustellen.

Zugriff auf den Volltext:
https://doi.org/10.20378/irbo-51890

 

Supporting Format Migration with Ontology Model Comparison / Peter Wullinger

 

Bamberg: Univ. of Bamberg Press, 2018
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 29)
978-3-86309-577-2

Preis: 25,00 €

Being able to read successfully the bits and bytes stored inside a digital archive does not necessarily mean we are able to extract meaningful information from an archived digital document. If information about the format of a stored document is not available, the contents of the document are essentially lost. One solution to the problem is format conversion, but due to the amount of documents and formats involved, manual conversion of archived documents is usually impractical. There is thus an open research question to discover suitable technologies to transform existing documents into new document formats and to determine the constraints within which these technologies can be applied successfully. In the present work, it is assumed that stored documents are represented as formal description logic ontologies. This makes it possible to view the translation of document formats as an application of ontology matching, an area for which many methods and algorithms have been developed over the recent years. With very few exceptions, however, current ontology matchers are limited to element-level correspondences matching concepts against concepts, roles against roles, and individuals against individuals. Such simple correspondences are insufficient to describe mappings between complex digital documents. This thesis presents a method to refine simple correspondences into more complex ones in a heuristic fashion utilizing a modified form of description logic tableau reasoning. The refinement process uses a model-based representation of correspondences. Building on the formal semantics, the process also includes methods to avoid the generation of inconsistent or incoherent correspondences. In a second part, this thesis also makes use of the model-based representation to determine the best set of correspondences between two ontologies. The developed similarity measures make use of semantic information from both description logic tableau reasoning as well as from the refinement process. The result is a new method to semi-automatically derive complex correspondences between description logic ontologies tailored but not limited to the context of format migration.

 Zugriff auf den Volltext:
https://doi.org/10.20378/irbo-51701

 

Management von Datenanalyseprozessen / von Bernd Knobloch

 

Bamberg: Univ. of Bamberg Press, 2018
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 28)
978-3-86309-565-9

Preis: 34,50 €

Die vorliegende Arbeit präsentiert eine umfassende, interdisziplinäre Methodik zum Management von Datenanalyseprozessen. Sie betrachtet die Planung, Steuerung und Revision dieser Prozesse und bezieht die Problemspezifikation, die Prozessspezifikation und die Ressourcen- spezifikation ein. Damit gestattet sie eine in Bezug auf die für Datenanalysevorhaben relevanten Modellierungsobjekte vollständige Repräsentation.

Zugriff auf den Volltext:
https://doi.org/10.20378/irbo-51483

 

Konstruktion geschäftsprozessorientierter operativ-dispositiver Komponentenarchitekturen / Thomas Benker

 

Bamberg: Univ. of Bamberg Press, 2018
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 27)
978-3-86309-557-4

Preis: 24,50 €

Geschäftsprozesse bilden die Lösungsverfahren betrieblicher Systeme und gleichzeitig die zentralen Artefakte zur Realisierung der unternehmerischen Ziele. In Zeiten dynamischer Märkte mit intensivem Wettbewerb ist es umso wichtiger, zeitnah auf Veränderungen am Markt sowie Ereignisse in den Prozessen selbst zu reagieren. In der Konsequenz gilt es, die eigenen Geschäftsprozesse stetig zu hinterfragen und Maßnahmen zu deren effizienterer und innovativerer Durchführung abzuleiten. Mit dem geschäftsprozessorientierten Data-Warehouse-System (gpDWH-System) wird ein Konzept vorgestellt, das an dieser Stelle ansetzt. Entscheidungsrelevante Ablaufdaten werden sowohl auf Aufgabenträgerebene angeboten als auch in den Kontext der betrieblichen Leistungserstellung auf Aufgabenebene eingeordnet. Ein Geschäftsprozess kann damit umfassend aus unterschiedlichen Perspektiven analysiert werden. Abgeleitete prozessbezogene Maßnahmen als Reaktion auf Ereignisse im Markt- und Kundenverhalten sind schließlich mit unterschiedlichem Zeitverzug zu realisieren. Das Spektrum kann vom kurzfristigen, automatisierten steuernden Eingreifen in eine Prozessinstanz bis hin zur mittelfristigen Anpassung der Prozessstrukturen reichen. Es wird eine Referenzarchitektur vorgeschlagen, die zu diesem Zweck operative und dispositive Anwendungssysteme über das gpDWH-System integriert. Der Herausforderung der stetigen Anpassung von Geschäftsprozessen und damit der zugehörigen Anwendungssysteme wird zum einen durch die Grundsätze der Komponentenorientierung begegnet. Zum anderen wird ein Datenschema für gpDWH-Systeme vorgeschlagen, das als stabil im Falle sich verändernder Prozesse angesehen werden kann. Zur Anwendung in betrieblichen Szenarien sowie zur Unterstützung des Entwicklers wird eine Entwicklungsmethodik mit Berücksichtigung von Referenzarchitektur und Datenschema bereitgestellt. Als Grundlage dienen dabei das etablierte Semantische Objektmodell (SOM) sowie das Semantische Data-Warehouse-Modell (SDWM). Die resultierende Methodik ist jedoch auch unabhängig von diesen Ansätzen gültig und anwendbar. Die Konzeption operativer und dispositiver Anwendungssysteme, deren Integration sowie Entwicklung stellen komplexe Tätigkeiten dar. Zur Beherrschung dieser Komplexität folgt die gestaltungsorientierte Arbeit der durchgängigen Metapher von Angebot und Nachfrage. Anhand dieser werden Teilsysteme gebildet und jeweils auf Aufgaben- und Aufgabenträgerebene beschrieben. Zur Demonstration und zum Nachweis von Referenzarchitektur, Datenschema und Entwicklungsmethodik dient eine durchgehende Fallstudie zur Vermietung von Elektrofahrzeugen.

Zugriff auf den Volltext:
https://doi.org/10.20378/irbo-51230

 

SOCNET 2018 : Proceedings of the “Second International Workshop on Modeling, Analysis, and Management of Social Networks and Their Applications” / Kai Fischbach, Udo R. Krieger (eds.)

 

Bamberg: Univ. of Bamberg Press, 2018
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 26)
978-3-86309-545-1

Preis: 18,50 €

Modeling, analysis, control, and management of complex social networks represent an important area of interdisciplinary research in an advanced digitalized world. In the last decade social networks have produced significant online applications which are running on top of a modern Internet infrastructure and have been identified as major driver of the fast growing Internet traffic. The "Second International Workshop on Modeling, Analysis and Management of Social Networks and Their Applications" (SOCNET 2018) held at Friedrich-Alexander-Universität Erlangen-Nürnberg, Germany, on February 28, 2018, has covered related research issues of social networks in modern information society. The Proceedings of SOCNET 2018 highlight the topics of a tutorial on "Network Analysis in Python" complementing the workshop program, present an invited talk "From the Age of Emperors to the Age of Empathy", and summarize the contributions of eight reviewed papers. The covered topics ranged from theoretical oriented studies focusing on the structural inference of topic networks, the modeling of group dynamics, and the analysis of emergency response networks to the application areas of social networks such as social media used in organizations or social network applications and their impact on modern information society. The Proceedings of SOCNET 2018 may stimulate the readers' future research on monitoring, modeling, and analysis of social networks and encourage their development efforts regarding social network applications of the next generation.

Zugriff auf den Volltext:
https://doi.org/10.20378/irbo-51026

 

Effective and Efficient Process Engine Evaluation / Simon Harrer

Bamberg: Univ. of Bamberg Press, 2017
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 25)
978-3-86309-503-1

Preis: 27,00 €

Business processes have become ubiquitous in industry today. They form the main ingredient of business process management. The two most prominent standardized languages to model business processes are Web Services Business Process Execution Language 2.0 (BPEL) and Business Process Model and Notation 2.0 (BPMN). Business process engines allow for automatic execution of business processes. There is a plethora of business process engines available, and thus, one has the agony of choice: which process engine fits the demands the best? The lack of objective, reproducible, and ascertained information about the quality of such process engines makes rational choices very difficult. This can lead to baseless and premature decisions that may result in higher long term costs. This work provides an effective and efficient benchmarking solution to reveal the necessary information to allow making rational decisions. The foundation comprises an abstraction layer for process engines that provides a uniform API to interact with any engine similarly and a benchmark language for process engines to represent benchmarks in a concise, self-contained, and interpretable domain-specific language. A benchmark framework for process engines performs benchmarks represented in this language on engines implementing the abstraction layer. The produced benchmark results are visualized and made available for decision makers via a public interactive dashboard. On top of that, the efficient benchmark framework uses virtual machines to improve test isolation and reduce “time to result” by snapshot restoration accepting a management overhead. Based on the gained experience, eight challenges faced in process engine benchmarking are identified, resulting in 21 process engine benchmarking. Results show that this approach is both effective and efficient. Effective because it covers four BPEL-based and another four BPMN-based benchmarks which cover half of the quality characteristics defined by the ISO/IEC 25010 product quality model. Efficient because it fully automates the benchmarking of process engines and can leverage virtualization for an even higher execution efficiency. With this approach, the barrier for creating good benchmarks is significantly lowered. This allows decision makers to consistently evaluate process engines and, thus, makes rational decisions for the corresponding selection possible.

Zugriff auf den Volltext:
https://doi.org/10.20378/irbo-49633

 

MMBnet 2017 : Proceedings of the 9th GI/ITG Workshop „Leistungs-, Verlässlichkeits- und Zuverlässigkeitsbewertung von Kommunikationsnetzen und Verteilten Systemen“ / Udo R. Krieger, Thomas C. Schmidt, Andreas Timm-Giel (eds.) 

Bamberg: Univ. of Bamberg Press, 2017
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 24)
978-3-86309-501-7

Preis: 20,00 €

Nowadays, mathematical methods of systems and network monitoring, modeling, simulation, and performance, dependability and reliability analysis constitute the foundation of quantitative evaluation methods with regard to software-defined next-generation networks and advanced cloud computing systems. Considering the application of the underlying methodologies in engineering practice, these sophisticated techniques provide the basis in many different areas. The GI/ITG Technical Committee “Measurement, Modelling and Evaluation of Computing Systems“ (MMB) and its members have investigated corresponding research topics and initiated a series of MMB conferences and workshops over the last decades. Its 9th GI/ITG Workshop MMBnet 2017 „Leistungs-, Verlässlichkeits- und Zuverlässigkeitsbewertung von Kommunikationsnetzen und Verteilten Systemen“ was held at Hamburg University of Technology (TUHH), Germany, on September 14, 2017. The proceedings of MMBnet 2017 summarize the contributions of one invited talk and four contributed papers of young researchers. They deal with current research issues in next-generation networks, IP-based real-time communication systems, and new application architectures and intend to stimulate the reader‘s future research in these vital areas of modern information society.

Zugriff auf den Volltext:
https://doi.org/10.20378/irbo-49762

 

Portability of Process-Aware and Service-Oriented Software : Evidence and Metrics / von Jörg Lenhard

Bamberg: Univ. of Bamberg Press, 2016
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 23)
978-3-86309-399-0

Preis: 22,00 €

The development of modern distributed software systems has been shaped by the trends of service-orientation and process-awareness. Execution platforms supporting these trends are called engines. Applications and engines interface via language standards. A primary motivation for the usage of standards is the portability of applications, the ability to move software among different execution platforms without the necessity for full or partial reengineering. Nevertheless, practice shows that service-oriented and process-aware applications today are limited with respect to their portability. The reason for this is that engines rarely implement a complete standard. This work contributes to the development of portable service-oriented and process-aware software in two ways: Firstly, it provides evidence for the existence of portability issues and the insufficiency of standards for guaranteeing software portability. Secondly, it derives and validates a novel measurement framework for quantifying portability. We present a methodology for benchmarking the conformance of engines to a language standard and implement it in a fully automated benchmarking tool. On this basis, this work derives a measurement framework for portability, which is aligned to the ISO/IEC SQuaRE model and measurement methodology. This quality model separates the software quality characteristic of portability into the subcharacteristics of installability, adaptability, and replaceability. Each characteristic is addressed by a separate analysis, metrics derivation, evaluation, and validation.

Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus4-462521

 

INTERACT 2015 Adjunct Proceedings : 15th IFIP TC.13 International Conference on Human-Computer Interaction 14-18 September 2015, Bamberg, Germany / Christoph Beckmann, Tom Gross (eds.)

Bamberg: Univ. of Bamberg Press, 2015
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 22)
978-3-86309-352-5

Preis: 28,50 €

INTERACT is among the world’s top conferences in Human-Computer Interaction. Starting with the first INTERACT conference in 1990, this conference series has been organised under the aegis of the Technical Committee 13 on Human-Computer Interaction of the UNESCO International Federation for Information Processing (IFIP). This committee aims at developing the science and technology of the interaction between humans and computing devices. The 15th IFIP TC.13 International Conference on Human-Computer Interaction - INTERACT 2015 took place from 14 to 18 September 2015 in Bamberg, Germany. The theme of INTERACT 2015 was "Connection.Tradition.Innovation". This volume presents the Adjunct Proceedings - it contains the position papers for the students of the Doctoral Consortium as well as the position papers of the participants of the various workshops.

Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus4-256444

 

Entwicklung von Modellen generischer Managementprozesse für die Gestaltung und Lenkung prozessorientierter Unternehmen / von Li Xiang

Bamberg: Univ. of Bamberg Press, 2015
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 21)
978-3-86309-338-9

Preis: 23,00 €

Ein funktionsspezialisiertes Großunternehmen kann aufgrund seiner starren Struktur und Organisationsträgheit oft nicht schnell und flexibel reagieren. Deshalb sollte ein solches Unternehmen auf Prozessorientierung umgestellt werden, um an das dynamische und komplexe wirtschaftliche Umfeld von heute angepasst zu werden. Für diese Transformation sind Managementprozesse essenziell, welche die Gestaltung und Lenkung prozessorientierter Unternehmen übernehmen und den Kern der Unternehmensführung bilden. In der vorliegenden Arbeit werden diese Managementprozesse untersucht. Ziel ist es dabei, die Transformation eines Großunternehmens hin zur Prozessorientierung mittels generischer Managementprozesse zu unterstützen. Hierfür werden gemäß der SOM-Methodik zwei Referenzmodelle generischer Managementprozesse entwickelt: zum einen das Referenzmodell für die Gestaltung und Lenkung eines operativen Geschäftsprozesses (GPM-RM), zum anderen das Referenzmodell für die Gestaltung und Lenkung der Gesamtleistungserstellung prozessorientierter Unternehmen (RM der Makro-Geschäftsprozess-Führung). Die generischen Managementprozesse bieten den Ansatzpunkt für die Erstellung konkreter Managementprozesse von prozessorientierten Unternehmen und können so zur Transformation in Richtung Prozessorientierung beitragen. Neben dem Beitrag für die Praxis besteht die wissenschaftliche Relevanz dieser Arbeit darin, dass zwei Forschungslücken geschlossen werden können: Einerseits dienen die generischen Managementprozesse der Aufgabensystematisierung im Geschäftsprozessmanagement, andererseits bilden sie den Ausgangspunkt für die systematische Überleitung vom Geschäftsprozessmanagement zu einer prozessorientierten Zielorganisationsstruktur.

Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus4-266375

 

Model and Proof Theory of Constructive ALC : Constructive Description Logics / von Stephan M. Scheele

Bamberg: Univ. of Bamberg Press, 2015
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 20)
978-3-86309-320-4

Preis: 22,00 €

Description logics (DLs) represent a widely studied logical formalism with a significant impact in the field of knowledge representation and the Semantic Web. However, they are equipped with a classical descriptive semantics that is characterised by a platonic notion of truth, being insufficiently expressive to deal with evolving and incomplete information, as from data streams or ongoing processes. Such partially determined and incomplete knowledge can be expressed by relying on a constructive semantics. This thesis investigates the model and proof theory of a constructive variant of the basic description logic ALC, called cALC. The semantic dimension of constructive DLs is investigated by replacing the classical binary truth interpretation of ALC with a constructive notion of truth. This semantic characterisation is crucial to represent applications with partial information adequately, and to achieve both consistency under abstraction as well as robustness under refinement, and on the other hand is compatible with the Curry-Howard isomorphism in order to form the cornerstone for a DL-based type theory. The proof theory of cALC is investigated by giving a sound and complete Hilbert-style axiomatisation, a Gentzen-style sequent calculus and a labelled tableau calculus showing finite model property and decidability. Moreover, cALC can be strengthened towards normal intuitionistic modal logics and classical ALC in terms of sound and complete extensions and hereby forms a starting point for the systematic investigation of a constructive correspondence theory.

Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus4-264607

 

Resource Description and Selection for Similarity Search in Metric Spaces / von Daniel Blank

Bamberg: Univ. of Bamberg Press, 2015
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 19)
978-3-86309-310-5

Preis: 20,00 €

Ständig zunehmende Datenmengen und eine immer größer werdende Vielfalt an Datentypen in verschiedenen Anwendungskontexten erfordern sowohl skalierbare als auch flexible Indexierungs- und Suchtechniken. Metrische Zugriffsstrukturen (MAMs: metric access methods) können diese Flexibilität bieten, weil sie lediglich unterstellen, dass die Distanz zwischen zwei Datenobjekten durch eine Distanzmetrik modelliert wird. Darüber hinaus lassen sich skalierbare Lösungen mit Hilfe verteilter MAMs entwickeln. Sowohl IF4MI als auch RS4MI, die beide in dieser Arbeit vorgestellt werden, stellen metrische Zugriffsstrukturen dar. IF4MI gehört zur Gruppe der zentralisierten MAMs. Diese Zugriffsstruktur basiert auf einer invertierten Liste und repräsentiert daher eine hybride Indexstruktur, die neben einer inhaltsbasierten Ähnlichkeitssuche in beliebigen metrischen Räumen direkt auch Möglichkeiten der Textsuche unterstützt. Im Gegensatz zu IF4MI handelt es sich bei RS4MI um eine verteilte MAM, die auf Techniken der Ressourcenbeschreibung und -auswahl beruht. Dabei sind die Datenobjekte physisch verteilt. RS4MI ist jedoch keineswegs auf die Anwendung in einem bestimmten verteilten Information-Retrieval-System beschränkt. Verschiedene Anwendungsfelder sind für die Techniken zur Ressourcenbeschreibung und -auswahl denkbar, zum Beispiel im Bereich der Visuellen Analyse. Dabei gehen Anwendungsmöglichkeiten weit über den für die Arbeit unterstellten Anwendungskontext der inhaltsbasierten Bildsuche hinaus.

Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus4-260465

 

Konstruktion integrierter Geschäfts-Geschäftsprozessmodelle : Konzeption einer Modellierungsmethodik unter Nutzung hybrider zeitdiskret-zeitkontinuierlicher Simulationssysteme / von Michael Jacob

Bamberg: Univ. of Bamberg Press, 2014
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 18)
978-3-86309-278-8

Preis: 26,00 €


Von Aristoteles stammt das Zitat "Das Ganze ist mehr als die Summe seiner Teile". Es steht stellvertretend für die Denkweise der griechischen Philisophie der Antike, die geprägt war vom ganzheitlichen Denken. Im Lauf der Jahrhunderte verlor dieses Denken jedoch seine Bedeutung und wurde spätestens in der Renaissance durch das Denken in Elementen abgelöst. Dieses jedoch stößt überall da an seine Grenzen, wo ein Problem nicht in kurze isolierbare Kausalketten oder in Beziehungen zwischen wenigen Variablen aufgespalten werden kann. Integrierte Geschäfts-Geschäftsprozessmodelle bestehen aus miteinander gekoppelten Geschäfts- und Geschäftsprozessmodellen, die in Form grafischer Systeme oder in Form von hybriden zeitdiskret-zeitkontinuierlichen Simulationssystemen modelliert werden. Sie können ein Instrument sein, Unternehmungen sowohl ganzheitlich und aggregiert, als auch in ihren Elementen, zu beschreiben, zu analysieren und zu gestalten. Sie bieten Potenziale, zu detaillierten, gleichzeitig aber auch ganzheitlichen Problemlösungen zu gelangen. Diese sind notwendig, da auch Unternehmungen mehr als nur die Summe von Funktionsbereichen und Ressourcen sind. Auch sie sind ein Ganzes.

Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus4-251616

 

Modellgetriebene Validierung von System-Architekturen gegen architekturrelevante Anforderungen : Ein Ansatz zur Validierung mit Hilfe von Simulationen / André Pflüger

Bamberg: Univ. of Bamberg Press, 2014
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 17)
978-3-86309-252-8

Preis: 28,00 €

Die Entwicklung von Systemen bestehend aus Hardware und Software ist eine herausfordernde Aufgabe für den System-Architekten. Zum einen muss er die stetig steigende Anzahl an System-Anforderungen, inklusive ihrer Beziehungen untereinander, bei der Erstellung der System-Architektur berücksichtigen, zum anderen muss er mit kürzer werdenden Time-to-Market-Zeiten sowie Anforderungsänderungen durch den Kunden bis in die Implementieungsphase hinein umgehen. Die vorliegende Arbeit stellt einen Prozess vor, der dem Architekten die Validierung der System-Architektur gegenüber den architekturrelevanten Anforderungen ermöglicht. Dieser Prozess ist Bestandteil der System-Design-Phase und lässt sich in die iterative Entwicklung der System-Architektur integrieren. Damit der Architekt nicht den Überblick über alle Anforderungen und deren Beziehungen untereinander verliert, fasst er die Anforderungen anhand von architekturspezifischen Aspekten, die sogenannten Validierungsziele, zusammen. Für jedes Validierungsziel werden Validierungszielverfahren und Prüfkriterien zur Bestimmung des Validierungsstatus festgelegt. Falls alle betrachteten Validierungsziele erfüllt sind, d. h. die Ergebnisse der Validierungszielverfahren erfüllen die dazugehörigen Prüfkriterien, erfüllt auch die System-Architektur die dazugehörigen architekturrelevanten Anforderungen. Anstelle von formalen Prüftechniken wie beispielsweise dem Model-Checking bevorzugt der in der Arbeit vorgestelle Ansatz Simulationen als Prüftechnik für die Validierungszielverfahren. Bei der Dokumentation setzt der Ansatz auf die Modellierungssprache Unified Modeling Language (UML). Alle für die Simulationen erforderlichen Daten sind Bestandteil eines UML-Modells. Für die Konfiguration und Durchführung der Simulationen werden diese Daten aus dem Modell ausgelesen. Auf diese Weise wirken sich Modelländerungen direkt auf das Validierungsergebnis der System-Architektur aus. Der in der Arbeit vorgestellte Prozess unterstützt den Architekten bei der Erstellung einer den architekturrelevanten Anforderungen entsprechenden System-Architektur sowie bei der Auswirkungsanalyse von Anforderungs- oder Architekturänderungen. Die wesentlichen Prozessschritte werden mit Hilfe eines Werkzeugs partiell automatisiert, wodurch die Arbeit des Architekten erleichtert und die Effizienz des Systementwicklungsprozesses verbessert wird.

Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus4-105559

 

MMB & DFT 2014 : Proceedings of the International Workshops ; Modeling, Analysis and Management of Social Networks and their Applications (SOCNET 2014) & Demand Modeling and Quantitative Analysis of Future Generation Energy Networks and Energy-Efficient Systems (FGENET 2014) / Kai Fischbach, Marcel Großmann, Udo R. Krieger, Thorsten Staake (eds.)

Bamberg: Univ. of Bamberg Press, 2014
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 16)
ISBN 978-3-86309-208-5
Preis: 18,50 €

At present, a comprehensive set of measurement, modeling, analysis, simulation, and performance evaluation techniques are employed to investigate complex networks. A direct transfer of the developed engineering methodologies to related analysis and design tasks in next-generation energy networks, energy-efficient systems and social networks is enabled by a common mathematical foundation. The International Workshop on "Demand Modeling and Quantitative Analysis of Future Generation Energy Networks and Energy-Efficient Systems" (FGENET 2014) and the International Workshop on "Modeling, Analysis and Management of Social Networks and their Applications" (SOCNET 2014) were held on March 19, 2014, at University of Bamberg in Germany as satellite symposia of the 17th International GI/ITG Conference on "Measurement, Modelling and Evaluation of Computing Systems" and "Dependability and Fault-Tolerance" (MMB & DFT 2014). They dealt with current research issues in next-generation energy networks, smart grid communication architectures, energy-efficient systems, social networks and social media. The Proceedings of MMB & DFT 2014 International Workshops summarizes the contributions of 3 invited talks and 13 reviewed papers and intends to stimulate the readers’ future research in these vital areas of modern information societies.

Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus4-64867

 

Geografische Empfehlungssysteme / von Christian Matyas

Bamberg: Univ. of Bamberg Press, 2014
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 15)
ISBN 978-3-86309-204-7
Preis: 20,00 €

Mobile Geräte werden immer häufiger mit Sensoren zur Bestimmung der eigenen Position ausgestattet, zum Beispiel mit GPS. Mit Hilfe der Ortsinformationen dieser Sensoren können beispielsweise moderne Bildmanagementanwendungen digitale Fotos automatisch nach geografischen Regionen gruppieren oder passende Schlagworte generieren. Dies führt unter anderem zu einer besseren Suchbarkeit dieser digitalen Daten. Grundsätzlich geben Ortsinformationen in digitalen Fotos nicht nur Hinweise auf das Foto selbst, sondern machen auch sichtbar, welche geografischen Entscheidungen der Fotograf bei deren Erstellung getroffen hat. Diese Arbeit nutzt diese Entscheidungen für die Berechnung von weiteren Empfehlungen für den Nutzer, beispielsweise einer Bildmanagementanwendung. Ein konkreter Anwendungsfall lautet folgendermaßen: Einem Nutzer sollen für eine frei wählbare geographische Region (z.B. einer Stadt), mehrere Bilder empfohlen werden, die zum einen typisch für diese Region sind, zum anderen aber auch für ihn persönlich interessant sein könnten. Um diese geografischen Mehr-Objekt-Empfehlungen zu berechnen, wurde ein neuartiger Algorithmus entwickelt, der zunächst die Ortsinformationen aller Nutzer zu einem geografischen Modell bündelt. Auf Grundlage dieser prototypischen Konzeptualisierung von einzelnen Regionen, können dann typische Bilder empfohlen werden. Weiterhin werden diese geografischen Modelle in einem zweiten Schritt für die zusätzliche Gewichtung der einzelnen geografischen Entscheidungen der Nutzer verwendet, um über den Ansatz eines kollaborativen Filters zu einer persönlichen Empfehlung zu gelangen. Dazu wurden mehrere Verfahren entwickelt und miteinander verglichen. Diese Arbeit ist im Rahmen des europäischen Projektes Tripod entstanden, für das der entwickelte geografische Empfehlungsalgorithmus als Softwaremodul prototypisch implementiert wurde. Damit wurden die Empfehlungen mit Hilfe von georeferenzierten Bildern evaluiert, die auf den Online-Galerien Panoramio.com und Flickr.de veröffentlicht wurden. Durch die Auswertung der geografischen Informationen und der daraus berechneten Ortsmodelle, ließen sich deutlich präzisere Empfehlungen vorschlagen, als mit anderen bekannten Empfehlungsverfahren.

Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus4-60852

 

Information Management for Digital Learners : Introduction, Challenges, and Concepts of Personal Information Management for Individual Learners / von Stefanie Gooren-Sieber

Bamberg: Univ. of Bamberg Press, 2014
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 14)
ISBN 978-3-86309-206-1
Preis: 20,00 €

The current cultural transition of our society into a digital society influences all aspects of human life. New technologies like the Internet and mobile devices enable an unobstructed access to knowledge in worldwide networks. These advancements bring with them a great freedom in decisions and actions of individuals but also a growing demand for an appropriate mastering of this freedom of choice and the amount of knowledge that has become available today. Naturally, this observable rise and progress of new technologies—gently but emphatically becoming part of people’s everyday lives—not only changes the way people work, communicate, and shape their leisure but also the way people learn. This thesis is dedicated to an examination of how learners can meet these requirements with the support that modern technology is able to provide to learners. More precisely, this thesis places a particular emphasis that is absent from previous work in the field and thus makes it distinctive: the explicit focus on individual learners. As a result, the main concern of this thesis can be described as the examination, development, and implementation of personal information management in learning. Altogether two different steps towards a solution have been chosen: the development of a theoretical framework and its practical implementation into a comprehensive concept. To establish a theoretical framework for personal information management in learning, the spheres of learning, e-learning, and personalised learning have been combined with theories of organisational and personal knowledge management to form a so far unique holistic view of personal information management in learning. The development of this framework involves the identification of characteristics, needs, and challenges that distinguish individual learners from within the larger crowd of uniform learners. The theoretical framework defined within the first part is transferred to a comprehensive technical concept for personal information management in learning. The realisation and design of this concept as well as its practical implementation are strongly characterised by the utilisation of information retrieval techniques to support individual learners. The characteristic feature of the resulting system is a flexible architecture that enables the unified acquisition, representation, and organisation of information related to an individual’s learning and supports an improved find-ability of personal information across all relevant sources of information. The most important results of this thesis have been validated by a comparison with current projects in related areas and within a user study.

Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus4-64705

 

Proceedings of KogWis 2012 : 11th Biannual Conference of the German Cognitive Science Society / Ute Schmid, Michael Siebers, Claus-Christian Carbon, Marius Raab, Jascha Rüsseler, Tom Gross, Christoph Schlieder, and Dietrich Dörner (eds.)

Bamberg: Univ. of Bamberg Press, 2012
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 13)
ISBN 978-3-86309-100-2
Preis: 19,00 €

The German cognitive science conference is an interdisciplinary event where researchers from different disciplines - mainly from artificial intelligence, cognitive psychology, linguistics, neuroscience, philosophy of mind, and anthropology - and application areas - such as eduction, clinical psychology, and human-machine interaction - bring together different theoretical and methodological perspectives to study the mind. The 11th Biannual Conference of the German Cognitive Science Society took place from September 30 to October 3 2012 at Otto-Friedrich-Universität in Bamberg. The proceedings cover all contributions to this conference, that is, five invited talks, seven invited symposia and two symposia, a satellite symposium, a doctoral symposium, three tutorials, 46 abstracts of talks and 23 poster abstracts.

Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus4-6904

 

The CHORCH Approach : how to Model B2Bi Choreographies for Orchestration Execution / von Andreas Schönberger

Bamberg: Univ. of Bamberg Press, 2012
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 12)
ISBN 978-3-86309-076-0
Preis: 32,00 €

The establishment and implementation of cross-organizational business processes is an implication of today's market pressure for efficiency gains.In this context, Business-To-Business integration (B2Bi) focuses on the information integration aspects of business processes.A core task of B2Bi is providing adequate models that capture the message exchanges between integration partners.Following the terminology used in the SOA domain, such models will be called choreographies in the context of this work.Despite the enormous economic importance of B2Bi, existing choreography languages fall short of fulfilling all relevantrequirements of B2Bi scenarios.Dedicated B2Bi choreography standards allow for inconsistent outcomes of basic interactions anddo not provide unambiguous semantics for advanced interaction models.In contrast to this, more formal or technical choreography languages may provide unambiguous modeling semantics,but do not offer B2Bi domain concepts or an adequate level of abstraction.Defining valid and complete B2Bi choreography models becomes a challenging task in the face of these shortcomings.At the same time, invalid or underspecified choreography definitions are particularly costly considering the organizationalsetting of B2Bi scenarios.Models are not only needed to bridge the typical gap between business and IT,but also as negotiation means among the business users of the integration partners on the one handand among the IT experts of the integration partners on the other.Misunderstandings between any two negotiation partners potentially affect the agreements between all other negotiation partners.The CHORCH approach offers tailored support for B2Bi by combining the strengths of both dedicated B2Bi standards and formal rigor.As choreography specification format, the ebXML Business Process Specification Schema (ebBP) standard is used.ebBP provides dedicated B2Bi domain concepts such as so-called BusinessTransactions (BTs) that abstractly specify the exchange of a request business documentand an optional response business document.In addition, ebBP provides a format for specifying the sequence of BT executions for capturing complex interaction scenarios.CHORCH improves the offering of ebBP in several ways.Firstly, the execution model of BTs which allows for inconsistent outcomes among the integration partnersis redefined such that only consistent outcomes are possible.Secondly, two binary choreography styles are defined as B2Bi implementation contract format in order to streamline implementation projects.Both choreography styles are formalized and provided with a formal execution semantics for ensuring unambiguity.In addition, validity criteria are defined that ensure implementability using BPEL-based orchestrations.Thirdly, the analysis of the synchronization dependencies of complex B2Bi scenarios is supportedby means of a multi-party choreography style combined with an analysis framework.This choreography style also is formalized and standard state machine semantics are reused in order to ensure unambiguity.Moreover, validity criteria are defined that allow for analyzing corresponding models for typical multi-party choreography issues.Altogether, CHORCH provides choreography styles that are B2Bi adequate, simple, unambiguous, and implementable.The choreography styles are B2Bi adequate in providing B2Bi domain concepts, in abstracting from low-level implementation detailsand in covering the majority of real-world B2Bi scenarios.Simplicity is fostered by using state machines as underlying specification paradigm.This allows for thinking in the states of a B2Bi scenario and for simple control flow structures.Unambiguity is provided by formal execution semantics whereas implementability (for the binary choreography styles) is ensured by providingmapping rules to BPEL-based implementations.The validation of CHORCH's choreography styles is performed in a twofold way.Firstly, the implementation of the binary choreography styles based on Web Services and BPEL technology is demonstratedwhich proves implementability using relatively low-cost technologies.Moreover, the analysis algorithms for the multi-party choreography styles are validated using a Java-based prototype.Secondly, an abstract visualization of the choreography styles based on BPMN is provided that abstracts fromthe technicalities of the ebBP standard.This proves the amenability of CHORCH to development methods that start out with visual models.CHORCH defines how to use BPMN choreographies for the purpose of B2Bi choreography modelingand translates the formal rules for choreography validity into simple composition rules thatdemonstrate valid ways of connecting the respective modeling constructs.In summary, CHORCH allows integration partners to start out with a high-level visual model of their interactions in BPMNthat identifies the types and sequences of the BusinessTransactions to be used.For multi-party choreographies, a framework for analyzing synchronization dependencies then is available.For binary choreographies, an ebBP refinement can be derived that fills in the technical parameters that are needed for deriving the implementation.Finally, Web Services and BPEL based implementations can be generated.Thus, CHORCH allows for stepwise closing the semantic gap between the information perspective of business process modelsand the corresponding implementations.It is noteworthy that CHORCH uses international standards throughout all relevant layers, i.e., BPMN, ebBP, Web Services and BPEL,which helps in bridging the heterogeneous IT landscapes of B2Bi partners.In addition, the adoption of core CHORCH deliverables as international standards of the RosettaNet communitygive testament to the practical relevance and promise dissemination throughout the B2Bi community.

Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus4-3924

 

Facettenbasierte Indexierung multipler Artefakte : ein Framework für vage Anfragen in der Produktentwicklung / von Nadine Weber

Bamberg: Univ. of Bamberg Press, 2011
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 11)
ISBN 978-3-86309-058-6
Preis: 28,00 €

Durch den zunehmenden Einsatz von Informations- und Kommunikationstechnologien sowie den schnellen Technologiefortschritt steht die Entwicklung technischer Produkte vor immer neuen Herausforderungen. Dabei ist die Aufgabe der Produktentwicklung selbst als Problemlösungsprozess zu betrachten, in dem Lösungen mittels intensiver Informationsverarbeitung gefunden werden. Somit werden täglich unterschiedlichste Arten von Informationen erstellt, benötigt und verarbeitet, die primär in digitaler Form vorliegen. Diese werden in heterogenen Anwendungssystemen verwaltet, was eine Wiederverwendung bereits existierender Informationen erschwert. Damit beansprucht die Suche nach Informationen noch immer einen erheblichen Anteil der Entwicklungszeit.Zur Verbesserung der Informationsversorgung im Bereich der technischen Produktentwicklung wird ein interaktives Information Retrieval-System – das LFRP-Framework – vorgestellt. Dieses kombiniert die vier Basiskonzepte der multiplen Ebenen, der facettierten Suche, des Rankings und der parallelen Koordinaten, um hochkomplexe Informationsbedürfnisse zu befriedigen. Seine Realisierung erfordert neben einer geeigneten Suchoberfläche die Entwicklung einer Indexierungskomponente, welche die vorhandenen Informationen in eine für das LFRP-Framework rechnerverarbeitbare Form transformiert. Dieser als Indexierung bezeichnete Prozess stellt die Grundvoraussetzung für die Funktionsfähigkeit eines Suchsystems dar und liegt daher im Fokus der Betrachtung. Es wird ein Lösungsansatz vorgestellt, welcher eine Indexierung in Form facettenbasierter Suchkriterien ermöglicht und dabei nicht nur Informationen aus heterogenen Anwendungssystemen, sondern insbesondere aus entwicklungsspezifischen Dokumenten, wie CAD-Modellen, technischen Zeichnungen oder Stücklisten, berücksichtigt.

Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus-3945

 

Interactive Search Processes in Complex Work Situations: a Retrieval Framework / von Raiko Eckstein

Bamberg: Univ. of Bamberg Press, 2011
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 10)
ISBN 978-3-86309-017-3
Preis: 21,70 €

Seit einigen Jahren ist ein stetiges Ansteigen der Menge an Informationen, die in Unternehmen erzeugt werden, festzustellen. Um als Unternehmen wettbewerbsfähig zu bleiben, ist es notwendig, vorhandenes Wissen wiederzuverwenden, um aus vergangenen Projektergebnissen profitieren zu können. Weiterhin ist ein vollständiges Informationsbild unabdingbar, um informierte Entscheidungen treffen zu können. Die Informationsvielfalt in modernen Unternehmen übersteigt häufig die Fähigkeiten aktuell anzutreffender unternehmensweiter Suchlösungen. Die Gründe hierfür sind vielfältig und reichen von nicht verknüpften Informationen aus verschiedenen Softwaresystemen bis hin zu fehlenden Funktionen, um den Nutzer bei der Suche zu unterstützen. Vorhandene Suchfunktionen im Unternehmen unterstützen häufig nicht die Suchparadigmen, die in diesem Umfeld notwendig sind. Vielfach ist den Suchenden bei der Formulierung ihrer Suchanfrage nicht bekannt, welche Ergebnisse sie finden werden. Stattdessen steht der Aspekt des Wissensaufbaus und der Gewinnung neuer Einsichten in den vorhandenen Daten im Vordergrund. Hierzu werden Suchparadigmen benötigt, die dem Nutzer Werkzeuge zur Verfügung stellen, die ein exploratives Navigieren im Datenbestand erlauben und ihnen bei der Erkennung von Zusammenhängen in den Suchergebnissen unterstützen.
Das Ziel dieser Arbeit ist die Vorstellung eines Rahmenwerks, dass explorative Suchvorhaben im Unternehmensumfeld unterstützt. Das beschriebene LFRP-Framework baut auf vier Säulen auf.
1. Die Multi-Layer Funktionalität erlaubt es Nutzern, komplexe Suchanfragen zu formulieren, die sich auf mehr als einen Ergebnistyp beziehen. Dies ermöglicht beispielsweise Suchabfragen, die - ausgehend von einer Menge von relevanten vergangenen Projekten - Selektionen auf den dazugehörigen Dokumenten erlauben.
2. Das Suchparadigma der facettierten Suche unterstützt Nutzer bei der inkrementellen Formulierung von Suchanfragen mithilfe von dynamisch angebotenen Filterkriterien und vermeidet leere Ergebnismengen durch die Bereitstellung gültiger Filterkriterien.
3. Die Erweiterung der facettierten Suche um die Möglichkeit, die Suchergebnisreihenfolge basierend auf Filterkriterien zu beeinflussen, erlaubt es Nutzern feingranular vorzugeben, welche Kriterienausprägungen im Suchergebnis stärker gewichtet werden sollen. Für den Nutzer geschieht die Beeinflussung des Rankings transparent über sogenannte Nutzerpräferenzfunktionen.
4. Die letzte Säule umfasst die Visualisierung der parallelen Koordinaten, die in der Suchoberfläche des LFRP-Frameworks zwei Aufgaben übernimmt. Zum einen formuliert der Nutzer damit die Suchanfrage ausschließlich grafisch über die Visualisierung und zum anderen erhält er eine grafische Repräsentation der Suchergebnisse und kann so leichter Beziehungen zwischen Suchergebnissen und deren Facetten erkennen.
Das Framework, welches in dieser Arbeit formal aus Sicht des Anfragemodells sowie als prototypische Umsetzung betrachtet wird, ermöglicht Nutzern den navigierenden Zugriff auf große vernetze Datenbestände und stellt einen Baustein einer umfassenden Informationsstrategie für Unternehmen dar.

Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus-3326

 

Dienstorientierte IT-Systeme für hochflexible Geschäftsprozesse / Elmar J. Sinz, Dieter Bartmann, Freimut Bodendorf, Otto K. Ferstl (Hrsg.)

Bamberg: Univ. of Bamberg Press, 2011
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 9)
ISBN 978-3-86309-009-8
Preis: 21,50 €

Der vorliegende Band „Dienstorientierte IT-Systeme für hochflexible Geschäftsprozesse“ enthält ausgewählte Ergebnisse des Forschungsverbundes forFLEX aus den Jahren 2008 - 2011.
Ausgehend von einer Charakterisierung des Forschungsfeldes und zwei fallstudienbasierten Anwendungsszenarien werden Fragen der Analyse, der Modellierung und Gestaltung sowie der Infrastruktur, Sicherheit und Werkzeugunterstützung von hochflexiblen Geschäftsprozessen und ihrer Unterstützung durch dienstorientierte IT-Systeme untersucht.
Das Buch wendet sich an IT-Fach- und Führungskräfte in Wirtschaft und Verwaltung sowie an Wissenschaftler, die an der Analyse und Gestaltung von Flexibilitätspotenzialen (teil-) automatisierter Geschäftsprozesse interessiert sind.

Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus-3170

 

A Service Description Method for Service Ecosystems : Meta Models, Modeling Notations, and Model Transformations / von Gregor Scheithauer

Bamberg: Univ. of Bamberg Press, 2011
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 8)
ISBN 978-3-86309-007-4
Preis: 21,50 €

Im Rahmen der fortschreitenden Globalisierung und des technischen Wandels spielt das Internet eine immer größere Rolle um Dienstleistungen anzubieten und zu vermitteln. Zur selben Zeit spezialisieren sich Unternehmen zunehmend auf ihre Kernkompetenzen und schließen sich in „Service Ecosystems“ zusammen, um flexibel auf den Markt reagieren zu können. Eine wichtige Fragestellung hierbei ist, wie neue Dienstleistungen innerhalb von Service Ecosystems entwickelt und beschrieben werden können um effizient über das Internet gehandelt zu werden. Hierzu schlägt die vorliegende Arbeit eine Methode zur Beschreibung von Dienstleistungen vor, die sich in Dienstleistungsentwicklungsprozesse integrieren lässt.
Die Entwicklung einer solchen Methode führt zu drei Herausforderungen: Erstens muss herausgefunden werden, welche Eigenschaften sich für die Beschreibung von Dienstleistungen eignen. Diese Arbeit untersucht existierende Ansätze im Bereich Marketing, Wirtschaftsinformatik und Angewandte Informatik und erarbeitet ein Modell für eine formale Beschreibung von Dienstleistungen, welches das Anbieten und Finden von Dienstleistungen im Internet vereinfacht. Zweitens muss die Aufnahme, Dokumentation und Kommunikation von Beschreibungen über den gesamten Dienstleistungsentwicklungsprozess gewährleistet werden. Der in der Arbeit verfolgte Ansatz ist die Entwicklung einer geeigneten Modellierungsnotation als Erweiterung der Unified Modeling Language (UML). Drittens bedarf es einer Überführung der konzeptionellen Beschreibung für Dienstleistungen in Softwarerealisierungssprachen, die im Internet Anwendung finden. Der Beitrag dieser Arbeit umfasst die automatische Überführung der Dienstleistungsbeschreibung in ein Web Service Description Language (WSDL) Dokument mittels Modell-zu-Modell Transformationen.
Die Methode zur Beschreibungen von Dienstleistungen wurde einerseits durch Implementierung einer integrierten Modellierungsumgebung und zugehöriger Transformationsskripte und andererseits durch zwei Fallstudien in der Versicherungs- und IT Outsourcing Branche in der Praxis evaluiert.

Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus-3151

 

Gemeinschaftliche Qualitätsgesicherte Erhebung und Semantische Integration von Raumbezogenen Daten / von Sebastian Matyas

Bamberg: Univ. of Bamberg Press, 2011
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 7)
ISBN 978-3-86309-002-9
Preis: 22,50 €

In den vergangenen Jahren ist die Verbreitung von mobilen Geräten mit integrierter Lokalisierungstechnologie (z.B. GPS) stark gestiegen. Jeder, der ein solches Gerät besitzt, kann zum Datenlieferanten werden und in einem Netzwerk von Freiwilligen, die Rolle eines Datensensors übernehmen.
In der vorliegenden Dissertation werde ich zwei Problemstellungen näher betrachten, die im Kontext von raumbezogenen Daten, erhoben von Gemeinschaften aus fachlich (hier: geowissenschaftlich) nicht geschulten Nutzern, noch ungelöst sind:
Wie können geowissenschaftliche Laien motiviert werden, freiwillig qualitätsgesicherte raumbezogene Daten zu erheben?
Der erste Beitrag meiner Dissertation liefert eine Antwort auf diese Frage. Er beinhaltet ein Framework zum Design von ortsbezogenen Spielen, die geowissenschaftliche Laien motivieren, raumbezogene Daten qualitätsgesichert in spielerischer Art und Weise zu sammeln. Um es mit den Worten von Peltola et al. (2006) auszudrücken: ”game play is a natural motivator to participate in something that is not necessary or beneficial. [...] By controlling game events and perhaps game logics and rules, the agencies that ultimately use the gathered data, can steer players to do tasks supporting their needs“.
Wie kann die Qualität von Sammlungen semantisch angereicherter raumbezogener Daten verbessert werden?
Eine wichtige Eigenschaft von ortsbezogenen Spielen zur Datenerhebung ist die wiederholte Spielbarkeit. Im Gegensatz zu anderen Domänen ist nämlich die Erstellung redundanter Daten im raumbezogenen Kontext sogar erwünscht. Das Zusammenführen von Daten mehrerer Nutzer kann man als Mehrfachmessung auffassen, die sich dazu nutzen lässt, die Qualität von Lokalisierung (Wo?) und Kategorisierung (Was?) zu verbessern. Der zweite Beitrag meiner Dissertation gibt eine Antwort auf die Fragestellung und besteht in einem Ansatz zur semantischen Integration der gesammelten raumbezogenen Daten. 

Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus-3094

 

Entwicklung und Überprüfung von Kausalhypothesen : Gestaltungsoptionen für einen Analyseprozess zur Fundierung betrieblicher Ziel- und Kennzahlensysteme durch Kausalhypothesen am Beispiel des Performance-Managements
 / von Thomas Voit

Bamberg: Univ. of Bamberg Press, 2010
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 6)
ISBN 978-3-923507-94-8
Preis: 18,70 €

Viele Unternehmen setzen moderne Performance-Management-Konzepte, wie zum Beispiel die Balanced Scorecard, ein. Hierbei werden Ursache-Wirkungs-Vermutungen aufgestellt, um nicht-finanzielle Kennzahlen zu identifizieren und deren Einfluss auf nachgelagerte Finanzkennzahlen abzubilden. Darüber hinaus werden kausale Abhängigkeiten zwischen Maßnahmen und Zielen in Form von Zweck-Mittel-Beziehungen unterstellt. Die hierfür benötigten Kausalhypothesen werden aber nicht systematisch, sondern meist assoziativ und allein auf Basis von Intuition entwickelt. Man verlässt sich auf vage Vermutungen und hypothetische Zusammenhänge, ohne diese zu überprüfen. Dies birgt die Gefahr einer Fehlsteuerung, indem nutzlose, konfliktäre oder sogar schädliche Maßnahmen aus den nur unzureichend begründeten Ziel- und Kennzahlbeziehungen abgeleitet werden.
Es stellt sich daher die Frage, wie Unternehmen im Performance-Management ein anderer, systematischerer Umgang mit Ursache-Wirkungs-Beziehungen gelingen kann. Auf welchen Wegen können die benötigten Kausalhypothesen entwickelt und überprüft werden?
Um diese Fragen zu beantworten, entwirft diese Arbeit einen generischen Performance-Management-Prozess, der Kausalhypothesen als zentrales Mittel zur ganzheitlichen Gestaltung und Lenkung der betrieblichen Performance nutzt. Daran anknüpfend werden Gestaltungsoptionen für einen Analyseprozess ausgearbeitet, der Kausalhypothesen evidenzbasiert entwickelt und überprüft.
Der wesentliche Beitrag dieser Arbeit besteht darin, dass neben der Datenanalyse ein zweiter - und bis dato noch unbeschrittener - Weg zur Kausalanalyse vorgestellt wird: die modellzentrierte Kausalanalyse. Welche Synergien sich aus der Kombination modell- und datenzentrierter Analyseverfahren ergeben, insbesondere mit den Verfahren des On-Line-Analytical-Processing (OLAP) und Data-Minings, wird empirisch am Beispiel eines Sportartikelherstellers gezeigt.

Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus-2946

 

Refactoring of Security Antipatterns in Distributed Java Components / von Marc Schönefeld

Bamberg: Univ. of Bamberg Press, 2010
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 5)
ISBN 978-3-923507-67-2
Preis: 18,00 €

Die Bedeutung der Programmiersprache JAVA als Baustein für Softwareentwicklungs- und Produktionsinfrastrukturen ist im letzten Jahrzehnt stetig gestiegen. JAVA hat sich als bedeutender Baustein für die Programmierung von Middleware-Lösungen etabliert. Ebenfalls evident ist die Verwendung von JAVA-Technologien zur Migration von existierenden Arbeitsplatz-Anwendungen hin zu webbasierten Einsatzszenarien.
Parallel zu dieser Entwicklung hat sich die Rolle der IT-Sicherheit nicht zuletzt aufgrund der Verdrängung von mainframe-basierten Systemen hin zu verteilten Umgebungen verstärkt. Der Schutz von Vertraulichkeit, Integrität und Verfügbarkeit ist seit einigen Jahren ein kritisches Alleinstellungsmerkmal für den Markterfolg von Produkten. Verwundbarkeiten in Produkten wirken mittlerweile indirekt über kundenseitigen Vertrauensverlust negativ auf den wirtschaftlichen Erfolg der Softwarehersteller, zumal der Sicherheitsgrad eines Systems durch die verwundbarste Komponente bestimmt wird.
Ein zentrales Ziel dieser Arbeit ist die Erkenntnis zu vermitteln, dass die alleinige Nutzung einer als ´sicher´ eingestuften Programmiersprache nicht als alleinige Grundlage zur Erstellung von sicheren und vertrauenswürdigen Anwendungen ausreicht. Vielmehr führt die Einbeziehung des Bedrohungsmodells der Programmiersprache zu einer verbesserten Risikobetrachtung, da die Angriffsfläche einer Anwendung detaillierter beschreibbar wird.
Die Entwicklung und fortschreitende Akzeptanz einer Programmiersprache führt zu einer Verbreitung von allgemein anerkannten Lösungsmustern zur Erfüllung wiederkehrender Qualitätsanforderungen.
Im Bereich der Dienstqualitäten fördern ´Gegenmuster´, d.h. nichtoptimale Lösungen, die Entstehung von Strukturschwächen, welche in der Domäne der IT-Sicherheit ´Verwundbarkeiten´ genannt werden. Des Weiteren ist die Einsatzumgebung einer Anwendung eine wichtige Kenngröße, um eine Bedrohungsanalyse durchzuführen, denn je nach Beschaffenheit der Bedrohungen im Zielszenario kann eine bestimmte Benutzeraktion eine Bedrohung darstellen, aber auch einen erwarteten Anwendungsfall charakterisieren.
Während auf der Modellierungsebene ein breites Angebot von Beispielen zur Umsetzung von Sicherheitsmustern besteht, fehlt es den Programmierern auf der Implementierungsebene häufig an ganzheitlichem Verständnis. Dieses kann durch Beispiele, welche die Auswirkungen der Verwendung von ´Gegenmustern´ illustrieren, vermittelt werden.
Unsere Kernannahme besteht darin, dass fehlende Erfahrung der Programmierer bzgl. der Sicherheitsrelevanz bei der Wahl von Implementierungsmustern zur Entstehung von Verwundbarkeiten führt. Bei der Vermittlung herkömmlicher Software-Entwicklungsmodelle wird die Integration von praktischen Ansätzen zur Umsetzung von Sicherheitsanforderungen zumeist nur in Meta-Modellen adressiert. Zur Erweiterung des Wirkungsgrades auf die praktische Ebene wird ein dreistufiger Ansatz präsentiert.
Im ersten Teil stellen wir typische Sicherheitsprobleme von JAVA-Anwendungen in den Mittelpunkt der Betrachtung, und entwickeln einen standardisierten Katalog dieser ´Gegenmuster´. Die Relevanz der einzelnen Muster wird durch die Untersuchung des Auftretens dieser in Standardprodukten verifiziert.
Der zweite Untersuchungsbereich widmet sich der Integration von Vorgehensweisen zur Identifikation und Vermeidung der ´Sicherheits-Gegenmuster´ innerhalb des Software-Entwicklungsprozesses. Hierfür werden zum einen Ansätze für die Analyse und Verbesserung von Implementierungsergebnissen zur Verfügung gestellt. Zum anderen wird, induziert durch die verbreitete Nutzung von Fremdkomponenten, die arbeitsintensive Auslieferungsphase mit einem Ansatz zur Erstellung ganzheitlicher Sicherheitsrichtlinien versorgt.
Da bei dieser Arbeit die praktische Verwendbarkeit der Ergebnisse eine zentrale Anforderung darstellt, wird diese durch prototypische Werkzeuge und nachvollziehbare Beispiele in einer dritten Perspektive unterstützt.
Die Relevanz der Anwendung der entwickelten Methoden und Werkzeuge auf Standardprodukte zeigt sich durch die im Laufe der Forschungsarbeit entdeckten Sicherheitsdefizite. Die Rückmeldung bei führenden Middleware-Herstellern (Sun Microsystems, JBoss) hat durch gegenseitigen Erfahrungsaustausch im Laufe dieser Forschungsarbeit zu einer messbaren Verringerung der Verwundbarkeit ihrer Middleware-Produkte geführt.
Neben den erreichten positiven Auswirkungen bei den Herstellern der Basiskomponenten sollen Erfahrungen auch an die Architekten und Entwickler von Endprodukten, welche Standardkomponenten direkt oder indirekt nutzen, weitergereicht werden. Um auch dem praktisch interessierten Leser einen möglichst einfachen Einstieg zu bieten, stehen die Werkzeuge mit Hilfe von Fallstudien in einem praktischen Gesamtzusammenhang. Die für das Tiefenverständnis notwendigen Theoriebestandteile bieten dem Software-Architekten die Möglichkeit sicherheitsrelevante Auswirkungen einer Komponentenauswahl frühzeitig zu erkennen und bei der Systemgestaltung zu nutzen.

Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus-2403

 

Modellbasierte Analyse von Führungsinformationssystemen : ein Ansatz zur Bewertung auf der Grundlage betrieblicher Planungs- und Lenkungsprozesse / von Alexander Bach
Bamberg: Univ. of Bamberg Press, 2009
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 4)
ISBN 978-3-923507-52-8
Preis: 24,50 €

Die Komplexität von Managementaufgaben steigt infolge zunehmender Einflüsse aus der Unternehmensumwelt und hieraus resultierenden innerbetrieblichen Zustandsänderungen. Um über eine zur Komplexitätsbeherrschung ausreichende Lenkungsvarietät verfügen zu können, wächst dementsprechend der qualitäts- und mengenbezogene Informationsbedarf des Managements. Führungsinformationssysteme unterstützen die Bereitstellung managementrelevanter Informationen, setzen allerdings voraus, dass für die Gestaltung dieser Systeme durchgängig betriebliche Geschäftsprozesse zugrunde gelegt werden.
In der vorliegenden Arbeit wird die zuvor beschriebene Anforderung aufgegriffen und zunächst ein Vorgehen zur Transformation der Methodik der modellbasierten Geschäftsprozessuntersuchung von der Ebene der betrieblichen Leistungserstellung auf die Ebene der Planungs- und Lenkungsprozesse entwickelt. Durch dieses Vorgehen wird ermöglicht, Aufgaben der strategischen Lenkungsebene strukturieren und analysieren zu können.
Weiterer Gegenstand der Untersuchung in der Arbeit ist die Bewertung des Führungsinformationssystems SAP SEM BPS/CPM anhand von Branchen-Referenzmodellen und Geschäftsprozessmodellen. Auf der Grundlage von Beobachtungsergebnissen aus der Branche ´Öffentliche Versorgung & Infrastruktur´werden anhand von Referenzmodellen Gestaltungspotenziale der Software SAP SEM BPS/CPM abgeleitet. Im Rahmen der praxisorientierten Untersuchung eines Fallstudienunternehmens wird zudem der Anwendungsumfang von SAP SEM hinsichtlich der Faktoren Kosten, Zeit und Qualität evaluiert. Zur Analyse des Anwendungsumfangs werden Geschäftsprozessmodelle genutzt, deren Konstruktion auf der Methodik des Semantischen Objektmodells (SOM) basiert.

Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus-2047

 

A realistic Approach for the autonomic management of component-based Enterprise Systems / von Jens Bruhn
Bamberg: Univ. of Bamberg Press, 2009
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 3)
ISBN 978-3-923507-49-8
Preis: 18,00 €

Seit einigen Jahrzehnten ist ein stetiges Ansteigen der Leistungsfähigkeit verfügbarer Hardwareressourcen festzustellen. Dieses ermöglicht die Zuweisung immer umfangreicherer Aufgaben an Softwaresysteme, was gleichzeitig ein massives Ansteigen der inhärenten Komplexität der verwendeten Systeme zur Folge hat. Ein für die Zukunft zu erwartender weiterer Komplexitätsanstieg erfordert eine explizite Adressierung. Das Konzept der Komponentenorientierung stellt einen Ansatz zur Komplexitätsreduktion für die Entwicklung und Konfiguration von Software durch funktionale Dekomposition dar. Mit der Vision des Autonomic Computing existiert ein Ansatz zur Komplexitätsbewältigung für Betrieb und Wartung von Softwaresystemen. In diesem Zusammenhang wird der Ansatz verfolgt, Aufgaben zur Feinsteuerung eines verwalteten Systems auf das System selbst zu übertragen. Da die Komponentenorientierung zu klar voneinander abgrenzbaren Elementen innerhalb von Systemarchitekturen führt, erscheint sie als viel versprechende Grundlage zur Realisierung der Vision des Autonomic Computing.

Diese Arbeit stellt eine realistische Infrastruktur für die autonome Verwaltung von komponentenbasierten Geschäftsanwendungen vor. Der Anwendungsbereich solcher Systeme stellt spezielle Anforderungen an verwaltete Systeme und ist besonders von der Komplexitätsproblematik betroffen. Um die praktische Relevanz der verfolgten Konzepte und Verfahren zu gewährleisten, wurde ein etablierter Komponentenstandard als Grundlage des Ansatzes gewählt. Bei diesem handelt es sich um Enterprise JavaBeans, Version 3.0. Die vorgestellte Infrastruktur ist generisch konzipiert und umgesetzt. Sie stellt eine Plattform bereit, auf deren Basis Lösungen für verschiedene Anwendungsfelder des Autonomic Computing realisiert werden können. Zur Unterstützung autonomer Verwaltungseinheiten wird eine Programmierschnittstelle bereitgestellt, welche ein System auf drei Ebenen abbildet und dessen Steuerung ermöglicht: Auf oberster Ebene erfolgt die Betrachtung der einem System zugrunde liegenden Software. Auf mittlerer Ebene wird die Architektur eines verwalteten Systems adressiert. Interaktionen innerhalb eines Systems werden auf der untersten Ebene dargestellt. Auf dieser Grundlage kann ein System ganzheitlich und modellbasiert verwaltet werden. Zur Unterstützung der Laufzeitverwaltung eines Systems dient eine spezielle Komponente, welche in ein betroffenes System integriert werden muss. Sie ist konform zum verwendeten Standard und erfordert keine Anpassung der zugrunde liegenden Komponentenplattform. Für die Herstellung der Verwaltbarkeit von Komponenten wird ein Werkzeug bereitgestellt, welches automatisiert alle nötigen Anpassungen vornimmt. Darüber hinaus ist die Verwaltung eines Systems für dessen Elemente zur Laufzeit transparent. Zusammengenommen bleibt die Entwicklung von Geschäftsanwendungen von einer Verwendung der Infrastruktur unbeeinflusst.

Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus-1986

 

Privacy-enhancing Technologies for Private Services / von Karsten Loesing
Bamberg: Univ. of Bamberg Press, 2009
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 2)
ISBN 978-3-923507-45-0
Preis: 17,60 €

Privatsphäre im Internet wird immer wichtiger, da ein zunehmender Teil des alltäglichen Lebens über das Internet stattfindet. Internet-Benutzer verlieren die Fähigkeit zu steuern, welche Informationen sie über sich weitergeben oder wissen nicht einmal, dass sie dieses tun. Datenschutzfördernde Techniken helfen dabei, private Informationen im Internet zu kontrollieren, zum Beispiel durch die Anonymisierung von Internetkommunikation. Bis heute liegt der Fokus bei datenschutzfördernden Techniken hauptsächlich auf dem Schutz von Anfragen an öffentliche Dienste. Diese Arbeit wirft die Frage nach den Risiken beim Betrieb von Internetdiensten durch Privatpersonen auf. Ein Beispiel hierfür sind Instant-Messaging-Systeme, die es ermöglichen, Anwesenheitsinformationen und Textnachrichten in Echtzeit auszutauschen. Üblicherweise schützen diese Systeme die Anwesenheitsinformationen, die auf zentralen Servern gespeichert werden, nicht besonders. Als Alternative verringern dezentrale Instant-Messaging-Systeme dieses Problem, indem Privatpersonen sich gegenseitig Dienste anbieten. Allerdings bringt das Anbieten eines Dienstes als Privatperson im Vergleich zu Organisationen oder Unternehmen neue Sicherheitsprobleme mit sich: Erstens werden durch die Verfügbarkeit eines solchen Dienstes Informationen über die Präsenz des Dienstanbieters preisgegeben. Zweitens soll der Standort des Servers unerkannt bleiben, um nicht den Aufenthaltsort des Dienstanbieters zu offenbaren. Drittens muss der Server besonders vor unautorisierten Zugriffsversuchen geschützt werden.

Diese Arbeit schlägt die Nutzung von pseudonymen Diensten als Baustein von privaten Diensten vor. Pseudonyme Dienste verbergen den Standort eines Servers, der einen bestimmten Dienst anbietet. Der hier geleistete Beitrag soll herausfinden, welche Teile von pseudonymen Diensten, besonders von Tor Hidden Services, fehlen, um sie für private Dienste einzusetzen. Dies führt zu drei Hauptproblemen, zu denen Lösungen vorgeschlagen werden: Erstens skalieren bisherige Ansätze für pseudonyme Dienste nicht für die in Zukunft zu erwartende Anzahl von privaten Diensten. Diese Arbeit schlägt einen neuen Ansatz vor, der Hidden-Service-Beschreibungen in einer verteilten Datenstruktur ablegt, anstatt sie auf zentralen Servern zu speichern. Ein besonderer Fokus liegt auf der Unterstützung von privaten Einträgen, die für private Dienste benötigt werden. Zweitens geben pseudonyme Dienste während des Anbietens im Netzwerk und der Verbindungsherstellung durch Clients zu viele Informationen über die Identität des Dienstes preis. Der in dieser Arbeit verfolgte Ansatz ist, die Informationen, die ein Dienst im Netzwerk bekanntgibt, auf ein Minimum zu reduzieren und nicht-autorisierte Clients am Zugriff auf den Dienst schon während der Verbindungsherstellung zu hindern. Diese Änderungen schützen die Aktivität und das Nutzungsmuster des Dienstes vor nicht-autorisierten Personen. Drittens weisen pseudonyme Dienste eine schlechtere Effizienz auf als Dienste, auf die direkt zugegriffen wird. Der Beitrag dieser Arbeit ist, die Effizienz zu messen, mögliche Probleme zu identifizieren und Verbesserungen vorzuschlagen.

Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus-1832

 

Überwindung semantischer Heterogenität bei multiplen Data-Warehouse-Systemen / von Stefan Hartmann
Bamberg: Univ. of Bamberg Press, 2008
(Schriften aus der Fakultät Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universität Bamberg ; 1)
ISBN 978-3-923507-41-2
Preis: 16,50 €

Der bedarfsorientierte Zugriff auf ein konsolidiertes Berichtswesen stellt für betriebliche Organisationen einen entscheidenden Erfolgsfaktor dar, um einen Informationsvorsprung gegenüber ihren Wettbewerbern erzielen zu können. Data-Warehouse-Systeme (DWH-Systeme) dienen dazu, Entscheidungsträgern die für ihre aktuelle Aufgabe relevanten Informationen rechtzeitig und in geeigneter Form zur Verfügung zu stellen. In der Praxis existieren jedoch multiple DWH-Systeme, die vor allem auf Ebene der Datenschemata sowie der zugrunde liegenden Terminologien eine starke Heterogenität aufweisen. Inkonsistenzen zwischen den generierten Berichten sowie eine divergente Interpretation der Berichtsergebnisse sind die Folge. Der Aufbau eines konsolidierten Berichtswesens ist daher nur mit nachträglichem, manuellem Abstimmungsaufwand möglich.
Die vorliegende Arbeit widmet sich insbesondere dem durch multiple DWH-Systeme offerierten Informationsangebot. Mithilfe der im Semantic Web etablierten Technologie Resource Description Framework (RDF) und der Web Ontology Language (OWL) wird ein Rahmen zur semantisch reichhaltigen Beschreibung von DWH-Metadaten geschaffen. Derartig ausgezeichnete Metadaten unterschiedlicher DWH-Systeme werden anschließend in einer semantischen Homogenisierungsschicht (sHGS) zusammengeführt. Mit diesem Hilfsmittel können Beziehungen zwischen multiplen DWH-Systemen identifiziert und deren semantische Heterogenität überwunden werden.

Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus-1601