Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik
In der Fakult?t WIAI werden die auf die Wirtschaftswissenschaften und der Informatik aufbauende Wirtschaftsinformatik mit kultur- und humanwissenschaftlich ausgerichteten Angewandten Informatiken sowie klassischen Fachgebieten der Theoretischen und Praktischen Informatik verbunden. In den Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg (SWIAI) spiegeln sich diese Inhalte wieder.
ISSN: 1867-7401, eISSN: 2750-8560
Schriftenreihe im Forschungsinformationssystem (FIS) der Universit?t
Bisher erschienene B?nde
A Simulation Framework for Function as a Service / Johannes Manner
Bamberg: Univ. of Bamberg Press, 2024
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 43)
978-3-86309-978-7
Preis: 24,00 €
Serverless Computing is seen as a game changer in operating large-scale applications. While practitioners and researches often use this term, the concept they actually want to refer to is Function as a Service (FaaS). In this new service model, a user deploys only single functions to cloud platforms where the cloud provider deals with all operational concerns ¨C this creates the notion of server-less computing for the user.
Nonetheless, a few configurations for the cloud function are necessary for most commercial FaaS platforms as they influence the resource assignments like CPU time and memory. Due to these options, there is still an abstracted perception of servers for the FaaS user. The resource assignment and the different strategies to scale resources for public cloud offerings and on-premise hosted open-source platforms determine the runtime characteristics of cloud functions and are in the focus of this work. Compared to cloud offerings like Platform as a Service, two out of the five cloud computing characteristics improved. These two are rapid elasticity and measured service. FaaS is the first computational cloud model to scale functions only on demand. Due to an independent scaling and a strong isolation via virtualized environments, functions can be considered independent of other cloud functions. Therefore, noisy neighbor problems do not occur. The second characteristic, measured service, targets billing. FaaS platforms measure execution time on a millisecond basis and bill users accordingly based on the function configuration. This leads to new performance and cost trade-offs.
Therefore, this thesis proposes a simulation approach to investigate this tradeoff in an early development phase. The alternative would be to deploy functions with varying configurations, analyze the execution data from several FaaS platforms and adjust the configuration. However, this alternative is time-consuming, tedious and costly. To provide a proper simulation, the development and production environment should be as similar as possible. This similarity is also known as dev-prod parity. Based on a new methodology to compare different virtualized environments, users of our simulation framework are able to execute functions on their machines and investigate the runtime characteristics for different function configurations at several cloud platforms without running their functions on the cloud platform at all. A visualization of the local simulations guide the user to choose an appropriate function configuration to resolve the mentioned trade-off dependent on their requirements.
Zugriff auf den Volltext:
https://doi.org/10.20378/irb-92913
The Standardized Coordination Task Assessment (SCTA) : A Method for Use-Inspired Basic Research on Awareness and Coordination in Computer-Supported Cooperative Settings / Christoph Oemig
Bamberg: Univ. of Bamberg Press, 2022
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 42)
978-3-86309-882-7
Preis: 28,00 €
Today¡¯s modern world often affords individuals to form teams to work together towards shared goals and objectives. The need for tools to digitally support collaboration distributed in time and space increased over the past decades significantly with a recent sudden increase due to the Corona pandemic crisis. The research goal in the field of computer-supported cooperative work (CSCW) has always been to design systems that facilitate collaboration based on the understanding of groups and social interaction ¨C especially on how people coordinate their work.
In the real-world coordination happens in a seemingly seamless and effortless way. However, the resulting mechanisms translated to digital systems often provide a clumsy and awkward experience as users lack the means for subtle and rich interaction beyond the spoken word. After numerous failures revealing system deficits and a large number of ethnographic studies, researchers identified awareness to become the support mechanism for effortless coordination in digital systems. Yet, instead of addressing the problem using appropriate methods and tools, researchers found themselves trapped in circular reformulations of concepts and evaluations of prototypes on the basis of disciplinary preferences ignoring the basic characteristics of the objects of interest. Even worse, the most basic design tensions stemming from a use-inspired perspective have not been resolved indicating a substantial problem with the evaluation of awareness and coordination support. Effortless coordination cannot be reached without being measured, thus not without an appropriate measurement approach.
This thesis introduces an appropriate assessment method for the efforts related to awareness and coordination support in cooperative settings ¨C the STANDARDIZED COORDINATION TASK ASSESSMENT (SCTA). Applying a use-inspired basic research driven approach it creates and leverages an effort-based operationalization of the two constructs derived from literature and especially from a cognitive perspective. A highly automated and scalable framework delivers quantitative results to be used for hypotheses validations that allows a benchmark-based approximation of effortless coordination. At the same time the method opens the door for a lot more use-inspired basic research to resolve many of the still open design tensions and challenges.
Zugriff auf den Volltext:
https://doi.org/10.20378/irb-55384
Data Structure Identification from Executions of Pointer Programs / Thomas Rupprecht
Bamberg: Univ. of Bamberg Press, 2020
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 41)
978-3-86309-717-2
Preis: 32,00 €
Reverse engineering of binaries is tedious, yet mandatory when program behavior must be understood while source code is unavailable, e.g., in case of malware. One challenge is the loss of low level type information, i.e., primitive and compound types, which even state-of-the-art type recovery tools, such as Howard, often cannot reconstruct with full accuracy. Further programmers use high level dynamic data structures, e.g., linked lists. Therefore the detection of data structure shapes is important for reverse engineering. A recent approach called Data Structure Investigator (DSI), aims for detecting dynamic pointer based data structures. While DSI is a general approach, a concrete realization for C programs requiring source code is envisioned as type casts and pointer arithmetic will stress test the approach.
This dissertation improves upon the state-of-the-art of shape detection and reverse engineering by (i) realizing and evaluating the DSI approach, including contributions to DSI¡¯s theory, which results in a DSI prototype; (ii) opening up DSI for C/C++ binaries to extend DSI to reverse engineering, resulting in a DSIbin prototype; (iii) handling data structures with DSIbin not covered by some related work, e.g., skip lists; (iv) refining the nesting detection and performing type merging for types excavated by Howard.
Zugriff auf den Volltext:
https://doi.org/10.20378/irb-47325
Reverse Engineering of Real-Time System Models From Event Trace Recordings / Andreas Sailer
Bamberg: Univ. of Bamberg Press, 2019
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 40)
978-3-86309-690-8
Preis: 35,50 €
Model-driven approaches are experiencing an increasing acceptance in the automotive domain thanks to the availability of the AUTOSAR standard. However, the process of creating models of existing system components is often difficult and time consuming, especially when legacy code is involved or information about the exact timing is needed.
This work focuses on reversely engineering an AUTOSAR-compliant model, which can be used for further processing including timing simulation and optimisation, via a dynamic analysis from trace recordings of a real-time system. Huselius, whose work is among the publications most related to the topic of this thesis, proposes a technique to reverse engineer a model that reflects the general temporal behaviour of the original real-time software. However, like other existing solutions, it was not developed with AUTOSAR in mind.
We want to tackle this deficiency by introducing an approach that seizes on Huselius¡¯s considerations and extends them in order to make them applicable to the automotive domain. To do so, we present Core-TAna, a prototypical tool that derives an AUTOSAR compliant model of a real-time system by conducting dynamic analysis using trace recordings. Motivated by the challenge of assessing the quality of reverse engineered models of real-time software, we also introduce a mathematical measure for comparing trace recordings from embedded real-time systems regarding their temporal behaviour and a benchmark framework based on this measure, for evaluating reverse engineering tools such as CoreTAna.
Zugriff auf den Volltext:
https://doi.org/10.20378/irb-46506
Integrierte Entwicklung und Ausf¨¹hrung von Prozessen in dezentralen Organisationen : Ein Vorschlag auf Basis der Blockchain / Felix H?rer
Bamberg: Univ. of Bamberg Press, 2019
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 39)
978-3-86309-682-3
Preis: 29,50 €
Die Informationssysteme von dezentralen Organisationen sind heute als Komponenten eines globalen Informationssystems miteinander vernetzt. Organisationen, Individuen und Software agieren autonom und sind zugleich kooperativ an der Erstellung von Leistungen beteiligt. Die Planung und Ausf¨¹hrung der hierf¨¹r erforderlichen Interaktionen in Form von Prozessen stehen dabei nicht unter der Kontrolle Einzelner. Zur Entwicklung und Ausf¨¹hrung von Prozessen unter dezentraler Koordination schl?gt diese Arbeit einen Ansatz auf der Basis von Blockchain-Technologien vor. Damit wird zum einen die Gestaltung dezentraler Organisationen adressiert und zum anderen die innerhalb von solchen Systemen verteilt und nicht-zentral gesteuerte Koordination der Entwicklung. Die Arbeit beschreibt die Dezentralisierung und die modellbasierte Entwicklung von prozessorientierten Systemen zun?chst aus organisationstheoretischer Sicht. Als Entwicklungs- und Ausf¨¹hrungsplattformen stehen anschlie?end dezentrale Blockchain-Systeme im Fokus, mit denen die Verbindlichkeit und Integrit?t von Transaktionen zwischen a priori unbekannten Knoten eines Netzes gew?hrleistet werden kann. Die Entwicklung und Ausf¨¹hrung von Prozessen werden auf dieser Basis durch einen modellbasierten Ansatz realisiert. Dieser wird durch einen Architekturrahmen zur konzeptuellen Modellierung, zur kooperativen Modellbildung und zur Nachverfolgung von Instanzen etabliert. Die konzeptuelle Modellierung von Netzwerken, Prozessen und Instanzen greift auf das Semantische Objektmodell (SOM) zur¨¹ck, um die Aufgabenebene dezentraler Organisationen auf eine dezentral realisierte Aufgabentr?gerebene abzubilden. Die kooperative Modellbildung und die Nachverfolgung von Instanzen nutzen Technologien zur verteilten Versionsverwaltung in Verbindung mit Smart Contracts des Blockchain-Systems Ethereum. Die Demonstration der Anwendbarkeit des Ansatzes anhand einer Fallstudie und einer Software-Implementierung schlie?en die Arbeit ab.
Zugriff auf den Volltext:
https://doi.org/10.20378/irbo-55721
Effective and Efficient Summarization of Two-Dimensional Point Data : Approaches for Resource Description and Selection in Spatial Application Scenarios / Stefan Kufer
Bamberg: Univ. of Bamberg Press, 2019
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 38)
978-3-86309-672-4
Preis: 45,50 €
Spatial data is everywhere, and its amount is increasing every day. Spatial data is often two-dimensional point data that is associated with data objects (e.g. media objects such as images or text). Due to the large amounts of data, there is a need for efficient and effective search systems that can handle the spatial properties of these data objects. The search systems can be both distributed and centralized solutions. In both scenarios, the concept of resource description and selection is an applicable paradigm for similarity searches performed regarding the spatial properties of the data objects. To achieve highly performant solutions, it is necessary to summarize the geographical footprint of a resource by means of geometrically delimited areas. Hereby, both efficiency as well as effectiveness are important. The term ?effectiveness¡° refers to a spatially very accurate geometric delimitation of the data point sets to be described whereas the term ?efficiency¡° aims at their storage-spacesaving representation. The work deals with the development of effective and at the same time efficient summarization approaches for sets of two-dimensional data points. For the distributed application scenario, a total of 14 summarization approaches are presented and evaluated for different data collections. For the centralized application scenario, the two most suitable summary approaches are integrated into a centralized, multidimensional access structure and evaluated against the state-of-the-art for several data collections.
Zugriff auf den Volltext:
https://doi.org/10.20378/irbo-55137
On the Automated Derivation of Domain-Specific UML Profiles / Alexander Kraas
Bamberg: Univ. of Bamberg Press, 2019
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 37)
978-3-86309-670-0
Preis: 29,50 €
The model-driven engineering (MDE) of domain-specific languages (DSLs) becomes increasingly important for standardization. Both metamodels and profiles for the Unified Modeling Language (UML) are often provided for standardized DSLs. Usually, the mappings of metamodels to UML profiles are only specified in some abstract manner by such standards. Consequently, not all details required to create executable model transformations are defined. Moreover, the static semantics of metamodels and/or UML profiles are often specified only in natural language. Thus, on the one hand, ambiguities can occur, and on the other hand, the soundness of the static semantics cannot be verified and validated without a manual translation into a machine-processable language.
The main goal of this dissertation is to remedy the identified weaknesses in developing DSLs, for which a metamodel and a UML profile shall be created. To achieve this goal, we propose a holistic MDE-based approach for automatically deriving UML profiles and model transformations basedon CMOF metamodels. This approach enables an automatic transfer of DSL¡¯s static semantics to UML profiles, so that the well-formedness of UML models with applied UML profile of a DSL can be verified automatically. In addition, the interoperability between UML and DSL models can already be validated in the development phase using the derived model transformations. Apart from new DSLs that are created from scratch, our approach also supports a migration of existing grammar-based DSLs towards metamodels, provided syntax rules exist.
Zugriff auf den Volltext:
https://doi.org/10.20378/irbo-54891
Predictive Analytics for Energy Efficiency and Energy Retailing / Konstantin Hopf
Bamberg: Univ. of Bamberg Press, 2019
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 36)
978-3-86309-668-7
Preis: 32,50 €
Digitization causes large amounts of data in organizations (e.g., transaction data from business processes, communication data, sensor data). Besides, a large number of data sources are emerging online and can be freely used. Firms are looking for ways to commercialize this increasing amount of data and research aims to better understand the data value creation process. The present dissertation answers five central research questions in this context and examines how machine learning (ML) can be used to create value from data, using case studies from energy retailing and energy efficiency. First, a systematic literature review gives an overview of firm internal and external data sources for potential analyses. Second, the importance of human cognition, theory, and expert knowledge in effective data preparation for ML is demonstrated. Third, current ML algorithms and variable selection methods are empirically compared using industry data sets. Implications for theory and practice are identified. Finally, the successful use of the information gained through ML is exemplified through case studies where increased energy efficiency, customer value, and service quality can demonstrate economic, environmental, and social value. Thus, this empirical work contributes to the so far rather conceptual discussion on value creation from big data in information systems research.
Zugriff auf den Volltext:
https://doi.org/10.20378/irbo-54833
Ermittlung aufgabenbezogener Integrationsbedarfe zur Ableitung von Integrationsarchitekturen f¨¹r Informationssysteme / Florian Bader
Bamberg: Univ. of Bamberg Press, 2019
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 35)
978-3-86309-650-2
Preis: 22,50 €
Das Informationssystem ist f¨¹r Organisationen das informationsverarbeitende System. Dieses ist unter anderem f¨¹r die Planung, Steuerung sowie die Kontrolle von Gesch?ftsprozessen zust?ndig. Zur Durchf¨¹hrung von Gesch?ftsprozessen werden h?ufig sowohl unterschiedliche maschinelle, insbesondere Anwendungssysteme, als auch personelle Aufgabentr?ger eingesetzt. Dies f¨¹hrt dazu, dass Ressourcenebenen von Gesch?ftsprozessen meist heterogen gepr?gt sind. Damit entsteht das Problem, geeignete Integrationsarchitekturen zu konstruieren und dabei die relevanten Integrationsmerkmale der Ressourcenebene mit den spezifischen Anforderungen der Gesch?ftsprozesse geeignet zu kombinieren. F¨¹r die Erschlie?ung dieses Problemfeldes bietet die vorliegende Arbeit zun?chst einen ?berblick ¨¹ber bestehende Ans?tze zum Entwurf von Integrationsarchitekturen f¨¹r Informationssysteme. Bei der ersten Ann?herung an das Thema ist schnell festzustellen, dass bei der Integration der Fokus h?ufig auf die Technologie gerichtet wird, insbesondere auf die Erstellung von Schnittstellen f¨¹r die beteiligten Anwendungssysteme. Dar¨¹ber hinaus wird auf Ressourcenebene neben Anwendungssystemen der personelle Anteil bei der Konstruktion von Integrationsarchitekturen oftmals unzureichend ber¨¹cksichtigt. Zur Vermeidung dieser einengenden Sichtweise wird deshalb im Rahmen dieser Arbeit ein Top-Down-Ansatz entworfen. Bei diesem werden ausgehend vom Gesch?ftsprozess Integrationsbedarfe identifiziert und mittels Merkmalen die Anforderungen an die Integration aus Sicht der involvierten Aufgaben spezifiziert. Unter geeigneter Kombination mit der Ressourcenebene k?nnen verschiedene Szenarien miteinander verglichen werden. Grundlage des entwickelten Top-Down-Ansatzes ist das Semantische Objektmodell. Die Anwendung wird anhand von Fallstudien aus dem Hochschulbereich sowie der G¨¹terdistribution verdeutlicht und mithilfe eines entwickelten Prototypen unterst¨¹tzt.
Zugriff auf den Volltext:
https://doi.org/10.20378/irbo-54651
On the Portability of Applications in Platform as a Service / Stefan Kolb
Bamberg: Univ. of Bamberg Press, 2019
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 34)
978-3-86309-631-1
Preis: 29,50 €
In recent years, the cloud hype has led to a multitude of different offerings across the entire cloud market, from Infrastructure as a Service (IaaS) to Platform as a Service (PaaS) to Software as a Service (SaaS). Despite the high popularity, there are still several problems and deficiencies. Especially for PaaS, the heterogeneous provider landscape is an obstacle for the assessment and feasibility of application portability.
Thus, the thesis deals with the analysis and improvement of application portability in PaaS environments. In the course of this, obstacles over the typical life cycle of an application - from the selection of a suitable cloud provider, through the deployment of the application, to the operation of the application - are considered. To that end, the thesis presents a decision support system for the selection of cloud platforms based on an improved delimitation and conceptualization of PaaS. With this system, users can identify offerings that enable application portability. For validation, a case study with a real-world application is conducted that is migrated to different cloud platforms. In this context, an assessment framework for measuring migration efforts is developed, which allows making the differences between compatible providers quantifiable. Despite semantically identical use cases, the application management interface of the providers is identified as a central effort factor of the migration. To reduce the effort in this area, the thesis presents a unified interface for application deployment and management.
In summary, the work provides evidence of application portability problems in PaaS environments and presents a framework for early detection and avoidance. In addition, the results of the work contribute to a reduction of lock-in effects by proposing a suitable standard for management interfaces.
Zugriff auf den Volltext:
https://doi.org/10.20378/irbo-54102
New Concepts for Presence and Availability in Ubiquitous and Mobile Computing : Enabling Selective Availability through Stream-Based Active Learning / Mirko Fetter
Bamberg: Univ. of Bamberg Press, 2018
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 33)
978-3-86309-623-6
Preis: 26,00 €
Modern Computer-mediated Communication technologies like Instant Messaging (IM) systems enable spontaneous communication over distance. With the advances in Mobile and Ubiquitous Computing, these technologies move away from the desktop computers of our offices, and become more and more pervasive and interwoven with our daily lives. The introduction of these great possibilities to communicate from everywhere with everyone however comes at a cost: The cost of constantly being available to everybody, everywhere, leading to an increasing number of interruptions in our daily tasks. The challenge is, that current technology does not empower users to manage their availability in an adequate manner. Most IM clients for example, only support one single online status that needs to be managed manually by the user. In this work I am founding the concepts of Presence and Availability on a deep understanding of human privacy needs, derived from literature. Based on this foundation, I show how the selective and dynamic nature of privacy is not sufficiently reflected in current systems. Based on two user studies I reveal patterns for selective information disclosure and present an analysis of Selective Availability needs. With the collected study data, I further show that Selective Availability for nomadic users can be predicted based on sensors installed on the users¡¯ laptop computer with a good accuracy through machine learning. As the personalised nature of the data requires new concepts for building an adaptive system, I introduce the LILOLE Framework. The LILOLE Framework outlines the concept of an adaptive system that relies on stream-based active learning to continuously learn and automatically adapt fine-grained personal availability preferences for individual users. The concept is validated through a proof-of-concept implementation and an evaluation based on real user data. In comparison to related work, the presented work is one of very few examples that goes beyond the pure analysis of the predictability, but provides a concept and an implementation of a real system as validation. My approach is novel by combining concepts from Data Stream Mining and Active Learning to predict availability, thus making it very flexible for different settings. This way I am able to address the selective and dynamic nature of availability preferences for nomadic users.
Zugriff auf den Volltext:
https://doi.org/10.20378/irbo-53161
Proof Search in Multi-Agent Dialogues for Modal Logic / Martin Sticht
Bamberg: Univ. of Bamberg Press, 2018
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 32)
978-3-86309-599-4
Preis: 22,50 €
In computer science, modal logics play an important role in various areas, e.g., to model knowledge structures or ontologies. Intuitionistic or constructive pro?positional logic can be considered as a special kind of modal logic. Constructive modal logics describe a restrictive family of modal systems. To prove validity of a statement formalized in such logics, various reasoning procedures (calculi) have been investigated. When searching for proofs, a normalization of deductions in a calculus is desired. A new attempt to find a normalized calculus leads to dialogical logic, a game-theoretic reasoning technique. Usually, two players, one proponent and one opponent, argue about an assertion, expressed as a formula and stated by the proponent at the beginning of the play. The dialogical approach is very flexible as the game rules can be adjusted easily. It turns out that intro?ducing further proponent-players who fight one opponent in a round-based set?ting leads to a normalization of proofs. Ordinary sequent systems can easily be transferred into the dialectic setting to achieve that normalization. Further, the round-based scheduling induces a method to parallelize the reasoning process. Modifying the game rules makes it possible to construct new intermediate or even more restrictive logics.
In this work, multi-proponent dialogical systems are introduced and adequate?ness proofs for rules that implement intuitionistic propositional logic and the modal systems S4 and CS4, are provided. Similarities and differences to various sequent systems and dialogical approaches are investigated.
Zugriff auf den Volltext:
https://doi.org/10.20378/irbo-52527
Korpusbasierte Verfahren zur Generierung lexikalischer Ressourcen f¨¹r das Opinion Mining / von Dirk Reinel
Bamberg: Univ. of Bamberg Press, 2018
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 31)
978-3-86309-593-2
Preis: 22,00 €
Die st?ndig zunehmende Anzahl nutzergenerierter textueller Daten im World Wide Web, wie beispielsweise Kundenrezensionen, und die Begehrlichkeiten diese Daten hinsichtlich der darin ausgedr¨¹ckten Meinungen zu Unternehmen, Produkten, Dienstleistungen etc. maschinell auszuwerten, erfordern gut funktionierende, angepasste Methoden des Opinion Mining. Die Grundlage f¨¹r viele dieser Methoden bilden lexikalische Ressourcen in Form von Lexika meinungstragender W?rter und Phrasen. Diese Lexika existieren bisher allerdings nur f¨¹r ausgew?hlte Sprachen, haben diverse inhaltliche L¨¹cken, und sind automatisch (f¨¹r verschiedene Sprachen) nur mit gro?em Aufwand zu erzeugen. In dieser Arbeit wird deshalb ein neues Verfahren vorgestellt, das dazu beitragen soll, die benannten Probleme ¨C durch den Einsatz statistischer Methoden ¨C zu ¨¹berwinden. Zudem wurde, mittels dieses Verfahrens, der Prototyp eines neuen Lexikons mit meinungstragenden W?rtern und Phrasen f¨¹r die deutsche Sprache generiert und anschlie?end evaluiert. Daf¨¹r wurde im Rahmen eines Experiments mit 20 Teilnehmern ein Basis-Referenzlexikon f¨¹r die deutsche Sprache manuell erzeugt. Klassische Einsatzgebiete der Opinion Mining Algorithmen und Ressourcen, und damit des vorgestellten Verfahrens, sind Systeme zur Erfassung von Kundenmeinungen zu verschiedenen Unternehmensbereichen zur Unterst¨¹tzung des Beschwerde- und Reputationsmanagements. Allerdings sind die M?glichkeiten des neu entwickelten Verfahrens nicht auf diese klassischen Anwendungsfelder begrenzt. Auch der interdisziplin?re Einsatz, z.B. zur Untersuchung von Sprachvariet?ten im Forschungsfeld der Sprachstatistik, ist denkbar.
Zugriff auf den Volltext:
https://doi.org/10.20378/irbo-52349
Rekonstruktion von Orten als sozialem Ph?nomen : Geoinformatische Analyse semantisch annotierter Verhaltensdaten / von Dominik Kremer
Bamberg: Univ. of Bamberg Press, 2018
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 30)
978-3-86309-579-6
Preis: 24,00 €
Im Feld der Angewandten Informatik leistet die Arbeit einen Beitrag im Bereich ortsbezogene Geoinformationssysteme, indem durch einen r?umlichen L?sungsansatz f¨¹r eine ortsbezogene Verbundoperation eine bislang nicht verf¨¹gbare Funktion (?hnlichkeit auf Orten) ¨¹ber unterschiedliche Datenarten und -quellen realisiert werden konnte, die sich f¨¹r einen wichtigen Anwendungsfall (touristische Exploration einer Stadt) als ?u?erst produktiv erwiesen hat. Das Vorgehen, Zusammenhang zwischen Orten ¨¹ber partielle r?umliche Koinzidenz herzustellen, steht dabei komplement?r zu bisherigen Ans?tzen, Verkn¨¹pfungen im Sinne des Qualitativen R?umlichen Schlie?ens ausschlie?lich auf Ebene des verf¨¹gbaren ortsbezogenen Wissens herzustellen.
Zugriff auf den Volltext:
https://doi.org/10.20378/irbo-51890
Supporting Format Migration with Ontology Model Comparison / Peter Wullinger
Bamberg: Univ. of Bamberg Press, 2018
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 29)
978-3-86309-577-2
Preis: 25,00 €
Being able to read successfully the bits and bytes stored inside a digital archive does not necessarily mean we are able to extract meaningful information from an archived digital document. If information about the format of a stored document is not available, the contents of the document are essentially lost. One solution to the problem is format conversion, but due to the amount of documents and formats involved, manual conversion of archived documents is usually impractical. There is thus an open research question to discover suitable technologies to transform existing documents into new document formats and to determine the constraints within which these technologies can be applied successfully. In the present work, it is assumed that stored documents are represented as formal description logic ontologies. This makes it possible to view the translation of document formats as an application of ontology matching, an area for which many methods and algorithms have been developed over the recent years. With very few exceptions, however, current ontology matchers are limited to element-level correspondences matching concepts against concepts, roles against roles, and individuals against individuals. Such simple correspondences are insufficient to describe mappings between complex digital documents. This thesis presents a method to refine simple correspondences into more complex ones in a heuristic fashion utilizing a modified form of description logic tableau reasoning. The refinement process uses a model-based representation of correspondences. Building on the formal semantics, the process also includes methods to avoid the generation of inconsistent or incoherent correspondences. In a second part, this thesis also makes use of the model-based representation to determine the best set of correspondences between two ontologies. The developed similarity measures make use of semantic information from both description logic tableau reasoning as well as from the refinement process. The result is a new method to semi-automatically derive complex correspondences between description logic ontologies tailored but not limited to the context of format migration.
Zugriff auf den Volltext:
https://doi.org/10.20378/irbo-51701
Management von Datenanalyseprozessen / von Bernd Knobloch
Bamberg: Univ. of Bamberg Press, 2018
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 28)
978-3-86309-565-9
Preis: 34,50 €
Die vorliegende Arbeit pr?sentiert eine umfassende, interdisziplin?re Methodik zum Management von Datenanalyseprozessen. Sie betrachtet die Planung, Steuerung und Revision dieser Prozesse und bezieht die Problemspezifikation, die Prozessspezifikation und die Ressourcen- spezifikation ein. Damit gestattet sie eine in Bezug auf die f¨¹r Datenanalysevorhaben relevanten Modellierungsobjekte vollst?ndige Repr?sentation.
Zugriff auf den Volltext:
https://doi.org/10.20378/irbo-51483
Konstruktion gesch?ftsprozessorientierter operativ-dispositiver Komponentenarchitekturen / Thomas Benker
Bamberg: Univ. of Bamberg Press, 2018
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 27)
978-3-86309-557-4
Preis: 24,50 €
Gesch?ftsprozesse bilden die L?sungsverfahren betrieblicher Systeme und gleichzeitig die zentralen Artefakte zur Realisierung der unternehmerischen Ziele. In Zeiten dynamischer M?rkte mit intensivem Wettbewerb ist es umso wichtiger, zeitnah auf Ver?nderungen am Markt sowie Ereignisse in den Prozessen selbst zu reagieren. In der Konsequenz gilt es, die eigenen Gesch?ftsprozesse stetig zu hinterfragen und Ma?nahmen zu deren effizienterer und innovativerer Durchf¨¹hrung abzuleiten. Mit dem gesch?ftsprozessorientierten Data-Warehouse-System (gpDWH-System) wird ein Konzept vorgestellt, das an dieser Stelle ansetzt. Entscheidungsrelevante Ablaufdaten werden sowohl auf Aufgabentr?gerebene angeboten als auch in den Kontext der betrieblichen Leistungserstellung auf Aufgabenebene eingeordnet. Ein Gesch?ftsprozess kann damit umfassend aus unterschiedlichen Perspektiven analysiert werden. Abgeleitete prozessbezogene Ma?nahmen als Reaktion auf Ereignisse im Markt- und Kundenverhalten sind schlie?lich mit unterschiedlichem Zeitverzug zu realisieren. Das Spektrum kann vom kurzfristigen, automatisierten steuernden Eingreifen in eine Prozessinstanz bis hin zur mittelfristigen Anpassung der Prozessstrukturen reichen. Es wird eine Referenzarchitektur vorgeschlagen, die zu diesem Zweck operative und dispositive Anwendungssysteme ¨¹ber das gpDWH-System integriert. Der Herausforderung der stetigen Anpassung von Gesch?ftsprozessen und damit der zugeh?rigen Anwendungssysteme wird zum einen durch die Grunds?tze der Komponentenorientierung begegnet. Zum anderen wird ein Datenschema f¨¹r gpDWH-Systeme vorgeschlagen, das als stabil im Falle sich ver?ndernder Prozesse angesehen werden kann. Zur Anwendung in betrieblichen Szenarien sowie zur Unterst¨¹tzung des Entwicklers wird eine Entwicklungsmethodik mit Ber¨¹cksichtigung von Referenzarchitektur und Datenschema bereitgestellt. Als Grundlage dienen dabei das etablierte Semantische Objektmodell (SOM) sowie das Semantische Data-Warehouse-Modell (SDWM). Die resultierende Methodik ist jedoch auch unabh?ngig von diesen Ans?tzen g¨¹ltig und anwendbar. Die Konzeption operativer und dispositiver Anwendungssysteme, deren Integration sowie Entwicklung stellen komplexe T?tigkeiten dar. Zur Beherrschung dieser Komplexit?t folgt die gestaltungsorientierte Arbeit der durchg?ngigen Metapher von Angebot und Nachfrage. Anhand dieser werden Teilsysteme gebildet und jeweils auf Aufgaben- und Aufgabentr?gerebene beschrieben. Zur Demonstration und zum Nachweis von Referenzarchitektur, Datenschema und Entwicklungsmethodik dient eine durchgehende Fallstudie zur Vermietung von Elektrofahrzeugen.
Zugriff auf den Volltext:
https://doi.org/10.20378/irbo-51230
SOCNET 2018 : Proceedings of the ¡°Second International Workshop on Modeling, Analysis, and Management of Social Networks and Their Applications¡± / Kai Fischbach, Udo R. Krieger (eds.)
Bamberg: Univ. of Bamberg Press, 2018
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 26)
978-3-86309-545-1
Preis: 18,50 €
Modeling, analysis, control, and management of complex social networks represent an important area of interdisciplinary research in an advanced digitalized world. In the last decade social networks have produced significant online applications which are running on top of a modern Internet infrastructure and have been identified as major driver of the fast growing Internet traffic. The "Second International Workshop on Modeling, Analysis and Management of Social Networks and Their Applications" (SOCNET 2018) held at Friedrich-Alexander-Universit?t Erlangen-N¨¹rnberg, Germany, on February 28, 2018, has covered related research issues of social networks in modern information society. The Proceedings of SOCNET 2018 highlight the topics of a tutorial on "Network Analysis in Python" complementing the workshop program, present an invited talk "From the Age of Emperors to the Age of Empathy", and summarize the contributions of eight reviewed papers. The covered topics ranged from theoretical oriented studies focusing on the structural inference of topic networks, the modeling of group dynamics, and the analysis of emergency response networks to the application areas of social networks such as social media used in organizations or social network applications and their impact on modern information society. The Proceedings of SOCNET 2018 may stimulate the readers' future research on monitoring, modeling, and analysis of social networks and encourage their development efforts regarding social network applications of the next generation.
Zugriff auf den Volltext:
https://doi.org/10.20378/irbo-51026
Effective and Efficient Process Engine Evaluation / Simon Harrer
Bamberg: Univ. of Bamberg Press, 2017
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 25)
978-3-86309-503-1
Preis: 27,00 €
Business processes have become ubiquitous in industry today. They form the main ingredient of business process management. The two most prominent standardized languages to model business processes are Web Services Business Process Execution Language 2.0 (BPEL) and Business Process Model and Notation 2.0 (BPMN). Business process engines allow for automatic execution of business processes. There is a plethora of business process engines available, and thus, one has the agony of choice: which process engine fits the demands the best? The lack of objective, reproducible, and ascertained information about the quality of such process engines makes rational choices very difficult. This can lead to baseless and premature decisions that may result in higher long term costs. This work provides an effective and efficient benchmarking solution to reveal the necessary information to allow making rational decisions. The foundation comprises an abstraction layer for process engines that provides a uniform API to interact with any engine similarly and a benchmark language for process engines to represent benchmarks in a concise, self-contained, and interpretable domain-specific language. A benchmark framework for process engines performs benchmarks represented in this language on engines implementing the abstraction layer. The produced benchmark results are visualized and made available for decision makers via a public interactive dashboard. On top of that, the efficient benchmark framework uses virtual machines to improve test isolation and reduce ¡°time to result¡± by snapshot restoration accepting a management overhead. Based on the gained experience, eight challenges faced in process engine benchmarking are identified, resulting in 21 process engine benchmarking. Results show that this approach is both effective and efficient. Effective because it covers four BPEL-based and another four BPMN-based benchmarks which cover half of the quality characteristics defined by the ISO/IEC 25010 product quality model. Efficient because it fully automates the benchmarking of process engines and can leverage virtualization for an even higher execution efficiency. With this approach, the barrier for creating good benchmarks is significantly lowered. This allows decision makers to consistently evaluate process engines and, thus, makes rational decisions for the corresponding selection possible.
Zugriff auf den Volltext:
https://doi.org/10.20378/irbo-49633
MMBnet 2017 : Proceedings of the 9th GI/ITG Workshop ?Leistungs-, Verl?sslichkeits- und Zuverl?ssigkeitsbewertung von Kommunikationsnetzen und Verteilten Systemen¡° / Udo R. Krieger, Thomas C. Schmidt, Andreas Timm-Giel (eds.)
Bamberg: Univ. of Bamberg Press, 2017
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 24)
978-3-86309-501-7
Preis: 20,00 €
Nowadays, mathematical methods of systems and network monitoring, modeling, simulation, and performance, dependability and reliability analysis constitute the foundation of quantitative evaluation methods with regard to software-defined next-generation networks and advanced cloud computing systems. Considering the application of the underlying methodologies in engineering practice, these sophisticated techniques provide the basis in many different areas. The GI/ITG Technical Committee ¡°Measurement, Modelling and Evaluation of Computing Systems¡° (MMB) and its members have investigated corresponding research topics and initiated a series of MMB conferences and workshops over the last decades. Its 9th GI/ITG Workshop MMBnet 2017 ?Leistungs-, Verl?sslichkeits- und Zuverl?ssigkeitsbewertung von Kommunikationsnetzen und Verteilten Systemen¡° was held at Hamburg University of Technology (TUHH), Germany, on September 14, 2017. The proceedings of MMBnet 2017 summarize the contributions of one invited talk and four contributed papers of young researchers. They deal with current research issues in next-generation networks, IP-based real-time communication systems, and new application architectures and intend to stimulate the reader¡®s future research in these vital areas of modern information society.
Zugriff auf den Volltext:
https://doi.org/10.20378/irbo-49762
Portability of Process-Aware and Service-Oriented Software : Evidence and Metrics / von J?rg Lenhard
Bamberg: Univ. of Bamberg Press, 2016
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 23)
978-3-86309-399-0
Preis: 22,00 €
The development of modern distributed software systems has been shaped by the trends of service-orientation and process-awareness. Execution platforms supporting these trends are called engines. Applications and engines interface via language standards. A primary motivation for the usage of standards is the portability of applications, the ability to move software among different execution platforms without the necessity for full or partial reengineering. Nevertheless, practice shows that service-oriented and process-aware applications today are limited with respect to their portability. The reason for this is that engines rarely implement a complete standard. This work contributes to the development of portable service-oriented and process-aware software in two ways: Firstly, it provides evidence for the existence of portability issues and the insufficiency of standards for guaranteeing software portability. Secondly, it derives and validates a novel measurement framework for quantifying portability. We present a methodology for benchmarking the conformance of engines to a language standard and implement it in a fully automated benchmarking tool. On this basis, this work derives a measurement framework for portability, which is aligned to the ISO/IEC SQuaRE model and measurement methodology. This quality model separates the software quality characteristic of portability into the subcharacteristics of installability, adaptability, and replaceability. Each characteristic is addressed by a separate analysis, metrics derivation, evaluation, and validation.
Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus4-462521
INTERACT 2015 Adjunct Proceedings : 15th IFIP TC.13 International Conference on Human-Computer Interaction 14-18 September 2015, Bamberg, Germany / Christoph Beckmann, Tom Gross (eds.)
Bamberg: Univ. of Bamberg Press, 2015
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 22)
978-3-86309-352-5
Preis: 28,50 €
INTERACT is among the world¡¯s top conferences in Human-Computer Interaction. Starting with the first INTERACT conference in 1990, this conference series has been organised under the aegis of the Technical Committee 13 on Human-Computer Interaction of the UNESCO International Federation for Information Processing (IFIP). This committee aims at developing the science and technology of the interaction between humans and computing devices. The 15th IFIP TC.13 International Conference on Human-Computer Interaction - INTERACT 2015 took place from 14 to 18 September 2015 in Bamberg, Germany. The theme of INTERACT 2015 was "Connection.Tradition.Innovation". This volume presents the Adjunct Proceedings - it contains the position papers for the students of the Doctoral Consortium as well as the position papers of the participants of the various workshops.
Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus4-256444
Entwicklung von Modellen generischer Managementprozesse f¨¹r die Gestaltung und Lenkung prozessorientierter Unternehmen / von Li Xiang
Bamberg: Univ. of Bamberg Press, 2015
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 21)
978-3-86309-338-9
Preis: 23,00 €
Ein funktionsspezialisiertes Gro?unternehmen kann aufgrund seiner starren Struktur und Organisationstr?gheit oft nicht schnell und flexibel reagieren. Deshalb sollte ein solches Unternehmen auf Prozessorientierung umgestellt werden, um an das dynamische und komplexe wirtschaftliche Umfeld von heute angepasst zu werden. F¨¹r diese Transformation sind Managementprozesse essenziell, welche die Gestaltung und Lenkung prozessorientierter Unternehmen ¨¹bernehmen und den Kern der Unternehmensf¨¹hrung bilden. In der vorliegenden Arbeit werden diese Managementprozesse untersucht. Ziel ist es dabei, die Transformation eines Gro?unternehmens hin zur Prozessorientierung mittels generischer Managementprozesse zu unterst¨¹tzen. Hierf¨¹r werden gem?? der SOM-Methodik zwei Referenzmodelle generischer Managementprozesse entwickelt: zum einen das Referenzmodell f¨¹r die Gestaltung und Lenkung eines operativen Gesch?ftsprozesses (GPM-RM), zum anderen das Referenzmodell f¨¹r die Gestaltung und Lenkung der Gesamtleistungserstellung prozessorientierter Unternehmen (RM der Makro-Gesch?ftsprozess-F¨¹hrung). Die generischen Managementprozesse bieten den Ansatzpunkt f¨¹r die Erstellung konkreter Managementprozesse von prozessorientierten Unternehmen und k?nnen so zur Transformation in Richtung Prozessorientierung beitragen. Neben dem Beitrag f¨¹r die Praxis besteht die wissenschaftliche Relevanz dieser Arbeit darin, dass zwei Forschungsl¨¹cken geschlossen werden k?nnen: Einerseits dienen die generischen Managementprozesse der Aufgabensystematisierung im Gesch?ftsprozessmanagement, andererseits bilden sie den Ausgangspunkt f¨¹r die systematische ?berleitung vom Gesch?ftsprozessmanagement zu einer prozessorientierten Zielorganisationsstruktur.
Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus4-266375
Model and Proof Theory of Constructive ALC : Constructive Description Logics / von Stephan M. Scheele
Bamberg: Univ. of Bamberg Press, 2015
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 20)
978-3-86309-320-4
Preis: 22,00 €
Description logics (DLs) represent a widely studied logical formalism with a significant impact in the field of knowledge representation and the Semantic Web. However, they are equipped with a classical descriptive semantics that is characterised by a platonic notion of truth, being insufficiently expressive to deal with evolving and incomplete information, as from data streams or ongoing processes. Such partially determined and incomplete knowledge can be expressed by relying on a constructive semantics. This thesis investigates the model and proof theory of a constructive variant of the basic description logic ALC, called cALC. The semantic dimension of constructive DLs is investigated by replacing the classical binary truth interpretation of ALC with a constructive notion of truth. This semantic characterisation is crucial to represent applications with partial information adequately, and to achieve both consistency under abstraction as well as robustness under refinement, and on the other hand is compatible with the Curry-Howard isomorphism in order to form the cornerstone for a DL-based type theory. The proof theory of cALC is investigated by giving a sound and complete Hilbert-style axiomatisation, a Gentzen-style sequent calculus and a labelled tableau calculus showing finite model property and decidability. Moreover, cALC can be strengthened towards normal intuitionistic modal logics and classical ALC in terms of sound and complete extensions and hereby forms a starting point for the systematic investigation of a constructive correspondence theory.
Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus4-264607
Resource Description and Selection for Similarity Search in Metric Spaces / von Daniel Blank
Bamberg: Univ. of Bamberg Press, 2015
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 19)
978-3-86309-310-5
Preis: 20,00 €
St?ndig zunehmende Datenmengen und eine immer gr??er werdende Vielfalt an Datentypen in verschiedenen Anwendungskontexten erfordern sowohl skalierbare als auch flexible Indexierungs- und Suchtechniken. Metrische Zugriffsstrukturen (MAMs: metric access methods) k?nnen diese Flexibilit?t bieten, weil sie lediglich unterstellen, dass die Distanz zwischen zwei Datenobjekten durch eine Distanzmetrik modelliert wird. Dar¨¹ber hinaus lassen sich skalierbare L?sungen mit Hilfe verteilter MAMs entwickeln. Sowohl IF4MI als auch RS4MI, die beide in dieser Arbeit vorgestellt werden, stellen metrische Zugriffsstrukturen dar. IF4MI geh?rt zur Gruppe der zentralisierten MAMs. Diese Zugriffsstruktur basiert auf einer invertierten Liste und repr?sentiert daher eine hybride Indexstruktur, die neben einer inhaltsbasierten ?hnlichkeitssuche in beliebigen metrischen R?umen direkt auch M?glichkeiten der Textsuche unterst¨¹tzt. Im Gegensatz zu IF4MI handelt es sich bei RS4MI um eine verteilte MAM, die auf Techniken der Ressourcenbeschreibung und -auswahl beruht. Dabei sind die Datenobjekte physisch verteilt. RS4MI ist jedoch keineswegs auf die Anwendung in einem bestimmten verteilten Information-Retrieval-System beschr?nkt. Verschiedene Anwendungsfelder sind f¨¹r die Techniken zur Ressourcenbeschreibung und -auswahl denkbar, zum Beispiel im Bereich der Visuellen Analyse. Dabei gehen Anwendungsm?glichkeiten weit ¨¹ber den f¨¹r die Arbeit unterstellten Anwendungskontext der inhaltsbasierten Bildsuche hinaus.
Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus4-260465
Konstruktion integrierter Gesch?fts-Gesch?ftsprozessmodelle : Konzeption einer Modellierungsmethodik unter Nutzung hybrider zeitdiskret-zeitkontinuierlicher Simulationssysteme / von Michael Jacob
Bamberg: Univ. of Bamberg Press, 2014
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 18)
978-3-86309-278-8
Preis: 26,00 €
Von Aristoteles stammt das Zitat "Das Ganze ist mehr als die Summe seiner Teile". Es steht stellvertretend f¨¹r die Denkweise der griechischen Philisophie der Antike, die gepr?gt war vom ganzheitlichen Denken. Im Lauf der Jahrhunderte verlor dieses Denken jedoch seine Bedeutung und wurde sp?testens in der Renaissance durch das Denken in Elementen abgel?st. Dieses jedoch st??t ¨¹berall da an seine Grenzen, wo ein Problem nicht in kurze isolierbare Kausalketten oder in Beziehungen zwischen wenigen Variablen aufgespalten werden kann. Integrierte Gesch?fts-Gesch?ftsprozessmodelle bestehen aus miteinander gekoppelten Gesch?fts- und Gesch?ftsprozessmodellen, die in Form grafischer Systeme oder in Form von hybriden zeitdiskret-zeitkontinuierlichen Simulationssystemen modelliert werden. Sie k?nnen ein Instrument sein, Unternehmungen sowohl ganzheitlich und aggregiert, als auch in ihren Elementen, zu beschreiben, zu analysieren und zu gestalten. Sie bieten Potenziale, zu detaillierten, gleichzeitig aber auch ganzheitlichen Probleml?sungen zu gelangen. Diese sind notwendig, da auch Unternehmungen mehr als nur die Summe von Funktionsbereichen und Ressourcen sind. Auch sie sind ein Ganzes.
Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus4-251616
Modellgetriebene Validierung von System-Architekturen gegen architekturrelevante Anforderungen : Ein Ansatz zur Validierung mit Hilfe von Simulationen / Andr¨¦ Pfl¨¹ger
Bamberg: Univ. of Bamberg Press, 2014
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 17)
978-3-86309-252-8
Preis: 28,00 €
Die Entwicklung von Systemen bestehend aus Hardware und Software ist eine herausfordernde Aufgabe f¨¹r den System-Architekten. Zum einen muss er die stetig steigende Anzahl an System-Anforderungen, inklusive ihrer Beziehungen untereinander, bei der Erstellung der System-Architektur ber¨¹cksichtigen, zum anderen muss er mit k¨¹rzer werdenden Time-to-Market-Zeiten sowie Anforderungs?nderungen durch den Kunden bis in die Implementieungsphase hinein umgehen. Die vorliegende Arbeit stellt einen Prozess vor, der dem Architekten die Validierung der System-Architektur gegen¨¹ber den architekturrelevanten Anforderungen erm?glicht. Dieser Prozess ist Bestandteil der System-Design-Phase und l?sst sich in die iterative Entwicklung der System-Architektur integrieren. Damit der Architekt nicht den ?berblick ¨¹ber alle Anforderungen und deren Beziehungen untereinander verliert, fasst er die Anforderungen anhand von architekturspezifischen Aspekten, die sogenannten Validierungsziele, zusammen. F¨¹r jedes Validierungsziel werden Validierungszielverfahren und Pr¨¹fkriterien zur Bestimmung des Validierungsstatus festgelegt. Falls alle betrachteten Validierungsziele erf¨¹llt sind, d. h. die Ergebnisse der Validierungszielverfahren erf¨¹llen die dazugeh?rigen Pr¨¹fkriterien, erf¨¹llt auch die System-Architektur die dazugeh?rigen architekturrelevanten Anforderungen. Anstelle von formalen Pr¨¹ftechniken wie beispielsweise dem Model-Checking bevorzugt der in der Arbeit vorgestelle Ansatz Simulationen als Pr¨¹ftechnik f¨¹r die Validierungszielverfahren. Bei der Dokumentation setzt der Ansatz auf die Modellierungssprache Unified Modeling Language (UML). Alle f¨¹r die Simulationen erforderlichen Daten sind Bestandteil eines UML-Modells. F¨¹r die Konfiguration und Durchf¨¹hrung der Simulationen werden diese Daten aus dem Modell ausgelesen. Auf diese Weise wirken sich Modell?nderungen direkt auf das Validierungsergebnis der System-Architektur aus. Der in der Arbeit vorgestellte Prozess unterst¨¹tzt den Architekten bei der Erstellung einer den architekturrelevanten Anforderungen entsprechenden System-Architektur sowie bei der Auswirkungsanalyse von Anforderungs- oder Architektur?nderungen. Die wesentlichen Prozessschritte werden mit Hilfe eines Werkzeugs partiell automatisiert, wodurch die Arbeit des Architekten erleichtert und die Effizienz des Systementwicklungsprozesses verbessert wird.
Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus4-105559
MMB & DFT 2014 : Proceedings of the International Workshops ; Modeling, Analysis and Management of Social Networks and their Applications (SOCNET 2014) & Demand Modeling and Quantitative Analysis of Future Generation Energy Networks and Energy-Efficient Systems (FGENET 2014) / Kai Fischbach, Marcel Gro?mann, Udo R. Krieger, Thorsten Staake (eds.)
Bamberg: Univ. of Bamberg Press, 2014
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 16)
ISBN 978-3-86309-208-5
Preis: 18,50 €
At present, a comprehensive set of measurement, modeling, analysis, simulation, and performance evaluation techniques are employed to investigate complex networks. A direct transfer of the developed engineering methodologies to related analysis and design tasks in next-generation energy networks, energy-efficient systems and social networks is enabled by a common mathematical foundation. The International Workshop on "Demand Modeling and Quantitative Analysis of Future Generation Energy Networks and Energy-Efficient Systems" (FGENET 2014) and the International Workshop on "Modeling, Analysis and Management of Social Networks and their Applications" (SOCNET 2014) were held on March 19, 2014, at University of Bamberg in Germany as satellite symposia of the 17th International GI/ITG Conference on "Measurement, Modelling and Evaluation of Computing Systems" and "Dependability and Fault-Tolerance" (MMB & DFT 2014). They dealt with current research issues in next-generation energy networks, smart grid communication architectures, energy-efficient systems, social networks and social media. The Proceedings of MMB & DFT 2014 International Workshops summarizes the contributions of 3 invited talks and 13 reviewed papers and intends to stimulate the readers¡¯ future research in these vital areas of modern information societies.
Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus4-64867
Geografische Empfehlungssysteme / von Christian Matyas
Bamberg: Univ. of Bamberg Press, 2014
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 15)
ISBN 978-3-86309-204-7
Preis: 20,00 €
Mobile Ger?te werden immer h?ufiger mit Sensoren zur Bestimmung der eigenen Position ausgestattet, zum Beispiel mit GPS. Mit Hilfe der Ortsinformationen dieser Sensoren k?nnen beispielsweise moderne Bildmanagementanwendungen digitale Fotos automatisch nach geografischen Regionen gruppieren oder passende Schlagworte generieren. Dies f¨¹hrt unter anderem zu einer besseren Suchbarkeit dieser digitalen Daten. Grunds?tzlich geben Ortsinformationen in digitalen Fotos nicht nur Hinweise auf das Foto selbst, sondern machen auch sichtbar, welche geografischen Entscheidungen der Fotograf bei deren Erstellung getroffen hat. Diese Arbeit nutzt diese Entscheidungen f¨¹r die Berechnung von weiteren Empfehlungen f¨¹r den Nutzer, beispielsweise einer Bildmanagementanwendung. Ein konkreter Anwendungsfall lautet folgenderma?en: Einem Nutzer sollen f¨¹r eine frei w?hlbare geographische Region (z.B. einer Stadt), mehrere Bilder empfohlen werden, die zum einen typisch f¨¹r diese Region sind, zum anderen aber auch f¨¹r ihn pers?nlich interessant sein k?nnten. Um diese geografischen Mehr-Objekt-Empfehlungen zu berechnen, wurde ein neuartiger Algorithmus entwickelt, der zun?chst die Ortsinformationen aller Nutzer zu einem geografischen Modell b¨¹ndelt. Auf Grundlage dieser prototypischen Konzeptualisierung von einzelnen Regionen, k?nnen dann typische Bilder empfohlen werden. Weiterhin werden diese geografischen Modelle in einem zweiten Schritt f¨¹r die zus?tzliche Gewichtung der einzelnen geografischen Entscheidungen der Nutzer verwendet, um ¨¹ber den Ansatz eines kollaborativen Filters zu einer pers?nlichen Empfehlung zu gelangen. Dazu wurden mehrere Verfahren entwickelt und miteinander verglichen. Diese Arbeit ist im Rahmen des europ?ischen Projektes Tripod entstanden, f¨¹r das der entwickelte geografische Empfehlungsalgorithmus als Softwaremodul prototypisch implementiert wurde. Damit wurden die Empfehlungen mit Hilfe von georeferenzierten Bildern evaluiert, die auf den Online-Galerien Panoramio.com und Flickr.de ver?ffentlicht wurden. Durch die Auswertung der geografischen Informationen und der daraus berechneten Ortsmodelle, lie?en sich deutlich pr?zisere Empfehlungen vorschlagen, als mit anderen bekannten Empfehlungsverfahren.
Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus4-60852
Information Management for Digital Learners : Introduction, Challenges, and Concepts of Personal Information Management for Individual Learners / von Stefanie Gooren-Sieber
Bamberg: Univ. of Bamberg Press, 2014
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 14)
ISBN 978-3-86309-206-1
Preis: 20,00 €
The current cultural transition of our society into a digital society influences all aspects of human life. New technologies like the Internet and mobile devices enable an unobstructed access to knowledge in worldwide networks. These advancements bring with them a great freedom in decisions and actions of individuals but also a growing demand for an appropriate mastering of this freedom of choice and the amount of knowledge that has become available today. Naturally, this observable rise and progress of new technologies¡ªgently but emphatically becoming part of people¡¯s everyday lives¡ªnot only changes the way people work, communicate, and shape their leisure but also the way people learn. This thesis is dedicated to an examination of how learners can meet these requirements with the support that modern technology is able to provide to learners. More precisely, this thesis places a particular emphasis that is absent from previous work in the field and thus makes it distinctive: the explicit focus on individual learners. As a result, the main concern of this thesis can be described as the examination, development, and implementation of personal information management in learning. Altogether two different steps towards a solution have been chosen: the development of a theoretical framework and its practical implementation into a comprehensive concept. To establish a theoretical framework for personal information management in learning, the spheres of learning, e-learning, and personalised learning have been combined with theories of organisational and personal knowledge management to form a so far unique holistic view of personal information management in learning. The development of this framework involves the identification of characteristics, needs, and challenges that distinguish individual learners from within the larger crowd of uniform learners. The theoretical framework defined within the first part is transferred to a comprehensive technical concept for personal information management in learning. The realisation and design of this concept as well as its practical implementation are strongly characterised by the utilisation of information retrieval techniques to support individual learners. The characteristic feature of the resulting system is a flexible architecture that enables the unified acquisition, representation, and organisation of information related to an individual¡¯s learning and supports an improved find-ability of personal information across all relevant sources of information. The most important results of this thesis have been validated by a comparison with current projects in related areas and within a user study.
Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus4-64705
Proceedings of KogWis 2012 : 11th Biannual Conference of the German Cognitive Science Society / Ute Schmid, Michael Siebers, Claus-Christian Carbon, Marius Raab, Jascha R¨¹sseler, Tom Gross, Christoph Schlieder, and Dietrich D?rner (eds.)
Bamberg: Univ. of Bamberg Press, 2012
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 13)
ISBN 978-3-86309-100-2
Preis: 19,00 €
The German cognitive science conference is an interdisciplinary event where researchers from different disciplines - mainly from artificial intelligence, cognitive psychology, linguistics, neuroscience, philosophy of mind, and anthropology - and application areas - such as eduction, clinical psychology, and human-machine interaction - bring together different theoretical and methodological perspectives to study the mind. The 11th Biannual Conference of the German Cognitive Science Society took place from September 30 to October 3 2012 at Otto-Friedrich-Universit?t in Bamberg. The proceedings cover all contributions to this conference, that is, five invited talks, seven invited symposia and two symposia, a satellite symposium, a doctoral symposium, three tutorials, 46 abstracts of talks and 23 poster abstracts.
Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus4-6904
The CHORCH Approach : how to Model B2Bi Choreographies for Orchestration Execution / von Andreas Sch?nberger
Bamberg: Univ. of Bamberg Press, 2012
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 12)
ISBN 978-3-86309-076-0
Preis: 32,00 €
The establishment and implementation of cross-organizational business processes is an implication of today's market pressure for efficiency gains.In this context, Business-To-Business integration (B2Bi) focuses on the information integration aspects of business processes.A core task of B2Bi is providing adequate models that capture the message exchanges between integration partners.Following the terminology used in the SOA domain, such models will be called choreographies in the context of this work.Despite the enormous economic importance of B2Bi, existing choreography languages fall short of fulfilling all relevantrequirements of B2Bi scenarios.Dedicated B2Bi choreography standards allow for inconsistent outcomes of basic interactions anddo not provide unambiguous semantics for advanced interaction models.In contrast to this, more formal or technical choreography languages may provide unambiguous modeling semantics,but do not offer B2Bi domain concepts or an adequate level of abstraction.Defining valid and complete B2Bi choreography models becomes a challenging task in the face of these shortcomings.At the same time, invalid or underspecified choreography definitions are particularly costly considering the organizationalsetting of B2Bi scenarios.Models are not only needed to bridge the typical gap between business and IT,but also as negotiation means among the business users of the integration partners on the one handand among the IT experts of the integration partners on the other.Misunderstandings between any two negotiation partners potentially affect the agreements between all other negotiation partners.The CHORCH approach offers tailored support for B2Bi by combining the strengths of both dedicated B2Bi standards and formal rigor.As choreography specification format, the ebXML Business Process Specification Schema (ebBP) standard is used.ebBP provides dedicated B2Bi domain concepts such as so-called BusinessTransactions (BTs) that abstractly specify the exchange of a request business documentand an optional response business document.In addition, ebBP provides a format for specifying the sequence of BT executions for capturing complex interaction scenarios.CHORCH improves the offering of ebBP in several ways.Firstly, the execution model of BTs which allows for inconsistent outcomes among the integration partnersis redefined such that only consistent outcomes are possible.Secondly, two binary choreography styles are defined as B2Bi implementation contract format in order to streamline implementation projects.Both choreography styles are formalized and provided with a formal execution semantics for ensuring unambiguity.In addition, validity criteria are defined that ensure implementability using BPEL-based orchestrations.Thirdly, the analysis of the synchronization dependencies of complex B2Bi scenarios is supportedby means of a multi-party choreography style combined with an analysis framework.This choreography style also is formalized and standard state machine semantics are reused in order to ensure unambiguity.Moreover, validity criteria are defined that allow for analyzing corresponding models for typical multi-party choreography issues.Altogether, CHORCH provides choreography styles that are B2Bi adequate, simple, unambiguous, and implementable.The choreography styles are B2Bi adequate in providing B2Bi domain concepts, in abstracting from low-level implementation detailsand in covering the majority of real-world B2Bi scenarios.Simplicity is fostered by using state machines as underlying specification paradigm.This allows for thinking in the states of a B2Bi scenario and for simple control flow structures.Unambiguity is provided by formal execution semantics whereas implementability (for the binary choreography styles) is ensured by providingmapping rules to BPEL-based implementations.The validation of CHORCH's choreography styles is performed in a twofold way.Firstly, the implementation of the binary choreography styles based on Web Services and BPEL technology is demonstratedwhich proves implementability using relatively low-cost technologies.Moreover, the analysis algorithms for the multi-party choreography styles are validated using a Java-based prototype.Secondly, an abstract visualization of the choreography styles based on BPMN is provided that abstracts fromthe technicalities of the ebBP standard.This proves the amenability of CHORCH to development methods that start out with visual models.CHORCH defines how to use BPMN choreographies for the purpose of B2Bi choreography modelingand translates the formal rules for choreography validity into simple composition rules thatdemonstrate valid ways of connecting the respective modeling constructs.In summary, CHORCH allows integration partners to start out with a high-level visual model of their interactions in BPMNthat identifies the types and sequences of the BusinessTransactions to be used.For multi-party choreographies, a framework for analyzing synchronization dependencies then is available.For binary choreographies, an ebBP refinement can be derived that fills in the technical parameters that are needed for deriving the implementation.Finally, Web Services and BPEL based implementations can be generated.Thus, CHORCH allows for stepwise closing the semantic gap between the information perspective of business process modelsand the corresponding implementations.It is noteworthy that CHORCH uses international standards throughout all relevant layers, i.e., BPMN, ebBP, Web Services and BPEL,which helps in bridging the heterogeneous IT landscapes of B2Bi partners.In addition, the adoption of core CHORCH deliverables as international standards of the RosettaNet communitygive testament to the practical relevance and promise dissemination throughout the B2Bi community.
Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus4-3924
Facettenbasierte Indexierung multipler Artefakte : ein Framework f¨¹r vage Anfragen in der Produktentwicklung / von Nadine Weber
Bamberg: Univ. of Bamberg Press, 2011
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 11)
ISBN 978-3-86309-058-6
Preis: 28,00 €
Durch den zunehmenden Einsatz von Informations- und Kommunikationstechnologien sowie den schnellen Technologiefortschritt steht die Entwicklung technischer Produkte vor immer neuen Herausforderungen. Dabei ist die Aufgabe der Produktentwicklung selbst als Probleml?sungsprozess zu betrachten, in dem L?sungen mittels intensiver Informationsverarbeitung gefunden werden. Somit werden t?glich unterschiedlichste Arten von Informationen erstellt, ben?tigt und verarbeitet, die prim?r in digitaler Form vorliegen. Diese werden in heterogenen Anwendungssystemen verwaltet, was eine Wiederverwendung bereits existierender Informationen erschwert. Damit beansprucht die Suche nach Informationen noch immer einen erheblichen Anteil der Entwicklungszeit.Zur Verbesserung der Informationsversorgung im Bereich der technischen Produktentwicklung wird ein interaktives Information Retrieval-System ¨C das LFRP-Framework ¨C vorgestellt. Dieses kombiniert die vier Basiskonzepte der multiplen Ebenen, der facettierten Suche, des Rankings und der parallelen Koordinaten, um hochkomplexe Informationsbed¨¹rfnisse zu befriedigen. Seine Realisierung erfordert neben einer geeigneten Suchoberfl?che die Entwicklung einer Indexierungskomponente, welche die vorhandenen Informationen in eine f¨¹r das LFRP-Framework rechnerverarbeitbare Form transformiert. Dieser als Indexierung bezeichnete Prozess stellt die Grundvoraussetzung f¨¹r die Funktionsf?higkeit eines Suchsystems dar und liegt daher im Fokus der Betrachtung. Es wird ein L?sungsansatz vorgestellt, welcher eine Indexierung in Form facettenbasierter Suchkriterien erm?glicht und dabei nicht nur Informationen aus heterogenen Anwendungssystemen, sondern insbesondere aus entwicklungsspezifischen Dokumenten, wie CAD-Modellen, technischen Zeichnungen oder St¨¹cklisten, ber¨¹cksichtigt.
Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus-3945
Interactive Search Processes in Complex Work Situations: a Retrieval Framework / von Raiko Eckstein
Bamberg: Univ. of Bamberg Press, 2011
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 10)
ISBN 978-3-86309-017-3
Preis: 21,70 €
Seit einigen Jahren ist ein stetiges Ansteigen der Menge an Informationen, die in Unternehmen erzeugt werden, festzustellen. Um als Unternehmen wettbewerbsf?hig zu bleiben, ist es notwendig, vorhandenes Wissen wiederzuverwenden, um aus vergangenen Projektergebnissen profitieren zu k?nnen. Weiterhin ist ein vollst?ndiges Informationsbild unabdingbar, um informierte Entscheidungen treffen zu k?nnen. Die Informationsvielfalt in modernen Unternehmen ¨¹bersteigt h?ufig die F?higkeiten aktuell anzutreffender unternehmensweiter Suchl?sungen. Die Gr¨¹nde hierf¨¹r sind vielf?ltig und reichen von nicht verkn¨¹pften Informationen aus verschiedenen Softwaresystemen bis hin zu fehlenden Funktionen, um den Nutzer bei der Suche zu unterst¨¹tzen. Vorhandene Suchfunktionen im Unternehmen unterst¨¹tzen h?ufig nicht die Suchparadigmen, die in diesem Umfeld notwendig sind. Vielfach ist den Suchenden bei der Formulierung ihrer Suchanfrage nicht bekannt, welche Ergebnisse sie finden werden. Stattdessen steht der Aspekt des Wissensaufbaus und der Gewinnung neuer Einsichten in den vorhandenen Daten im Vordergrund. Hierzu werden Suchparadigmen ben?tigt, die dem Nutzer Werkzeuge zur Verf¨¹gung stellen, die ein exploratives Navigieren im Datenbestand erlauben und ihnen bei der Erkennung von Zusammenh?ngen in den Suchergebnissen unterst¨¹tzen.
Das Ziel dieser Arbeit ist die Vorstellung eines Rahmenwerks, dass explorative Suchvorhaben im Unternehmensumfeld unterst¨¹tzt. Das beschriebene LFRP-Framework baut auf vier S?ulen auf.
1. Die Multi-Layer Funktionalit?t erlaubt es Nutzern, komplexe Suchanfragen zu formulieren, die sich auf mehr als einen Ergebnistyp beziehen. Dies erm?glicht beispielsweise Suchabfragen, die - ausgehend von einer Menge von relevanten vergangenen Projekten - Selektionen auf den dazugeh?rigen Dokumenten erlauben.
2. Das Suchparadigma der facettierten Suche unterst¨¹tzt Nutzer bei der inkrementellen Formulierung von Suchanfragen mithilfe von dynamisch angebotenen Filterkriterien und vermeidet leere Ergebnismengen durch die Bereitstellung g¨¹ltiger Filterkriterien.
3. Die Erweiterung der facettierten Suche um die M?glichkeit, die Suchergebnisreihenfolge basierend auf Filterkriterien zu beeinflussen, erlaubt es Nutzern feingranular vorzugeben, welche Kriterienauspr?gungen im Suchergebnis st?rker gewichtet werden sollen. F¨¹r den Nutzer geschieht die Beeinflussung des Rankings transparent ¨¹ber sogenannte Nutzerpr?ferenzfunktionen.
4. Die letzte S?ule umfasst die Visualisierung der parallelen Koordinaten, die in der Suchoberfl?che des LFRP-Frameworks zwei Aufgaben ¨¹bernimmt. Zum einen formuliert der Nutzer damit die Suchanfrage ausschlie?lich grafisch ¨¹ber die Visualisierung und zum anderen erh?lt er eine grafische Repr?sentation der Suchergebnisse und kann so leichter Beziehungen zwischen Suchergebnissen und deren Facetten erkennen.
Das Framework, welches in dieser Arbeit formal aus Sicht des Anfragemodells sowie als prototypische Umsetzung betrachtet wird, erm?glicht Nutzern den navigierenden Zugriff auf gro?e vernetze Datenbest?nde und stellt einen Baustein einer umfassenden Informationsstrategie f¨¹r Unternehmen dar.
Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus-3326
Dienstorientierte IT-Systeme f¨¹r hochflexible Gesch?ftsprozesse / Elmar J. Sinz, Dieter Bartmann, Freimut Bodendorf, Otto K. Ferstl (Hrsg.)
Bamberg: Univ. of Bamberg Press, 2011
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 9)
ISBN 978-3-86309-009-8
Preis: 21,50 €
Der vorliegende Band ?Dienstorientierte IT-Systeme f¨¹r hochflexible Gesch?ftsprozesse¡° enth?lt ausgew?hlte Ergebnisse des Forschungsverbundes forFLEX aus den Jahren 2008 - 2011.
Ausgehend von einer Charakterisierung des Forschungsfeldes und zwei fallstudienbasierten Anwendungsszenarien werden Fragen der Analyse, der Modellierung und Gestaltung sowie der Infrastruktur, Sicherheit und Werkzeugunterst¨¹tzung von hochflexiblen Gesch?ftsprozessen und ihrer Unterst¨¹tzung durch dienstorientierte IT-Systeme untersucht.
Das Buch wendet sich an IT-Fach- und F¨¹hrungskr?fte in Wirtschaft und Verwaltung sowie an Wissenschaftler, die an der Analyse und Gestaltung von Flexibilit?tspotenzialen (teil-) automatisierter Gesch?ftsprozesse interessiert sind.
Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus-3170
A Service Description Method for Service Ecosystems : Meta Models, Modeling Notations, and Model Transformations / von Gregor Scheithauer
Bamberg: Univ. of Bamberg Press, 2011
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 8)
ISBN 978-3-86309-007-4
Preis: 21,50 €
Im Rahmen der fortschreitenden Globalisierung und des technischen Wandels spielt das Internet eine immer gr??ere Rolle um Dienstleistungen anzubieten und zu vermitteln. Zur selben Zeit spezialisieren sich Unternehmen zunehmend auf ihre Kernkompetenzen und schlie?en sich in ?Service Ecosystems¡° zusammen, um flexibel auf den Markt reagieren zu k?nnen. Eine wichtige Fragestellung hierbei ist, wie neue Dienstleistungen innerhalb von Service Ecosystems entwickelt und beschrieben werden k?nnen um effizient ¨¹ber das Internet gehandelt zu werden. Hierzu schl?gt die vorliegende Arbeit eine Methode zur Beschreibung von Dienstleistungen vor, die sich in Dienstleistungsentwicklungsprozesse integrieren l?sst.
Die Entwicklung einer solchen Methode f¨¹hrt zu drei Herausforderungen: Erstens muss herausgefunden werden, welche Eigenschaften sich f¨¹r die Beschreibung von Dienstleistungen eignen. Diese Arbeit untersucht existierende Ans?tze im Bereich Marketing, Wirtschaftsinformatik und Angewandte Informatik und erarbeitet ein Modell f¨¹r eine formale Beschreibung von Dienstleistungen, welches das Anbieten und Finden von Dienstleistungen im Internet vereinfacht. Zweitens muss die Aufnahme, Dokumentation und Kommunikation von Beschreibungen ¨¹ber den gesamten Dienstleistungsentwicklungsprozess gew?hrleistet werden. Der in der Arbeit verfolgte Ansatz ist die Entwicklung einer geeigneten Modellierungsnotation als Erweiterung der Unified Modeling Language (UML). Drittens bedarf es einer ?berf¨¹hrung der konzeptionellen Beschreibung f¨¹r Dienstleistungen in Softwarerealisierungssprachen, die im Internet Anwendung finden. Der Beitrag dieser Arbeit umfasst die automatische ?berf¨¹hrung der Dienstleistungsbeschreibung in ein Web Service Description Language (WSDL) Dokument mittels Modell-zu-Modell Transformationen.
Die Methode zur Beschreibungen von Dienstleistungen wurde einerseits durch Implementierung einer integrierten Modellierungsumgebung und zugeh?riger Transformationsskripte und andererseits durch zwei Fallstudien in der Versicherungs- und IT Outsourcing Branche in der Praxis evaluiert.
Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus-3151
Gemeinschaftliche Qualit?tsgesicherte Erhebung und Semantische Integration von Raumbezogenen Daten / von Sebastian Matyas
Bamberg: Univ. of Bamberg Press, 2011
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 7)
ISBN 978-3-86309-002-9
Preis: 22,50 €
In den vergangenen Jahren ist die Verbreitung von mobilen Ger?ten mit integrierter Lokalisierungstechnologie (z.B. GPS) stark gestiegen. Jeder, der ein solches Ger?t besitzt, kann zum Datenlieferanten werden und in einem Netzwerk von Freiwilligen, die Rolle eines Datensensors ¨¹bernehmen.
In der vorliegenden Dissertation werde ich zwei Problemstellungen n?her betrachten, die im Kontext von raumbezogenen Daten, erhoben von Gemeinschaften aus fachlich (hier: geowissenschaftlich) nicht geschulten Nutzern, noch ungel?st sind:
Wie k?nnen geowissenschaftliche Laien motiviert werden, freiwillig qualit?tsgesicherte raumbezogene Daten zu erheben?
Der erste Beitrag meiner Dissertation liefert eine Antwort auf diese Frage. Er beinhaltet ein Framework zum Design von ortsbezogenen Spielen, die geowissenschaftliche Laien motivieren, raumbezogene Daten qualit?tsgesichert in spielerischer Art und Weise zu sammeln. Um es mit den Worten von Peltola et al. (2006) auszudr¨¹cken: ¡±game play is a natural motivator to participate in something that is not necessary or beneficial. [...] By controlling game events and perhaps game logics and rules, the agencies that ultimately use the gathered data, can steer players to do tasks supporting their needs¡°.
Wie kann die Qualit?t von Sammlungen semantisch angereicherter raumbezogener Daten verbessert werden?
Eine wichtige Eigenschaft von ortsbezogenen Spielen zur Datenerhebung ist die wiederholte Spielbarkeit. Im Gegensatz zu anderen Dom?nen ist n?mlich die Erstellung redundanter Daten im raumbezogenen Kontext sogar erw¨¹nscht. Das Zusammenf¨¹hren von Daten mehrerer Nutzer kann man als Mehrfachmessung auffassen, die sich dazu nutzen l?sst, die Qualit?t von Lokalisierung (Wo?) und Kategorisierung (Was?) zu verbessern. Der zweite Beitrag meiner Dissertation gibt eine Antwort auf die Fragestellung und besteht in einem Ansatz zur semantischen Integration der gesammelten raumbezogenen Daten.
Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus-3094
Entwicklung und ?berpr¨¹fung von Kausalhypothesen : Gestaltungsoptionen f¨¹r einen Analyseprozess zur Fundierung betrieblicher Ziel- und Kennzahlensysteme durch Kausalhypothesen am Beispiel des Performance-Managements
/ von Thomas Voit
Bamberg: Univ. of Bamberg Press, 2010
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 6)
ISBN 978-3-923507-94-8
Preis: 18,70 €
Viele Unternehmen setzen moderne Performance-Management-Konzepte, wie zum Beispiel die Balanced Scorecard, ein. Hierbei werden Ursache-Wirkungs-Vermutungen aufgestellt, um nicht-finanzielle Kennzahlen zu identifizieren und deren Einfluss auf nachgelagerte Finanzkennzahlen abzubilden. Dar¨¹ber hinaus werden kausale Abh?ngigkeiten zwischen Ma?nahmen und Zielen in Form von Zweck-Mittel-Beziehungen unterstellt. Die hierf¨¹r ben?tigten Kausalhypothesen werden aber nicht systematisch, sondern meist assoziativ und allein auf Basis von Intuition entwickelt. Man verl?sst sich auf vage Vermutungen und hypothetische Zusammenh?nge, ohne diese zu ¨¹berpr¨¹fen. Dies birgt die Gefahr einer Fehlsteuerung, indem nutzlose, konflikt?re oder sogar sch?dliche Ma?nahmen aus den nur unzureichend begr¨¹ndeten Ziel- und Kennzahlbeziehungen abgeleitet werden.
Es stellt sich daher die Frage, wie Unternehmen im Performance-Management ein anderer, systematischerer Umgang mit Ursache-Wirkungs-Beziehungen gelingen kann. Auf welchen Wegen k?nnen die ben?tigten Kausalhypothesen entwickelt und ¨¹berpr¨¹ft werden?
Um diese Fragen zu beantworten, entwirft diese Arbeit einen generischen Performance-Management-Prozess, der Kausalhypothesen als zentrales Mittel zur ganzheitlichen Gestaltung und Lenkung der betrieblichen Performance nutzt. Daran ankn¨¹pfend werden Gestaltungsoptionen f¨¹r einen Analyseprozess ausgearbeitet, der Kausalhypothesen evidenzbasiert entwickelt und ¨¹berpr¨¹ft.
Der wesentliche Beitrag dieser Arbeit besteht darin, dass neben der Datenanalyse ein zweiter - und bis dato noch unbeschrittener - Weg zur Kausalanalyse vorgestellt wird: die modellzentrierte Kausalanalyse. Welche Synergien sich aus der Kombination modell- und datenzentrierter Analyseverfahren ergeben, insbesondere mit den Verfahren des On-Line-Analytical-Processing (OLAP) und Data-Minings, wird empirisch am Beispiel eines Sportartikelherstellers gezeigt.
Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus-2946
Refactoring of Security Antipatterns in Distributed Java Components / von Marc Sch?nefeld
Bamberg: Univ. of Bamberg Press, 2010
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 5)
ISBN 978-3-923507-67-2
Preis: 18,00 €
Die Bedeutung der Programmiersprache JAVA als Baustein f¨¹r Softwareentwicklungs- und Produktionsinfrastrukturen ist im letzten Jahrzehnt stetig gestiegen. JAVA hat sich als bedeutender Baustein f¨¹r die Programmierung von Middleware-L?sungen etabliert. Ebenfalls evident ist die Verwendung von JAVA-Technologien zur Migration von existierenden Arbeitsplatz-Anwendungen hin zu webbasierten Einsatzszenarien.
Parallel zu dieser Entwicklung hat sich die Rolle der IT-Sicherheit nicht zuletzt aufgrund der Verdr?ngung von mainframe-basierten Systemen hin zu verteilten Umgebungen verst?rkt. Der Schutz von Vertraulichkeit, Integrit?t und Verf¨¹gbarkeit ist seit einigen Jahren ein kritisches Alleinstellungsmerkmal f¨¹r den Markterfolg von Produkten. Verwundbarkeiten in Produkten wirken mittlerweile indirekt ¨¹ber kundenseitigen Vertrauensverlust negativ auf den wirtschaftlichen Erfolg der Softwarehersteller, zumal der Sicherheitsgrad eines Systems durch die verwundbarste Komponente bestimmt wird.
Ein zentrales Ziel dieser Arbeit ist die Erkenntnis zu vermitteln, dass die alleinige Nutzung einer als ?sicher? eingestuften Programmiersprache nicht als alleinige Grundlage zur Erstellung von sicheren und vertrauensw¨¹rdigen Anwendungen ausreicht. Vielmehr f¨¹hrt die Einbeziehung des Bedrohungsmodells der Programmiersprache zu einer verbesserten Risikobetrachtung, da die Angriffsfl?che einer Anwendung detaillierter beschreibbar wird.
Die Entwicklung und fortschreitende Akzeptanz einer Programmiersprache f¨¹hrt zu einer Verbreitung von allgemein anerkannten L?sungsmustern zur Erf¨¹llung wiederkehrender Qualit?tsanforderungen.
Im Bereich der Dienstqualit?ten f?rdern ?Gegenmuster?, d.h. nichtoptimale L?sungen, die Entstehung von Strukturschw?chen, welche in der Dom?ne der IT-Sicherheit ?Verwundbarkeiten? genannt werden. Des Weiteren ist die Einsatzumgebung einer Anwendung eine wichtige Kenngr??e, um eine Bedrohungsanalyse durchzuf¨¹hren, denn je nach Beschaffenheit der Bedrohungen im Zielszenario kann eine bestimmte Benutzeraktion eine Bedrohung darstellen, aber auch einen erwarteten Anwendungsfall charakterisieren.
W?hrend auf der Modellierungsebene ein breites Angebot von Beispielen zur Umsetzung von Sicherheitsmustern besteht, fehlt es den Programmierern auf der Implementierungsebene h?ufig an ganzheitlichem Verst?ndnis. Dieses kann durch Beispiele, welche die Auswirkungen der Verwendung von ?Gegenmustern? illustrieren, vermittelt werden.
Unsere Kernannahme besteht darin, dass fehlende Erfahrung der Programmierer bzgl. der Sicherheitsrelevanz bei der Wahl von Implementierungsmustern zur Entstehung von Verwundbarkeiten f¨¹hrt. Bei der Vermittlung herk?mmlicher Software-Entwicklungsmodelle wird die Integration von praktischen Ans?tzen zur Umsetzung von Sicherheitsanforderungen zumeist nur in Meta-Modellen adressiert. Zur Erweiterung des Wirkungsgrades auf die praktische Ebene wird ein dreistufiger Ansatz pr?sentiert.
Im ersten Teil stellen wir typische Sicherheitsprobleme von JAVA-Anwendungen in den Mittelpunkt der Betrachtung, und entwickeln einen standardisierten Katalog dieser ?Gegenmuster?. Die Relevanz der einzelnen Muster wird durch die Untersuchung des Auftretens dieser in Standardprodukten verifiziert.
Der zweite Untersuchungsbereich widmet sich der Integration von Vorgehensweisen zur Identifikation und Vermeidung der ?Sicherheits-Gegenmuster? innerhalb des Software-Entwicklungsprozesses. Hierf¨¹r werden zum einen Ans?tze f¨¹r die Analyse und Verbesserung von Implementierungsergebnissen zur Verf¨¹gung gestellt. Zum anderen wird, induziert durch die verbreitete Nutzung von Fremdkomponenten, die arbeitsintensive Auslieferungsphase mit einem Ansatz zur Erstellung ganzheitlicher Sicherheitsrichtlinien versorgt.
Da bei dieser Arbeit die praktische Verwendbarkeit der Ergebnisse eine zentrale Anforderung darstellt, wird diese durch prototypische Werkzeuge und nachvollziehbare Beispiele in einer dritten Perspektive unterst¨¹tzt.
Die Relevanz der Anwendung der entwickelten Methoden und Werkzeuge auf Standardprodukte zeigt sich durch die im Laufe der Forschungsarbeit entdeckten Sicherheitsdefizite. Die R¨¹ckmeldung bei f¨¹hrenden Middleware-Herstellern (Sun Microsystems, JBoss) hat durch gegenseitigen Erfahrungsaustausch im Laufe dieser Forschungsarbeit zu einer messbaren Verringerung der Verwundbarkeit ihrer Middleware-Produkte gef¨¹hrt.
Neben den erreichten positiven Auswirkungen bei den Herstellern der Basiskomponenten sollen Erfahrungen auch an die Architekten und Entwickler von Endprodukten, welche Standardkomponenten direkt oder indirekt nutzen, weitergereicht werden. Um auch dem praktisch interessierten Leser einen m?glichst einfachen Einstieg zu bieten, stehen die Werkzeuge mit Hilfe von Fallstudien in einem praktischen Gesamtzusammenhang. Die f¨¹r das Tiefenverst?ndnis notwendigen Theoriebestandteile bieten dem Software-Architekten die M?glichkeit sicherheitsrelevante Auswirkungen einer Komponentenauswahl fr¨¹hzeitig zu erkennen und bei der Systemgestaltung zu nutzen.
Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus-2403
Modellbasierte Analyse von F¨¹hrungsinformationssystemen : ein Ansatz zur Bewertung auf der Grundlage betrieblicher Planungs- und Lenkungsprozesse / von Alexander Bach
Bamberg: Univ. of Bamberg Press, 2009
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 4)
ISBN 978-3-923507-52-8
Preis: 24,50 €
Die Komplexit?t von Managementaufgaben steigt infolge zunehmender Einfl¨¹sse aus der Unternehmensumwelt und hieraus resultierenden innerbetrieblichen Zustands?nderungen. Um ¨¹ber eine zur Komplexit?tsbeherrschung ausreichende Lenkungsvariet?t verf¨¹gen zu k?nnen, w?chst dementsprechend der qualit?ts- und mengenbezogene Informationsbedarf des Managements. F¨¹hrungsinformationssysteme unterst¨¹tzen die Bereitstellung managementrelevanter Informationen, setzen allerdings voraus, dass f¨¹r die Gestaltung dieser Systeme durchg?ngig betriebliche Gesch?ftsprozesse zugrunde gelegt werden.
In der vorliegenden Arbeit wird die zuvor beschriebene Anforderung aufgegriffen und zun?chst ein Vorgehen zur Transformation der Methodik der modellbasierten Gesch?ftsprozessuntersuchung von der Ebene der betrieblichen Leistungserstellung auf die Ebene der Planungs- und Lenkungsprozesse entwickelt. Durch dieses Vorgehen wird erm?glicht, Aufgaben der strategischen Lenkungsebene strukturieren und analysieren zu k?nnen.
Weiterer Gegenstand der Untersuchung in der Arbeit ist die Bewertung des F¨¹hrungsinformationssystems SAP SEM BPS/CPM anhand von Branchen-Referenzmodellen und Gesch?ftsprozessmodellen. Auf der Grundlage von Beobachtungsergebnissen aus der Branche ??ffentliche Versorgung & Infrastruktur?werden anhand von Referenzmodellen Gestaltungspotenziale der Software SAP SEM BPS/CPM abgeleitet. Im Rahmen der praxisorientierten Untersuchung eines Fallstudienunternehmens wird zudem der Anwendungsumfang von SAP SEM hinsichtlich der Faktoren Kosten, Zeit und Qualit?t evaluiert. Zur Analyse des Anwendungsumfangs werden Gesch?ftsprozessmodelle genutzt, deren Konstruktion auf der Methodik des Semantischen Objektmodells (SOM) basiert.
Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus-2047
A realistic Approach for the autonomic management of component-based Enterprise Systems / von Jens Bruhn
Bamberg: Univ. of Bamberg Press, 2009
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 3)
ISBN 978-3-923507-49-8
Preis: 18,00 €
Seit einigen Jahrzehnten ist ein stetiges Ansteigen der Leistungsf?higkeit verf¨¹gbarer Hardwareressourcen festzustellen. Dieses erm?glicht die Zuweisung immer umfangreicherer Aufgaben an Softwaresysteme, was gleichzeitig ein massives Ansteigen der inh?renten Komplexit?t der verwendeten Systeme zur Folge hat. Ein f¨¹r die Zukunft zu erwartender weiterer Komplexit?tsanstieg erfordert eine explizite Adressierung. Das Konzept der Komponentenorientierung stellt einen Ansatz zur Komplexit?tsreduktion f¨¹r die Entwicklung und Konfiguration von Software durch funktionale Dekomposition dar. Mit der Vision des Autonomic Computing existiert ein Ansatz zur Komplexit?tsbew?ltigung f¨¹r Betrieb und Wartung von Softwaresystemen. In diesem Zusammenhang wird der Ansatz verfolgt, Aufgaben zur Feinsteuerung eines verwalteten Systems auf das System selbst zu ¨¹bertragen. Da die Komponentenorientierung zu klar voneinander abgrenzbaren Elementen innerhalb von Systemarchitekturen f¨¹hrt, erscheint sie als viel versprechende Grundlage zur Realisierung der Vision des Autonomic Computing.
Diese Arbeit stellt eine realistische Infrastruktur f¨¹r die autonome Verwaltung von komponentenbasierten Gesch?ftsanwendungen vor. Der Anwendungsbereich solcher Systeme stellt spezielle Anforderungen an verwaltete Systeme und ist besonders von der Komplexit?tsproblematik betroffen. Um die praktische Relevanz der verfolgten Konzepte und Verfahren zu gew?hrleisten, wurde ein etablierter Komponentenstandard als Grundlage des Ansatzes gew?hlt. Bei diesem handelt es sich um Enterprise JavaBeans, Version 3.0. Die vorgestellte Infrastruktur ist generisch konzipiert und umgesetzt. Sie stellt eine Plattform bereit, auf deren Basis L?sungen f¨¹r verschiedene Anwendungsfelder des Autonomic Computing realisiert werden k?nnen. Zur Unterst¨¹tzung autonomer Verwaltungseinheiten wird eine Programmierschnittstelle bereitgestellt, welche ein System auf drei Ebenen abbildet und dessen Steuerung erm?glicht: Auf oberster Ebene erfolgt die Betrachtung der einem System zugrunde liegenden Software. Auf mittlerer Ebene wird die Architektur eines verwalteten Systems adressiert. Interaktionen innerhalb eines Systems werden auf der untersten Ebene dargestellt. Auf dieser Grundlage kann ein System ganzheitlich und modellbasiert verwaltet werden. Zur Unterst¨¹tzung der Laufzeitverwaltung eines Systems dient eine spezielle Komponente, welche in ein betroffenes System integriert werden muss. Sie ist konform zum verwendeten Standard und erfordert keine Anpassung der zugrunde liegenden Komponentenplattform. F¨¹r die Herstellung der Verwaltbarkeit von Komponenten wird ein Werkzeug bereitgestellt, welches automatisiert alle n?tigen Anpassungen vornimmt. Dar¨¹ber hinaus ist die Verwaltung eines Systems f¨¹r dessen Elemente zur Laufzeit transparent. Zusammengenommen bleibt die Entwicklung von Gesch?ftsanwendungen von einer Verwendung der Infrastruktur unbeeinflusst.
Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus-1986
Privacy-enhancing Technologies for Private Services / von Karsten Loesing
Bamberg: Univ. of Bamberg Press, 2009
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 2)
ISBN 978-3-923507-45-0
Preis: 17,60 €
Privatsph?re im Internet wird immer wichtiger, da ein zunehmender Teil des allt?glichen Lebens ¨¹ber das Internet stattfindet. Internet-Benutzer verlieren die F?higkeit zu steuern, welche Informationen sie ¨¹ber sich weitergeben oder wissen nicht einmal, dass sie dieses tun. Datenschutzf?rdernde Techniken helfen dabei, private Informationen im Internet zu kontrollieren, zum Beispiel durch die Anonymisierung von Internetkommunikation. Bis heute liegt der Fokus bei datenschutzf?rdernden Techniken haupts?chlich auf dem Schutz von Anfragen an ?ffentliche Dienste. Diese Arbeit wirft die Frage nach den Risiken beim Betrieb von Internetdiensten durch Privatpersonen auf. Ein Beispiel hierf¨¹r sind Instant-Messaging-Systeme, die es erm?glichen, Anwesenheitsinformationen und Textnachrichten in Echtzeit auszutauschen. ?blicherweise sch¨¹tzen diese Systeme die Anwesenheitsinformationen, die auf zentralen Servern gespeichert werden, nicht besonders. Als Alternative verringern dezentrale Instant-Messaging-Systeme dieses Problem, indem Privatpersonen sich gegenseitig Dienste anbieten. Allerdings bringt das Anbieten eines Dienstes als Privatperson im Vergleich zu Organisationen oder Unternehmen neue Sicherheitsprobleme mit sich: Erstens werden durch die Verf¨¹gbarkeit eines solchen Dienstes Informationen ¨¹ber die Pr?senz des Dienstanbieters preisgegeben. Zweitens soll der Standort des Servers unerkannt bleiben, um nicht den Aufenthaltsort des Dienstanbieters zu offenbaren. Drittens muss der Server besonders vor unautorisierten Zugriffsversuchen gesch¨¹tzt werden.
Diese Arbeit schl?gt die Nutzung von pseudonymen Diensten als Baustein von privaten Diensten vor. Pseudonyme Dienste verbergen den Standort eines Servers, der einen bestimmten Dienst anbietet. Der hier geleistete Beitrag soll herausfinden, welche Teile von pseudonymen Diensten, besonders von Tor Hidden Services, fehlen, um sie f¨¹r private Dienste einzusetzen. Dies f¨¹hrt zu drei Hauptproblemen, zu denen L?sungen vorgeschlagen werden: Erstens skalieren bisherige Ans?tze f¨¹r pseudonyme Dienste nicht f¨¹r die in Zukunft zu erwartende Anzahl von privaten Diensten. Diese Arbeit schl?gt einen neuen Ansatz vor, der Hidden-Service-Beschreibungen in einer verteilten Datenstruktur ablegt, anstatt sie auf zentralen Servern zu speichern. Ein besonderer Fokus liegt auf der Unterst¨¹tzung von privaten Eintr?gen, die f¨¹r private Dienste ben?tigt werden. Zweitens geben pseudonyme Dienste w?hrend des Anbietens im Netzwerk und der Verbindungsherstellung durch Clients zu viele Informationen ¨¹ber die Identit?t des Dienstes preis. Der in dieser Arbeit verfolgte Ansatz ist, die Informationen, die ein Dienst im Netzwerk bekanntgibt, auf ein Minimum zu reduzieren und nicht-autorisierte Clients am Zugriff auf den Dienst schon w?hrend der Verbindungsherstellung zu hindern. Diese ?nderungen sch¨¹tzen die Aktivit?t und das Nutzungsmuster des Dienstes vor nicht-autorisierten Personen. Drittens weisen pseudonyme Dienste eine schlechtere Effizienz auf als Dienste, auf die direkt zugegriffen wird. Der Beitrag dieser Arbeit ist, die Effizienz zu messen, m?gliche Probleme zu identifizieren und Verbesserungen vorzuschlagen.
Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus-1832
?berwindung semantischer Heterogenit?t bei multiplen Data-Warehouse-Systemen / von Stefan Hartmann
Bamberg: Univ. of Bamberg Press, 2008
(Schriften aus der Fakult?t Wirtschaftsinformatik und Angewandte Informatik der Otto-Friedrich-Universit?t Bamberg ; 1)
ISBN 978-3-923507-41-2
Preis: 16,50 €
Der bedarfsorientierte Zugriff auf ein konsolidiertes Berichtswesen stellt f¨¹r betriebliche Organisationen einen entscheidenden Erfolgsfaktor dar, um einen Informationsvorsprung gegen¨¹ber ihren Wettbewerbern erzielen zu k?nnen. Data-Warehouse-Systeme (DWH-Systeme) dienen dazu, Entscheidungstr?gern die f¨¹r ihre aktuelle Aufgabe relevanten Informationen rechtzeitig und in geeigneter Form zur Verf¨¹gung zu stellen. In der Praxis existieren jedoch multiple DWH-Systeme, die vor allem auf Ebene der Datenschemata sowie der zugrunde liegenden Terminologien eine starke Heterogenit?t aufweisen. Inkonsistenzen zwischen den generierten Berichten sowie eine divergente Interpretation der Berichtsergebnisse sind die Folge. Der Aufbau eines konsolidierten Berichtswesens ist daher nur mit nachtr?glichem, manuellem Abstimmungsaufwand m?glich.
Die vorliegende Arbeit widmet sich insbesondere dem durch multiple DWH-Systeme offerierten Informationsangebot. Mithilfe der im Semantic Web etablierten Technologie Resource Description Framework (RDF) und der Web Ontology Language (OWL) wird ein Rahmen zur semantisch reichhaltigen Beschreibung von DWH-Metadaten geschaffen. Derartig ausgezeichnete Metadaten unterschiedlicher DWH-Systeme werden anschlie?end in einer semantischen Homogenisierungsschicht (sHGS) zusammengef¨¹hrt. Mit diesem Hilfsmittel k?nnen Beziehungen zwischen multiplen DWH-Systemen identifiziert und deren semantische Heterogenit?t ¨¹berwunden werden.
Zugriff auf den Volltext:
https://nbn-resolving.org/urn:nbn:de:bvb:473-opus-1601