Gør som tusindvis af andre bogelskere
Tilmeld dig nyhedsbrevet og få gode tilbud og inspiration til din næste læsning.
Ved tilmelding accepterer du vores persondatapolitik.Du kan altid afmelde dig igen.
Mit der großen Tarifauseinandersetzung in der Metallindustrie wurde im Jahre 1984 eine Entwicklung eingeleitet, die zu einer erheblichen Reduktion der Wo chenarbeitszeit führte und gleichzeitig die Möglichkeit eröffnete, den starren 8- Stunden-Tag aufzugeben und zu flexibleren Arbeitszeitgestaltungen zu gelangen. Diese Entwicklung ist noch keineswegs abgeschlossen und kann heute in vielen Branchen und auch im Ausland beobachtet werden. Dabei hatten, mit Blick auf die Flexibilisierung, die Arbeitgeber von voinherein den Kapazitätsaspekt im Visier, der sich durch geschickte Arbeitszeitregelungen erreichen lassen könnte. Denn mit einer Verkürzung der persönlichen Arbeitszeit würde sich gleicherma ßen auch die Betriebszeit von i.d.R. äußerst kapitalintensiven Anlagen verkür zen, wenn es nicht gelänge, die Arbeitszeit so zu "flexibilisieren", daß sie sich an eine vorgegebene Betriebszeit anpassen ließe. Mehr noch: Neben der Auf rechterhaltung oder sogar Ausdehnung der Betriebszeit bot sich mit der Flexibi lisierung der Arbeitszeit die Möglichkeit, die Personalkapazität an den Bedarf anzupassen. Diese Anpassung bezeichnet man in all ihren planerischen und un ternehmenspolitischen Facetten als kapazittiJsorientienes Arbeitszeitmanagement.
Thomas van Brackel entwickelt ein umfangreiches und realitatsnahes Modell zur Steuerung von Werkstattfertigungssystemen. Die Effizienz der fur dieses kombinatorische Optimierungsproblem entwickelten sequentiellen und parallelen Verfahren wird in einer Simulationsstudie auf der Basis eines echtzeitfahigen Steuerungskonzeptes auf verteilten Systemen untersucht.
Burkhard Eisele bezieht den Value-at-Risk in das Modell der Portfolio Selection ein und leitet die Bedingungen für die Value-at-Risk-Optimalität ab. Er analysiert dann, wie bei Dezentralisierung der Anlageentscheidungen der Prozess einer Risikokapitalallokation und Risikolimitierung zu gestalten ist, der die maßgeblichen aufsichtsrechtlichen Normen erfüllt. Auf der Grundlage einer Simulationsstudie werden abschließend alternative Risikolimitsysteme beurteilt.
Der Autor zeigt Perspektiven für ein Zusammenwachsen konkurrierender naturanaloger Verfahren auf und belegt die Leistungsfähigkeit hybrider Ansätze an Hand des Open-Shop-Scheduling-Problems.
Prozessaggregationen und (Kosten-)Abweichungsanalysen sind wichtige Planungs- und Kontrollinstrumente des Controlling zur Aufdeckung und Ausschöpfung von Erfolgspotentialen.
Die Autorin analysiert verschiedene Formen von Lieferverträgen und berücksichtigt hierbei den Informationsstand der Kontrollinstanz, die im Streitfall die Durchsetzung der Verträge verfolgt.
Caren Sureth analysiert, wie ideal- und realtypische Steuersysteme Investitionsentscheidungen und damit die Ressourcenallokation bei unsicheren Erwartungen beeinflussen.
Christian Ernst analysiert die Chefarzt-Träger-Beziehung mit Hilfe der ökonomischen Agency-Theorie. Dabei liegt ein Schwerpunkt auf den institutionellen Gegebenheiten und den Informationsproblemen im Krankenhaussektor, die für das wirtschaftliche Verhalten der Akteure bedeutsam sind.
Erstmals liegt eine systematische Untersuchung zum Themenkomplex der Planungsstabilität vor. Sie beschäftigt sich mit dem Problem der Instabilität der im Rahmen einer rollierenden Planungsumgebung im Zeitablauf generierten Planungsvorgaben. Anhand operationaler Maße für unterschiedliche Stabilitätsaspekte werden als Beispiel die strukturellen Stabilitätseigenschaften stochastischer Lagerdispositionsregeln analysiert. Es zeigt sich, daß die erreichbare Stabilität vom Typ der Bestellregel und von den verwendeten Politikparametern abhängt, wobei vorgeschlagene modifizierte Dispositionsregeln zu deutlich stabileren Planungsergebnissen führen. Mit den gewonnenen Erkenntnissen erschließen sich dem Leser neue Möglichkeiten, um Problemen der Planungsnervosität gezielt und wissenschaftlich fundiert begegnen zu können
Die Autorin analysiert die Kontrollfunktion des Aufsichtsrats bei asymmetrischer Informationsverteilung zwischen Unternehmensleitung, Anteilseignern und dem Intermediär Aufsichtsrat und stellt dar, welche Anreizstruktur für eine Überwachungsdelegation vorteilhaft ist.
Venture Capital Geber (VCG) investieren Eigenkapital in junge, nicht börsennotierte, meist technologieorientierte Unternehmen. Obwohl solche Wagnisfinanzierungen nur einen kleinen Anteil am gesamten Kapitalmarkt ausmachen, haben sie große volkswirtschaftliche Bedeutung über ihren Einfluss auf das Wirtschaftswachstum. Die Portfoliostrategie eines VCG, d.h. die Entscheidung darüber, in wie viele und in welche Wagnisse investiert werden soll, ist daher nicht nur eine kritische Erfolgsgröße für die Venture Capital Gesellschaft und ihre Kapitalgeber, sondern für ein ganzes Wirtschaftssystem. VCG stellen den Unternehmen, die sie finanzieren, nicht nur Eigenkapital, sondern auch Know How, insbesondere betriebswirtschaftliche Kenntnisse und Erfahrungen zur Verfügung. Damit wird der VCG neben dem Entrepreneur zu einem zweiten Erfolgsfaktor für das Venture. In seiner Dissertation geht Herr Thamm Fragen nach, die sich aus dem Zusammenhang zwischen der Portfolio Bildung durch den VCG einerseits und den produktiven Wirkungen seiner Leistungen sowie der Leistungen der betreffenden Entrepreneure in diesem Portfolio andererseits ergeben. Dazu untersucht er modelltheoretisch die Beziehung zwischen einem VCG und einem Portfolio aus Entrepreneuren bei Double Moral Hazard, d.h. bei zweiseitigen, aus der gegenseitigen Unbeobachtbarkeit der Leistungen resultierenden Anreizproblemen. Herr Thamm erweitert auf diese Weise erheblich die bestehende Literatur zur Analyse der Portfoliostrategien von VCG in einem institutionenökonomischen Kontext.
Stefan Bock präsentiert ein Konzept, das durch den Einsatz moderner Informations- und Kommunikationstechnologien in der Lage ist, in Echtzeit auf Veränderungen im Speditionsnetzwerk zu reagieren und den in der Ausführung befindlichen Plan zieladäquat anzupassen.
Im ersten Teil des Buches wird der Flexibilitätsbegriff für eine modellgestützte Analyse operationalisiert. Diese Untersuchungen führen zu einem ß-Servicegrad-orientierten Standardflexibilitätsmaß. Mit diesem Flexibilitätsmaß ist man in der Lage, Betriebsvereinbarungen unter den unterschiedlichsten Bedingungen modellgestützt zu untersuchen. Im zweiten Teil der Arbeit wird das Planungsverfahren HORA vorgestellt, das für die Variable Arbeitszeit geeignet ist. Besondere Bedeutung hat Kapitel 8, in dem zahlreiche Betriebsvereinbarungen aus der betrieblichen Praxis analysiert werden und der modellgestützte Gestaltungsprozeß von Betriebsvereinbarungen illustriert wird. Die Untersuchung zeigt, daß mit dem Flexibilitätsmaß komplexe Systeme analysiert werden können.
Gestützt auf die Theorie der dynamischen Optimierung wird ein Konzept zur Messung der Flexibilität beliebiger betrieblicher Systeme vorgestellt. Die Flexibilität eines Systems, mit der man dessen Fähigkeit zur Bewältigung von Unsicherheit und Dynamik verbindet, ist eng korreliert mit der Fähigkeit des Systems, zu überleben. Das vorgestellte Flexibilitätsmaß kann deshalb zur Unterstützung strategischer Auswahlentscheidungen über Systemlayouts eingesetzt werden. Darüber hinaus werden in diesem Buch Probleme der Planung und Steuerung flexibler Potentiale untersucht, die das Verständnis flexibilitätsorientierter Planung vertiefen. Für konkrete logistische Fragestellungen aus den Bereichen Materialwirtschaft und Kapazitätsplanung werden hierarchisch strukturierte Entscheidungsmodelle entwickelt, die beispielsweise bezüglich der Optimierung des kombinierten Einsatzes von Routine- und Eilbestellungen bei der Lagerdisposition zu völlig neuen und für die Praxis wichtigen Ergebnissen führen.
Die hierarchische Produktionsplanung und -steuerung weist grundsätzliche Mängel auf, da übergeordnete Planungsebenen die Auswirkungen ihrer Entscheidungen auf die Planung untergeordneter Ebenen nicht geeignet antizipieren. Die mangelhafte Kapazitätsabstimmung dieser Ebene führt häufig auf lange Durchlaufzeiten und hohe Werkstattbestände. Da man bei der Losgrößenplanung meist nur Kosten, nicht aber Durchlaufzeiten und Werkstattbestände optimiert, werden die Probleme verschärft. Dieses Buch beschreibt ein völlig neues hierarchisches Planungskonzept, das die einzelnen Planungsebenen nachhaltig integriert und dadurch eine bessere mittelfristige Kapazitätsplanung ermöglicht. Hierbei werden bereits im Rahmen der Produktionsprogrammplanung durchlaufzeitoptimale Losgrößen ermittelt.
Dieses Buch befaßt sich mit unterschiedlichen Aspekten der Variantenfließfertigung, wie sie vor allem für die Fahrzeugindustrie typisch ist. Besonderer Schwerpunkt wird hierbei auf die Abstimmung von Kapazitätsangebot und -nachfrage auf verschiedenen Planungsebenen gelegt. Für die Beschreibung einer ausgeglichenen Kapazitätsnutzung wurde ein eigenes Zielkriterium entwickelt. Im einzelnen werden die Reihenfolge- und Pufferplanung sowie der kurzfristige Einsatz von Springern kritisch beleuchtet. Es wird eine umfassende theoretische Analyse aller mit der Kapazitätsplanung bei Variantenfließfertigung im Zusammenhang stehenden Aspekte geboten. Dem interessierten Praktiker werden dadurch wesentliche Denkanstöße vermittelt. Dies gilt insbesondere für das Zusammenspiel unterschiedlicher Planungsstufen.
Hierarchische Führungsaufgaben bestehen darin, daß eine übergeordnete Instanz auf das Verhalten untergeordneter Entscheidungsträger Einfluß nimmt. Dieser Einfluß ist nicht eingleisig, sondern er vollzieht sich ganz wesentlich auch in der antizipativen Berücksichtigung der Reaktion der untergeordneten Stellen auf mögliche Einflußnahmen. Für die übergeordnete Instanz ergibt sich daher insbesondere bei ihren planerischen Aktivitäten die Notwendigkeit, Reaktionsfunktionen zu ermitteln. Hierzu sind unterschiedliche Verfahren möglich. Ein Verfahren, das nur einen sehr geringen a priori Kenntnisstand über die funktionale Gestalt einer Reaktionsfunktion voraussetzt, besteht in der Anwendung Neuronaler Netze. Es ist die Untersuchung dieser Anwendung, die im Mittelpunkt der Ausführungen steht.
Struktur der additiven Aggregation in vielen Fällen nicht offen zutage liegen.
Bei moderner Fließfertigung werden auf einem Fließband viele verschiedene Varianten und Produkttypen gefertigt. Hieraus resultiert eine sehr ungleichmäßige Auslastung der Stationen des Fließbandes, da die einzelnen Aufträge aufgrund unterschiedlicher Arbeitsinhalte differierende Kapazitätsbedarfe aufweisen. Das vorliegende Buch beschreibt ein Optimierungsverfahren, das mit Hilfe der Reihenfolgeplanung den variierenden Kapazitätsbedarf auf das Kapazitätsangebot der Arbeitsstationen anpaßt. Die zentrale Zielsetzung besteht darin, durch eine geschickte Wahl der Auftragsreihenfolge die Produktionskosten, insbesondere den Springereinsatz zu reduzieren. Dieses Optimierungsverfahren wird mit Simulation hinsichtlich Qualität und Effektivität analysiert. Ferner zeigt sich, daß dieses Verfahren auch für komplexere Produktionsstrukturen, bei denen mehrere Fließbänder aufeinander abzustimmen sind, geeignet ist. Die Stärken des Optimierungsverfahrens liegen in der Flexibilität bezüglich der Produktionsstruktur und in der einfachen Handhabung, so daß die Verwendung in der Praxis keine Probleme bereitet. Abschließend wird die Handhabung kurzfristiger Störungen bei Fließfertigung diskutiert.
Die Theorie der monetaren und regulatorischen Risikomessung ist seit Beginn der 1990er Jahre wesentlichen Veranderungen unterworfen (Basel II). Mario Brandtner nimmt diese Entwicklungen zum Ausgangpunkt fur entscheidungstheoretische Analysen, wobei im Grundsatz die folgenden beiden Themenbereiche behandelt werden: (1) Das bislang kaum diskutierte Konzept der Akzeptanzmengen. Eine Akzeptanzmenge enthalt diejenigen finanziellen Positionen, die ein Regulierer ohne zusatzliche Kapitalerfordernisse akzeptiert. (2) Der Autor zeigt auf, dass die charakteristischen Eigenschaften der Risikomessansatze passend fur regulatorische Fragestellungen sind, in den neuen Anwendungsbereichen jedoch zu restriktiven Handlungsempfehlungen fuhren. Charakteristischstes Beispiel ist hier sicher die Vermogensaufteilung zwischen einer risikofreien und einer riskanten Geldanlage, bei der niemals diversifiziert, sondern stets ausschlielich riskant oder ausschlielich risikofrei investiert wird.
Markus C. Arnold analysiert die Leistungsanreize für Manager und betrachtet insbesondere Investitions- und Diversifikationsanreize. Aufgrund der realitätsnahen Modellierung werden Empfehlungen für die Gestaltung von Anreizverträgen abgeleitet und grundlegende Probleme aufgezeigt, die sich aus jüngsten Forderungen aus Theorie und Praxis zur Gestaltung von aktienkursbasierten Entlohnungssystemen ergeben.
Christian Gaber setzt sich mit Ausgestaltung und Beurteilung verschiedener Rechnungslegungsregeln vor dem Hintergrund einer marktwertorientierten Steuerung delegierter Investitionsentscheidungen auseinander und untersucht die Anreizwirkungen verschiedener Gewinnermittlungsvorschriften mit Hilfe der Prinzipal-Agenten-Theorie.
Matthias M. Schabel zeigt, dass das Economic Value Added-Anreizsystem schon unter stark vereinfachenden "idealen" Bedingungen zu Fehlanreizen auf Seiten von Managern führt. Er analysiert und diskutiert die Gestaltung einer Residualgewinnbeteiligung für Manager in realitätsnäheren Situationen. Hierbei steht insbesondere der für die Praxis charakteristische Fall divergierender Zeit- und Risikopräferenzen von Managern und Anteilseignern im Mittelpunkt des Interesses.
Kathrin Fischer stellt die bedeutendste normative Theorie, die Theorie des Erwartungsnutzens, umfassend dar und zeigt, welche Aspekte realen Entscheidungsverhaltens durch diesen axiomatisch fundierten Ansatz nicht erfasst werden können. Im Anschluss erfolgt eine Systematisierung diverser deskriptiver Modelle, die sich an den wesentlichen formalen Eigenschaften des Erwartungsnutzen-Prinzips orientiert sowie die detaillierte Untersuchung und Bewertung der dargestellten Ansätze.
Dirk Annacker zeigt die Bedeutung einer adäquaten Kontrolle von "invisible assets" für die Validität empirischer Erfolgsfaktorenbefunde auf.
Jürgen Maretzki analysiert die Funktion des Preises als Indikatorvariable des Markenwertes und stellt zwei theoretisch fundierte, valide Messverfahren zur preisorientierten Markenwertmessung auf Basis von Paneldaten vor.
Viktor Jakubowicz demonstriert die allgemeine Äquivalenz und konsistente praktische Anwendbarkeit der am Zukunftserfolgswert orientierten Bewertungsmethoden und zeigt neue Kriterien für deren Eignungsbeurteilung.
Michael Lorth entwickelt einen Modellansatz zur Bestimmung der optimalen Tätigkeits- bzw. Risikoallokation in einem Zulieferer-Abnehmer-System, der die Portefeuilletheorie auf realgüterwirtschaftliche Leistungserstellungspro-zesse überträgt.
Der Autor entwickelt ein eigenes Konzept für ein wertorientiertes Entlohnungssystem und zeigt Gestaltungsmöglichkeiten für die Entlohnung von Top-Managern in der Unternehmenspraxis auf.
Tilmeld dig nyhedsbrevet og få gode tilbud og inspiration til din næste læsning.
Ved tilmelding accepterer du vores persondatapolitik.