Gør som tusindvis af andre bogelskere
Tilmeld dig nyhedsbrevet og få gode tilbud og inspiration til din næste læsning.
Ved tilmelding accepterer du vores persondatapolitik.Du kan altid afmelde dig igen.
Unternehmen sind aus dem Leben der Industrieländer des 20. Jahrhunderts nicht wegzudenken. In der Bundesrepublik Deutschland gab es 1992 beispielsweise ungefähr 55000 Industrieunternehmen mit etwa 10 Millionen Beschäftigten, fast 40000 Großhandelsunternehmen mit über 1 Million Beschäftigten und annähernd 1 160000 Einzelhandelsunternehmen mit mehr als 2 Millionen Beschäftigten. Die Einwohner der Industrieländer stellen tagtäglich den Unternehmen ihre Arbeitskraft und ihr Kapital zur Verfügung und konsumieren die von den Unternehmen produzierten materiellen Güter und Dienstleistungen. Angesichts der Bedeutung, die Unternehmungen für den Wirtschaftsprozeß haben, ist es erstaunlich, daß seit Adam Smiths bahnbrechenden Überlegungen zum Wohlstand von Nationen im Mittelpunkt des wissenschaftlichen Interesses von Ökonomen sehr viel häufiger der Markt als die Unternehmung gestanden hat. Dies ist wohl nur durch die Faszination zu erklären, die das wundersame Funktionieren der "Unsichtbaren Hand" im Vergleich zum anscheinend selbstverständlichen 2 Funktionieren der "Sichtbaren Hand" hervorruft. Zum ersten Mal wurde von Coase mit Nachdruck darauf hingewiesen, daß Unternehmungen und Märkte alternative Institutionen zur Koordination ökonomischer Aktivitäten sind. Im Rahmen seines berühmten, 1937 erschienenen Aufsatzes "The Nature of the Firm" gelangte er zu der fundamentalen Einsicht, daß sowohl die zentrale Koordination in Unter nehmungen als auch die dezentrale Koordination auf Märkten mit Kosten verbunden sind, aufgrund derer keine Koordinationsform -d. h. weder Unter nehmung noch Markt -der anderen generell überlegen ist.
Mit diesem Buch liegt eine betriebswirtschaftliche Analyse von Kompensationsgeschäften vor. Trotz der großen Bedeutung des Kompensationshandels werden solche Geschäfte vielfach als Ergebnis von Ad-hoc-Entscheidungen durchgeführt. Oft wird keine systematische Planung vorgenommen. Eine wissenschaftliche Behandlung dieser Thematik wird ebenfalls vermißt. Dieses Buch liefert damit einen Beitrag zur Schließung der Lücke in Forschung und Praxis. Auf der Basis von zahlreichen Geprächen mit Vertretern aus der Praxis wird ein methodisch fundiertes Konzept entwickelt, welches beiden an einem Kompensationsgeschäft beteiligten Geschäftspartnern eine optimale Angebotspolitik bei internationalen Kompensationsgeschäften ermöglicht. Der Praxis wird hiermit eine Entscheidungshilfe gegeben.
Originally presented as the author's thesis (doctoral)--Universit'at Fridericiana zu Karlsruhe, 1993.
Das Buch befaßt sich mit theoretischen Untersuchungen zur deutschen Vereinigung. Zwei Fragen stehen dabei im Mittelpunkt: Welcher makroökonomische Anpassungsprozeß wird durch die deutsche Vereinigung ausgelöst? Und wie kann die Wirtschaftspolitik diesen Prozeß unterstützen? Neben der kurzen Frist geht es vor allem um die mittelfristigen und langfristigen Perspektiven. Was bedeutet das für Ostdeutschland beziehungsweise Westdeutschland? Was heißt das im Verhältnis zur Europäischen Gemeinschaft, zu den Vereinigten Staaten und zu Japan? Den analytischen Rahmen bildet das AD-AS-Modell einer offenen Wirtschaft, erweitert um die Dynamik von privaten Investitionen, Budget und Leistungsbilanz. Als Mikrofundierung dient das Modell überlappender Generationen. Es erweist sich dabei als sinnvoll, eine ganze Reihe von Szenarien zu betrachten. Zu unterscheiden ist zwischen dem System flexibler Wechselkurse, dem System fester Wechselkurse sowie dem System gemischter Wechselkurse. Der Nominallohn kann flexibel, fest oder langsam sein. Darüber hinaus gibt es drei Abteilungen der Stabilisierungspolitik: die Geldpolitik, die Fiskalpolitik und die Wechselkurspolitik. Auch die Politik ist entweder fest (exogen), flexibel oder langsam (endogen).
Gegenstand des Buches ist die theoretisch fundierte Bestimmung des monetären Wertes für den immateriellen Vermögensgegenstand "Marke". Ausgehend von der Darstellung der Marke und des Markenartikels wird die Notwendigkeit der Bewertung von Marken dargelegt (Bilanzierung von Marken, Kauf/Verkauf von Marken, Bestimmung von Lizenzgebühren bei der Lizenzierung der Marke u.ä.). Anschließend werden bisherige Ansätze der Markenbewertung dargestellt und einer kritischen Würdigung unterzogen. Aufbauend auf diesen Ansätzen wird ein neues Verfahren zur Bewertung von Marken entwickelt und für unterschiedliche Zwecke der Markenbewertung konkretisiert. Die theoretische Basis hierfür bietet die hedonische Theorie. Das entwickelte Modell erlaubt dabei, unterschiedliche Erscheinungsformen von Marken wie Einzelmarken, Markenfamilien und Dachmarken sowie regionale, nationale und internationale bzw. globale Marken zu bewerten. Besonderer Wert wird auf die praktische Umsetzung des vorgeschlagenen Ansatzes gelegt. Daher wird eine empirische Überprüfung des entwickelten Markenbewertungsansatzes anhand eines typischen Marktes für kurzlebige Konsumgüter vorgenommen. Aspekte des Marken-Managements schließen das Buch ab. Konkret wird aufgezeigt, wie der Wert einer Marke mit ausgewählten Marketing-Instrumenten gesteuert werden kann. Dabei wird auch auf den Markengewinn eingegangen, um die Beziehungen zwischen Markenwert und Markengewinn offenzulegen.
Das Buch behandelt die Lagerproblematik in Handelsbetrieben. Bei Unsicherheiten im Bedarf und vorgegebenem Servicegrad wird die Lagermenge minimiert. Es vergleicht die gängigen theoretischen Methoden und wählt jene für die Praxis relevanten aus. Das bislang ungelöste Problem der Optimierung von mehrstufigen Lagersystemen (Zentrallager - Filiallager) wird durch ein spezielles Verfahren gelöst. Die spezifische Situation der Lagerhaltung in Großhandelsbetrieben wird in Form einer Case-Study erörtert. Ziel des Buches ist es, für diese spezielle Situation des Handels ein praktisch erprobtes Lösungsverfahren anzubieten und Tips für die Implementierung zu geben. Der Leser, der sich mit dem Problem der Lagerhaltung im Handel beschäftigen will, erspart sich nicht nur langwieriges Literaturstudium, sondern erhält auch neben Verfahrensvergleichen einen Lösungsvorschlag durchgerechnet und ausprogrammiert. Durch die Beschreibung sämtlicher Schwierigkeiten bei der Umsetzung der Lösung erhält das Buch höchste Relevanz für den Praktiker. Das Buch wurde im November 1991 mit dem Preis der Österreichischen Gesellschaft für Operations Research ausgezeichnet.
unproblematisch war.
Der vorliegende Band beschreibt sowohl die theoretischen als auch die empirischen Aspekte neuronaler Netze. Nach einer detaillierten, auch für Einsteiger geeigneten Einführung in die Funktionsweise neuronaler Netze, richtet sich der zweite Teil des Buches an Forscher, die ein neuronales Netz als Erwartungsbildungsmodul oder als Optimierungsmodul in volkswirtschaftliche Modelle integrieren wollen. Im dritten Teil des Buches schließlich wird am Beispiel der Geldnachfrage dargestellt, wie neuronale Netze für die Analyse und Prognose wirtschaftswissenschaftlicher Zusammenhänge eingesetzt werden können. Gängige Trainings- und Optimierungsverfahren werden vorgestellt, und es wird gezeigt, wie diese Verfahren in einem Simulator für neuronale Netze implementiert werden können. Die beiliegende CD enthält eine interaktive Version des Buches. Computer-Simulationen, Programmierbeispiele und Quellcode für die Programme können direkt aus dem Text aufgerufen und Schritt für Schritt nachvollzogen werden.
Für die Funktionsfähigkeit des Marktes für Unternehmensfinanzierung ist es von entscheidender Bedeutung, welche Eigentumsrechte der Finanzier ex post geltend machen kann. Eine explizite vertragliche Einschränkung der Kontroll- und Aneignungsrechte mindert die Finanzierungsbereitschaft ebenso, wie eine implizite, dem Vertrag nicht unmittelbar anzusehende Verwässerung der Eigentumsrechte. Die ex post Verletzung von Eigentumsrechten ist der Kern der Theorie unvollständiger Kontrakte, auf der auch diese Arbeit beruht. Im vorliegenden Werk wird untersucht, wie sich Selbstbindungsinstrumente auf die faktischen Eigentumsrechte von Finanzier und Unternehmer auswirken. Die Ergebnisse zeigen, dass die Bereitschaft von Banken zur Unternehmenssanierung und zur Übernahme von Unternehmenskontrollen wesentlich zur Erhöhung der Finanzierungskapazität von unvollständigen Kredit- und Beteiligungsverträgen beitragen.
Die moderne Volkswirtschaftliche Gesamtrechnung ist aus einer langen Entwicklung von Quesnay, über Marx und Leontief entstanden. Von der wirtschaftswissenschaftlichen Hauptentwicklung lange unbeachtet, hat Joseph Lang nicht nur 1807 und 1811 zwei wegweisende Bücher zur Fortentwicklung der Quesnayschen Idee geschrieben, sondern 1815 in einem bisher völlig übersehenen Festvortrag eine erste Matrixdarstellung für eine Vier-Sektoren-Quesnay-Ökonomie entwickelt. Eine solche Darstellung als Flow-of-Funds-Tabelle ist in die Methoden der Wirtschaftswissenschaft erst in den 1970er Jahren erneut eingeführt worden, 150 Jahre später. Diese literarische Entdeckung wird im Abdruck erneut vorgelegt und kommentiert. Mit diesem Werk muß die gesamte Ideengeschichte der Volkswirtschaftlichen Gesamtrechnung und der Flow-of-Funds neu geschrieben werden.
Mittelstandspolitik betrieben, vielfach in der Diskussion zu kurz kommen.
Die moderne Banktheorie ist vom Idealbild des Homo Oeconomicus geprägt. Nicht nur die Banken, sondern auch deren Vertragspartner (Kreditnehmer, Privatanleger) werden als rationale Entscheider modelliert. Dieses Vorgehen ignoriert die vielfältigen verhaltenswissenschaftlichen Erkenntnisse über tatsächliches individuelles Entscheidungsverhalten. In der vorliegenden Arbeit wird gezeigt, daß es sinnvoll und möglich ist, alternative Entscheidungskonzepte in banktheoretischen Modellbildungen zu berücksichtigen. Damit wird ein erster Beitrag zu einer verhaltenswissenschaftlich orientierten Banktheorie geliefert. Nach einer umfassenden Übersicht über Phänomene und Anomalien im individuellen Entscheidungsverhalten werden einige konkrete banktheoretische Problemstellungen angesprochen, bei denen diese Erkenntnisse besonders relevant sind.
Die vorliegende Studie befaßt sich in Hinblick auf die Europäische Währungsunion mit dem Zusammenhang von Wechselkursschwankungen, Außenhandel und der Arbeitsmarkt-Performance. Es wird erstmalig systematisch untersucht, welche Auswirkungen die Wechselkursvariabilität im europäischen Währungssystem auf die Höhe der Beschäftigung und Arbeitslosigkeit in Eu-Ländern hatte und wie sich die Schaffung der Währungsunion auf diesen "Kanal" auswirkt. Die Studie verbindet durchgehend Theorie, Empirie und wirtschaftspolitische Schlußfolgerungen. Besonderer Wert wird der mikroökonomischen Fundierung makroökonomischer Zusammenhänge beigemessen. Dem Leser bietet das Buch eine neue Argumentationshilfe, wenn es zukünftig darum gehen wird, den mittel- und osteuropäischen Beitrittsländern zur EU ein adäquates Wechselkursregime zu empfehlen.
Das anhaltende Interesse an der Theorie monetärer Integration ist einerseits dem europäischen Einigungsprozeß zu verdanken, andererseits der Instabilität des Weltwährungssystems seit dem Zusammenbruch der Bretton-Woods-Vereinbarung. Die vorherrschende Theorie des optimalen Währungsraumes hat sich jedoch angesichts neuerer Entwicklungen in der Theorie der Wirtschaftspolitik sowie in der Theorie des Wechselkurses als zu eng und methodisch fragwürdig erwiesen. Das Buch gibt einen umfassenden, auch für Angehörige anderer sozialwissenschaftlichen Disziplinen gut lesbaren Überblick über den Stand der Forschung zur monetären Integration im allgemeinen und zur europäischen Währungsintegration im besonderen. Es gibt darüber hinaus Anregungen für weiterführende Untersuchungen, z.B. zur Rolle der Arbeitsmarktverfassungen oder der Fiskal- und der Sozialpolitik.
In der Praxis kommt der Planung und Steuerung informell verlaufender, d.h. vertraglich nicht geregelter Informationsflüsse als eine geeignete Methode zur Beeinflussung des Innovationsverhaltens von produktionstechnisch verbundenen Unternehmen mehr und mehr an Bedeutung zu. Im Rahmen der industrieökonomischen Innovationsforschung bietet das Buch einen umfassenden Überblick über Motive, Wirkungen und Stellenwert informeller Informationstransfers. In der modelltheoretischen Analyse wird anhand von Zwei-Sektorenmodellen gezeigt, daß es für innovative Unternehmen eine optimale Strategie darstellen kann, aus strategischen Gründen die Position eines Informationsgebers einzunehmen, indem sie ohne direkte Kompensationszahlungen Innovationsleistungen für ihre Abnehmer bzw. Zulieferer durchführen. In der empirischen Untersuchung wird erstmalig das interindustrielle Informations- und Innovationsverhalten von 348 Betrieben aus der deutschen Automobilzulieferindustrie detailliert analysiert.
Die Europäische Währungsunion rückt näher und mit ihr Fragen der künftigen geldpolitischen Steuerung in Europa. Dieses Buch zeigt, welche Einflüsse die Währungsvereinigung auf die nationalen und die europäischen Geldnachfragefunktionen haben wird. Das theoretische Modell basiert auf einer neuartigen Verknüpfung der Portfoliotheorie mit dem Konzept der Bargeldbeschränkung und erfaßt so die wesentlichen Eigenschaften von Geld in der Volkswirtschaft. Simulationen für Deutschland, Frankreich und die Niederlande deuten u.a. auf eine deutliche Abnahme der Zinselastizität der Geldnachfrage bei Einführung der Währungsunion. Auf Basis der Resultate werden Vorschläge für die künftige Strategie der Geldpolitik in Europa präsentiert.
Der in der makroökonomischen Literatur dominierende Ansatz zur Modellierung von Erwartungen beruht auf der Hypothese rationaler Erwartungsbildung. Dem Standardansatz wird üblicherweise unterstellt, daß die Opimalitätseigenschaften der Unverzerrtheit und der Fehlerminimierung simulatan erfüllt sind. Diese Arbeit zeigt, daß dies nur bei einfachen Modellstrukturen gerechtfertigt ist. Ein weiterer Kritikpunkt ergibt sich aus Überlegungen zur Axiomatisierung eines Erwartungsbildungsoperators, die eher zum Median als zum Erwartungswert führen. Die Aggregation mikroökonomischer Ansätze führt zu einer Abhängigkeit des makroökonomisch erwarteten Wertes von in der Regel mehreren Verteilungsparametern. Die vorgeschlagenen Alternativkonzepte ermöglichen es, Risikoaversion oder -vorliebe zu berücksichtigen.
Originally presented as the author's thesis (doctoral--Universit'at M'unster, 1990).
Mit der Anwendung klassischer ökonometrischer Verfahren und neuronaler Netze auf praktische und theoretische Fragestellungen im Finanzmarkt befaßt sich dieser Band. Die folgenden Themen werden behandelt: Wechselkursprognosen mit ökonometrischen Methoden und künstlichen neuronalen Netzen, Analyse und Prognose von Finanzmarktdaten, Beziehungen zwischen Renten- und Aktienmarkt, Simultane Prognose von Aktienkursen, Zinsen und Währungen mit neuronalen Netzen in einem integrierten Modell, Variablenselektion und Prognose, Wechselkursvolatilitäten und Autokorrelationsfunktion bei operationalen Zeitskalen, Prognosevergleich von verschiedenen Verfahren zur Zinsprognose mit Teilnahme von mehreren Forschern und Fortbildungsinstitutionen, Tutorien zur Anwendung von Methoden der Künstlichen Intelligenz.
Originally presented as the author's thesis (doctoral)--Universit'at Passau.
Der aktuelle Forschungsstand der politökonomischen Theorie wird in diesem Buch wiedergegeben. Zudem trägt das Buch zur Fortentwicklung dieser Theorie bei und stellt zwei neue Modelle vor. Im ersten Modell wird der Tatsache Rechnung getragen, daß die Rentenpolitik kein isolierter Politikbereich ist, sondern integraler Bestandteil eines gesamtpolitischen Konzepts. Es untersucht die Rentenpolitik deshalb gemeinsam mit einem anderen Politikbereich, der Steuerpolitik. Im zweiten Modell wird die aktuelle Debatte zur Rentenreform aufgegriffen. Es analysiert, unter welchen politökonomischen Voraussetzungen das staatliche Umlageverfahren reformierbar ist. Das Buch vermittelt dem Leser einen gründlichen Einblick in die politökonomische Theorie der Rentenversicherung.
Der Einzelhandel ist eine Branche, die Stadtbilder prägt. Allein ihr Umsatz macht sie zu einem wichtigen Studienobjekt; dazu kommt der rasante Wandel, dem sie unterworfen ist. In diesem Buch werden mit Hilfe spieltheoretischer Methoden verschiedene Besonderheiten dieser Branche beleuchtet. So zeigt die tägliche Erfahrung, daß Einzelhändler, auch direkte Wettbewerber, oft benachbarte Standorte wählen. Welche Faktoren eine solche Agglomeration begünstigen und welche eher zu einer dezentralen Anordnung führen, ist eines der Themen. Außerdem wird der Effekt von Preisankündigungen untersucht, z.B. also von Preislisten, die vor ihrer Gültigkeit erhältlich sind. Es wird gezeigt, daß und wie Ankündigungen, von denen die Akteure später unter gewissen Kosten abweichen können, zu verbesserter Kooperation führen können.
Die Auswirkungen der alternden Bevölkerung auf makroökonomische Variablen, wie die Sparquote, das wirtschaftliche Wachstum und den Beitragssatz zur Sozialversicherung werden analysiert. Dazu wird ein Angewandtes Allgemeines Gleichgewichtsmodell mit veränderlicher Bevölkerung entwickelt. Ein Bevölkerungsmodell, ein Erbschaftsmodell und ein Lebenszyklusmodell werden getrennt entwickelt, schrittweise erweitert und anhand zahlreicher Abbildungen und Simulationen erläutert. Anschließend werden die Modellteile zu einem Gesamtmodell zusammengefügt und in ihrem Zusammenwirken betrachtet, was sowohl einen tiefen, aber leicht nachvollziehbaren Einblick in die Modellierung als auch ein Verständnis für Wirkungszusammenhänge und Modellergebnisse bietet.
Politische Pläne zur Rücknahme von Steuervergünstigungen oder Subventionen sind häufig mit der Forderung nach Vertrauensschutz für Altinvestoren verbunden. Dieses Problem der Übergangsgerechtigkeit ist Gegenstand dieses Buchs. Ausgangspunkt ist die finanzwissenschaftliche Diskussion um Steuerreformprobleme und die Rechtsprechung des Bundesverfassungsgerichts zum verfassungsrechtlichen Vertrauensschutz. Hierauf aufbauend wird analysiert, wie sich Übergangsgerechtigkeit implementieren läßt und welche distributiven und allokativen Effekte zu erwarten wären. Neben einer Simulation der Verteilungswirkungen von Übergangsregelungen im Rahmen eines allgemeinen Gleichgewichtsmodells findet sich eine ausführliche Anwendung der Risiko-Nutzen-Theorie und des Public-Choice-Ansatzes.
Eine Vielzahl experimenteller Studien hat gezeigt, daß Entscheider systematisch gegen die Verhaltenshypothese des Erwartungsnutzenmodells verstoßen. Die Maximierung des erwarteten Nutzens stellt aber die Standardannahme bezüglich der Präferenzen von Investoren bei der Ableitung von Kapitalmarktmodellen dar. Damit besteht eine Lücke zwischen verhaltenswissenschaftlichem Erkenntnisstand und der Modellierung von Märkten. Durch die Ableitung eines Kapitalmarktmodells auf Basis eines Modells, welches ambiguitätsaverse Präferenzen abbilden kann, wird ein Beitrag zum Schließen dieser Lücke geleistet.
Ziel dieser Arbeit ist es, die distributiven und allokativen Effekte des traditionell praktizierten Verteilungsverfahrens im Hinblick auf die entsprechenden föderalstaatlichen Ziele zu analysieren. Dazu wird im Rahmen eines kontinuierlichen Modells die Verteilung von Zuweisungen analytisch bestimmt. Komparative Statistik wird auf die regulierenden Parameter angewandt. Auf Seiten der Kommunen wird nutzenmaximierendes Verhalten angenommen. Insgesamt kann gezeigt werden, daß das herrschende Ausgleichssystem fundamentalen Anforderungen nicht genügt. Es weist verschiedene inhärente Inkonsistenzen auf. Dies betrifft insbesondere die im einzelnen nachweisbare Existenz regressiver Effekte, die die gängige These einer simultanen Realisierung vertikaler und horizontaler Verteilungsziele eindeutig widerlegt.
Die Energienachfrage der privaten Haushalte zählt zu den dynamischen Segmenten der gesamten Energienachfrage. Dies steht in scheinbarem Widerspruch zu den für diesen Bereich glaubhaft ausgewiesenen Sparpotentialen. Diese Analyse geht der Frage nach, welche Gesetzmäßigkeiten das Verhalten der Haushalte bestimmen. Demografische Entwicklungen als auch technische Parameter in Form höherer Effizienzen gehen in die Analyse ein. Es wird gezeigt, daß die Integration der o.a. Einflüsse das Modellverhalten gegenüber sigulären Modellansätzen nachhaltig verändert und die Aussagekraft entscheidend verbessert. Insbesondere der Umstand, daß die einzelnen Komponenten der Haushaltsnachfrage im Gesamtzusammenhang ein thermodynamisches System bilden und eine isolierte Betrachtung demnach unbefriedigend ausfällt, unterstreicht die Notwendigkeit der integrativen Betrachtung. Damit sind drei Schwerpunkte der Analyse vorgegeben: Die Erstellung einer nach Nutzenergiekomponenten disaggregierten Bilanz der Haushaltsenergienachfrage, die Integration technischer Erklärungsfaktoren in ein primär ökonomisch ausgerichtetes Modell und die Einarbeitung thermodynamischer Einflüsse. Anhand österreichischer Daten wird dieses Modell empirisch umgesetzt.
Originally presented as the author's thesis (doctoral)--Universit'at Heidelberg, 1992.
Tilmeld dig nyhedsbrevet og få gode tilbud og inspiration til din næste læsning.
Ved tilmelding accepterer du vores persondatapolitik.