Gør som tusindvis af andre bogelskere
Tilmeld dig nyhedsbrevet og få gode tilbud og inspiration til din næste læsning.
Ved tilmelding accepterer du vores persondatapolitik.Du kan altid afmelde dig igen.
Projektarbeit aus dem Jahr 2020 im Fachbereich VWL - Finanzwissenschaft, Note: 1,7, Universität Bremen, Sprache: Deutsch, Abstract: Diese Arbeit erklärt die wichtigsten Entwicklungsschritte von einfachen neuronalen Netzen bis hin zu den LSTM Netzwerken und arbeitet Vor- und Nachteile heraus. Im zweiten Teil der Arbeit werden die Ergebnisse des Papiers von Fischer/Krauss (2017) kritisch gewürdigt. Die Resultate in dieser Untersuchung weichen zum Teil deutlich von denen des Fischer/Krauss Papieres ab.In dieser Arbeit werden selektiv die Zeiträume der Jahre 1994, 2001, 2008 und 2015 untersucht. Lediglich in den untersuchten Jahren 1994 und 2001 konnte gegenüber dem S&P500 eine signifikante Outperformance durch das LSTM-Networks, mit durchschnittlich täglichen Renditen von 0,022 respektive 0,0074 festgestellt werden. Eine allgemeingültige Prognosefähigkeit des Modells oder eine Überlegenheit zu etwaigen BenchmarkModellen lässt sicher allerdings nicht darstellen. Das gewählte Benchmark-Modell, die logistische Regression, liefert in 1994 ähnlich gute Ergebnisse wie das LSTM. Da die Daten und Methoden denen von Fischer/Krauss (2017) folgen, gilt es eine Erklärung der differenten Resultate zu finden. Machine Learning ist seit den 90er Jahren ein verbreitetes Thema der Finanzwissenschaft und Informatik. Mit der neuen Big Data Welle kommt das mittlerweile in die Jahre gekommene Wissenschaftsgebiet wieder in den Fokus der Wissenschaft. Die Gründe liegen auf der Hand. Gerade die besseren Rechenkapazitäten und größeren Mengen an öffentlich zugänglichen Kapitalmarktdaten gestatten es, Machine Learning erneut auf den Prüfstand zu stellen. Dies führte zu einer erneuten Prominenz des Forschungsgebietes, des Deep Learning.Das Papier von den Autoren Fischer/Krauss (2017) zum Thema Aktienmarktprognose mittels neuronaler Netze sorgte aufgrund ihrer Ergebnisse für Aufsehen. Die Autoren nutzen in ihrer Arbeit zur Prognose von Aktienmarktrenditen insbesondere Long Short-Term Memory Netzwerke (LSTM-Networks). Diese zählen zu den fortgeschrittensten Methoden in Bereich des Machine Learning. In dem Papier schaffen sie es ausschließlich mittels vergangener Renditen, den Benchmark-Index S&P500 mehr als deutlich zu schlagen. Diese Ergebnisse stehen im Konflikt mit der von Eugene Fama entwickelten Effizienz-Markt-Hypothese, als das sich aus vergangen Kursdaten keine nützlichen Informationen für die Zukunft ableiten lassen.
Studienarbeit aus dem Jahr 2019 im Fachbereich VWL - Finanzwissenschaft, Note: 1,3, Universität Bremen, Sprache: Deutsch, Abstract: Diese Arbeit untersucht die Einflüsse der Leitzinssenkungen im Euroraum auf die europäischen Bankaktien. Nach der Finanzkrise 2007 steuern weltweit die Zentralbanken über ihre Geldpolitik gegen eine mögliche Deflation und versuche, durch Geldmengenerhöhung sowie Zinssenkungen die Konjunktur anzufachen und die Inflation nahe 2% zu halten. Besonders der Euroraum wurde stark getroffen und mit Zinssenkungen bisher nie gesehenen Ausmaßes belegt. Diese Geldpolitik könnte bestimmte Auswirkungen auf die Wertentwicklung von Bankaktien haben, dessen Ertragslage durch Zinsmargen abhängig ist. Aus diesem Grund wird in dieser Arbeit mit Hilfe einer Event-Studie untersucht, ob abnormale Renditen abseits der Marktmodellprognose auftreten. Die Event-Studie für die Untersuchung wird dabei nach Campbell et al. durchgeführt und nach dem dort beschrieben 7 Schritte Plan aufgebaut.Zum genauen Aufbau der Arbeit folgt im nächsten Kapitel eine genaue Beschreibung. Inhaltlich orientiert sich diese Arbeit an Ricci, die die Auswirkungen von Ankündigungen der EZB zum Thema Geldpolitik auf den Bankenmarkt untersucht. Hierbei ist der Kernfund, dass Zinsentscheidung zur Änderung des Leitzinses signifikante Auswirkungen auf Aktienkurse von Banken haben. Diese Evidenz dient als Basis für die Arbeit und eine Event-Studie soll auf die geldpolitische Ankündigung der EZB vom 10.03.2016, bei dem der Zinssatz für die Hauptfinanzierungsgeschäfte des Eurosystems von 0,05 auf 0,00% gesenkt wurde, angewendet werden. Zusätzlich wurde das Anleihen Kaufprogramm auf 80 Mrd. ¿ ausgeweitet, um die Konjunktur zu befeuern.Dieses Event wird auf eine Stichprobe von 100 Bankaktien in der Eurozone angewendet. Nach der Untersuchung des Events wird mithilfe des Capital Asset Pricing Models (CAPM) und des 3-Faktormodells nach Fama und French mehrere Signifikanztests durchgeführt, um die Güte der Ergebnisse zu validieren. Im nächsten Kapitel wird das Vorgehen genau definiert.
Bachelorarbeit aus dem Jahr 2018 im Fachbereich BWL - Allgemeines, Note: 1,7, Universität Bremen (Lehrstuhl für empirische Wirtschaftsforschung und angewandte Statistik), Veranstaltung: Ökonometrie, Sprache: Deutsch, Abstract: Der Aufbau der Arbeit ist wie folgt zu beschreiben. Begonnen wird mit der Erklärung der Funktionsweise und Anwendung des Value-at-Risk im späterem Vergleich. Darauf folgen die Erläuterung der Begrifflichkeiten: Markt- und Liquiditätsrisiko, welche danach in Zusammenhang gebracht werden sollen. In Folge dessen wird die Implementierung in das eigentliche Value At Risk Modell vollzogen. Hierbei gilt es auch vorhandene Schwächen zu diskutieren und bereits genannte Kritikpunkte der Wissenschaft herauszuarbeiten und Lösungsansätze zu finden. Im anschließenden Kapitel geht es um die empirische Applikation, in der die herausgearbeiteten Ansätze angewandt und verglichen werden. Abschließend werden die Ergebnisse der vorangegangenen Applikation einem Backtesting unterzogen, aus dessen Resultaten sich die finalen Aussagen über die Implementierung bilden werden. Diese werden zum Schluss diskutiert und in einer Zusammenfassung dargestellt
Essay from the year 2010 in the subject Politics - Topic: Development Politics, University of Birmingham (Deprtament of Political Science and International Studies), course: International Political Economy, language: English, abstract: Due to the numerous changes, dynamics and developments in our world in the recent decades, the discussion about the existence, forms, processes, dynamics, actors and the effectiveness of global governance, beyond inter-state cooperation, has continuously intensified. Although there is almost no debate about the simple existence of global governance, there are widespread academic discussions about how to understand the relations between the variety of involved actors and the dynamics they create amongst different issue areas within the global system. This paper discusses the questions if there actually is such a thing as global governance and if it can ever be effective? Therefore, I will first take a short look at some basic definitions, the involved actors and their possible roles within global governance arrangements before I examine different approaches towards the existence, functioning, effectiveness and limitations of global governance. The main idea in this context is to give a brief introduction to current issues, questions and solutions in the actual global governance debate.
How did the (old) Hanyu Shuiping Kaoshi (HSK) assess the Chinese proficiency of non-native speakers of Chinese? 30 years of research have been synthesized into an argument-based approach for validity for the HSK, finally yielding into an argument about the validity of the most widespread language proficiency test for Chinese as a foreign language.
Tilmeld dig nyhedsbrevet og få gode tilbud og inspiration til din næste læsning.
Ved tilmelding accepterer du vores persondatapolitik.