Refine
Document Type
- Bachelor Thesis (6)
- Master's Thesis (1)
Has Fulltext
- yes (7)
Is part of the Bibliography
- no (7)
Keywords
- Deep learning (3)
- AI (2)
- Maschinelles Sehen (2)
- Neuronales Netz (2)
- Abalone (1)
- Algorithmus (1)
- AlphaGo (1)
- Außerirdisches Leben (1)
- Baum (1)
- Bestärkendes Lernen <Künstliche Intelligenz> (1)
Institute
Bis heute ist völlig unbekannt, ob wir allein im Universum sind. Um auf dieses Thema eine Antwort zu finden, überprüft diese Bachelorarbeit, ob Convolutional (CNN) und Recurrent Neural Networks (RNN) für die Erkennung außerirdischer Signale geeignet sind.
Das Ziel war dabei, in einem Datensatz bestehend aus Spektrogrammen mehr als 50% aller außerirdischer Signale zu erkennen, da nur so ein Neuronales Netzwerk ein besseres Resultat als eine zufällige Klassifikation liefert, bei der im Mittel 50% aller Signale erkannt werden.
Dabei zeigte sich, dass sich mit beiden Varianten der Neuronalen Netzwerke bis zu 90% aller Signale erkennen lassen, die Vorhersagen von CNNs allerdings verlässlicher sind. RNNs bieten hingegen aufgrund ihrer geringeren Größe einen deutlich leichtgewichtigeren Ansatz und führen zu einer signifikanten Speicherersparnis.
Daraus folgt, dass Neuronale Netzwerke bei der Suche nach außerirdischem Leben im Universum helfen können, um die Frage „Sind wir allein im Universum?“ endgültig zu beantworten.
Recent developments in the field of deep learning have shown promising advances for a wide range of historically difficult computer vision problems. Using advanced deep learning techniques, researchers manage to perform high-quality single-image super-resolution, i.e., increasing the resolution of a given image without major losses in image quality, usually encountered when using traditional approaches such as standard interpolation. This thesis examines the process of deep learning super-resolution using convolutional neural networks and investigates whether the same deep learning models can be used to increase OCR results for low-quality text images.
AlphaGo’s victory against Lee Sedol in the game of Go has been a milestone in artificial intelligence. After this success, the team behind the program further refined the architecture and applied it to many other games such as chess or shogi. In the following thesis, we try to apply the theory behind AlphaGo and its successor AlphaZero to the game of Abalone. Due to limitations in computational resources, we could not replicate the same exceptional performance.
In the last years generative models have gained large public attention due to their high level of quality in generated images. In short, generative models learn a distribution from a finite number of samples and are able then to generate infinite other samples. This can be applied to image data. In the past generative models have not been able to generate realistic images, but nowadays the results are almost indistinguishable from real images.
This work provides a comparative study of three generative models: Variational Autoencoder (VAE), Generative Adversarial Network (GAN) and Diffusion Models (DM). The goal is not to provide a definitive ranking indicating which one of them is the best, but to qualitatively and where possible quantitively decide which model is good with respect to a given criterion. Such criteria include realism, generalization and diversity, sampling, training difficulty, parameter efficiency, interpolating and inpainting capabilities, semantic editing as well as implementation difficulty. After a brief introduction of how each model works on the inside, they are compared against each other. The provided images help to see the differences among the models with respect to each criterion.
To give a short outlook on the results of the comparison of the three models, DMs generate most realistic images. They seem to generalize best and have a high variation among the generated images. However, they are based on an iterative process, which makes them the slowest of the three models in terms of sample generation time. On the other hand, GANs and VAEs generate their samples using one single forward-pass. The images generated by GANs are comparable to the DM and the images from VAEs are blurry, which makes them less desirable in comparison to GANs or DMs. However, both the VAE and the GAN, stand out from the DMs with respect to the interpolations and semantic editing, as they have a latent space, which makes space-walks possible and the changes are not as chaotic as in the case of DMs. Furthermore, concept-vectors can be found, which transform a given image along a given feature while leaving other features and structures mostly unchanged, which is difficult to archive with DMs.
An der Hochschule Hannover soll die Lernplattform LON-CAPA von Moodle-STACK abgelöst werden. Dazu werden Aufgaben von LON-CAPA nach Moodle-STACK konvertiert. Durch die Entwicklung eines Konverters kann ein großer Teil dieser Arbeit automatisiert erfolgen. Aufgrund der potentiellen Komplexität von LON-CAPA-Aufgaben ist nicht jede Aufgabe in vollem Umfang zu übersetzen und eine manuelle Nacharbeit notwendig.
In dieser Arbeit werden die LON-CAPA-Antworttypen numerical, formula und math response analysiert. Es wird untersucht, wie LON-CAPA-Aufgabenelemente einzeln umgewandelt werden können und welche Parameter im Moodle-STACK-Format gesetzt werden müssen, um eine äquivalente Aufgabe in Moodle-STACK zu erhalten.
Die technische Umsetzung erfolgt in Java. Der modulare Aufbau sieht Wartbarkeit und Weiterentwicklung vor. Auf GitHub steht die Implementierung unter der GPL (GNU General Public License) zur Verfügung: https://github.com/kiliandangendorf/lc2mdl
In der Bachelorarbeit wird ein Document-Retrieval-System zur Suche von geeigneten Kandidaten anhand von Lebensläufen (CVs) entwickelt. Das System soll die CVs dabei nach semantischer Ähnlichkeit zu der Anfrage suchen und nicht nach dem Vorkommen der Anfragewörter. Dafür werden Large Language Models verwendet, die mit ihrer erlernten Sprachfähigkeit neben generativen Aufgaben auch Texte semantisch in Embeddings abbilden können.