In dieser Arbeit wird das Konzept eines künstlichen neuronalen Netzwerks erklärt. Es wird ein Feedforward-Netzwerk in Python selbstständig implementiert und mithilfe des Backpropagation-Algorithmus auf 60000 Datensätzen in Form von Abbildungen handschriftlich gezeichneter Ziffern trainiert. Es werden mehrere Netze mit verschiedenen Strukturen erstellt und auf jeweils einem Sechstel der Daten trainiert. Hierbei wird jede Netzstruktur mit je drei verschiedenen Lernraten separat trainiert. Mit der Bibliothek TensorFlow werden ebenfalls Netze mit denselben Strukturen erstellt und auch auf jenen Daten trainiert. Es wird herausgefunden, dass größere Netze mit geringeren Lernraten eine höhere Genauigkeit erzielen als mit größeren Lernraten. Ebenfalls wird
festgestellt, dass es für jedes Problem eine optimale Netzstruktur geben muss, und dass ein komplexeres Netz nicht zwingend mit einer höheren Genauigkeit verbunden sein muss. Die eigene Implementierung unterscheidet sich von der modernen Bibliothek hauptsächlich im Kriterium Geschwindigkeit (Zeitkosten).
Download (PDF)2023, Chemie,
3. Platz,
Anna
Welz, Universität zu Köln
2018, Informatik,
1. Platz,
Lukas
Mertens, Heinrich-Heine-Universität Düsseldorf
2019, Biologie,
2. Platz,
Clara
Kuske, Rheinische Friedrich-Wilhelms-Universität Bonn