keywords: Pruning, Effizienz, NAS, Neuronale Netze, Transformer Model, Feature Selection
Die Effizienzverbesserung von neuronalen Netzen spielt eine zentrale Rolle für ihre praktische Anwendbarkeit. Pruning, das gezielte Entfernen von Neuronen oder Gewichten, reduziert nicht nur den Speicherbedarf, sondern verbessert auch die Rechenleistung, insbesondere auf ressourcenbeschränkten Plattformen. Gleichzeitig ist die Minimierung der Gesamtanzahl arithmetischer Operationen von entscheidender Bedeutung. Fortschrittliche Techniken wie das Entfernen redundanter Berechnungen tragen dazu bei, unnötige Rechenoperationen zu reduzieren, ohne die Modellleistung wesentlich zu beeinträchtigen. Diese Optimierungen sind nicht nur für die Integration von neuronalen Netzen in eingebetteten Systemen oder mobilen Geräten relevant, sondern auch für eine breite Anwendung in verschiedenen Szenarien.
Das Ziel dieses Projektes ist es Methoden zu entwickeln um die Effizienz von Neuronalen Netzwerken zu steigern. Klassischerweise wird versucht die Anzahl an arithmetischen Operationen eines Netzwerkes möglichst verlustfrei zu reduzieren oder die Netzwerkgröße an das gegebene Problem anzupassen.
In diesem Projekt habe ich regelmäßig Möglichkeiten Abschlussarbeiten jeder Art anzubieten. Explizite Themen für eine Abschlussarbeit gebe ich individualisiert und auf Anfrage raus, sofern welche verfügbar sind. Wenn du motiviert bist, schick mir gerne eine kurze Email mit den wichtigsten Informationen zu dir. Folgende Kenntnisse, Eigenschaften und Erfahrungen sind für die Bearbeitung der Abschlussarbeit hilfreich:
Ansprechpartner: Patrick Glandorf