Συντάχθηκε 12-03-2024 09:28
Τόπος:
Σύνδεσμος τηλεδιάσκεψης
Έναρξη: 15/03/2024 14:00
Λήξη: 15/03/2024 15:00
ΠΟΛΥΤΕΧΝΕΙΟ ΚΡΗΤΗΣ
Σχολή Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών
Πρόγραμμα Προπτυχιακών Σπουδών
ΠΑΡΟΥΣΙΑΣΗ ΔΙΠΛΩΜΑΤΙΚΗΣ ΕΡΓΑΣΙΑΣ
Γεωργίου Φλέγγα
με θέμα
Αρχιτεκτονική Επιτάχυνσης Εκμάθησης σε Συνελικτικά Νευρωνικά Δίκτυα
Reconfigurable Logic Based Acceleration of Convolutional Neural Network Training
Εξεταστική Επιτροπή
Καθηγητής Απόστολος Δόλλας (επιβλέπων)
Καθηγητής Μιχαήλ Ζερβάκης
Επίκουρος Καθηγητής Γρηγόριος Τσαγκατάκης (Πανεπιστήμιο Κρήτης, Τμήμα Επιστήμης Υπολογιστών)
Περίληψη
Στον ραγδαία εξελισσόμενο κόσμο της τεχνητής νοημοσύνης και της μηχανικής μάθησης, η πολύπλοκη φύση των αρχιτεκτονικών νευρωνικών δικτύων, σε συνδυασμό με την εκθετική αύξηση των δεδομένων, έχουν αυξήσει τις υπολογιστικές ανάγκες της εκπαίδευσης ενός δικτύου. Οι παραδοσιακές CPU και GPU δυσκολεύονται να ανταποκριθούν τις απαιτήσεις, γεγονός που προτρέπει στη διερεύνηση των αναξιοποίητων δυνατοτήτων της επιτάχυνσης με βάση τις FPGA. Η παρούσα έρευνα εισάγει μια καινοτόμο αρχιτεκτονική υλικού προσαρμοσμένη σε FPGA για την εκπαίδευση Συνελικτικών Νευρωνικών Δικτύων (CNNs), δίνοντας προτεραιότητα στην βέλτιστη ακρίβεια, στην ενεργειακή απόδοση και στην επιτάχυνση έναντι των συμβατικών συστημάτων CPU και GPU.
Βασιζόμενοι σε προηγούμενες έρευνες, αξιοποιούμε υλοποιήσεις General Matrix Multiply (GEMM) και Image to Column(im2col), σε συνδυασμό με batch-level παραλληλισμό. Εξισορροπώντας την κατανομή του φορτίου εργασίας μεταξύ CPU και FPGA, εξασφαλίζουμε την αποτελεσματική συνεργασία τους, ενώ συνδυάζοντας πολλαπλές λειτουργίες επιτυγχάνουμε την εξοικονόμηση χρόνου εκτέλεσης και τη μείωση της πολυπλοκότητας. Η ενσωμάτωση αλγορίθμων μηχανικής μάθησης τελευταίας τεχνολογίας με προηγμένα εργαλεία σχεδίασης FPGA, συμπεριλαμβανομένου του Vitis High-Level Synthesis (HLS), παράγει προσαρμοσμένα IP blocks για κάθε στάδιο της διαδικασίας εκπαίδευσης του νευρωνικού δικτύου.
Η Προτεινόμενη Πλατφόρμα επιτυγχάνει σημαντικό ρυθμό επεξεργασίας 374,32 εικόνων ανά δευτερόλεπτο, υπερβαίνοντας το ρυθμό της CPU των 258,7 εικόνων ανά δευτερόλεπτο, ενώ λειτουργεί με σημαντικά χαμηλή κατανάλωση ισχύος των 4,16 Watts (0,011 Joules ανά εικόνα). Αυτό την αναδεικνύεται ως μια κορυφαία επιλογή για αποδοτική εκπαίδευση νευρωνικών δικτύων, επιδεικνύοντας ένα κέρδος
απόδοσης ενέργειας 16,55Χ έναντι των CPUs και 7,75Χ έναντι των GPUs.
Abstract
In the rapidly evolving landscape of artificial intelligence and machine learning, the intricate nature of neural network architectures, combined with exponential data growth, has intensified the need for advanced computational training. Traditional CPUs and GPUs struggle to meet these demands, prompting exploration into the untapped potential of FPGA-based acceleration. This research introduces an innovative FPGA-tailored hardware architecture for training Convolutional Neural Networks (CNNs), prioritizing optimal accuracy, energy efficiency, and speedup over conventional CPU and GPU systemsBuilding on prior research, we strategically employ General Matrix Multiply (GEMM) and Image to Column(im2col) implementations, coupled with batch level parallelism. The workload distribution between the CPU and FPGA is intricately balanced, ensuring efficient collaboration, while multiple operations are synergistically combined to streamline computation time and reduce complexity. The integration of state-of-the-art machine learning algorithms with advanced FPGA design tools, including Vitis High-Level Synthesis (HLS), yields tailored IP blocks for each stage of the neural network training process.
Our Proposed Platform achieves a notable throughput of 374.32 images per second, surpassing the CPU rate of 258.7 images per second, while operating at a significantly lower power consumption of 4.16 Watts (0.011 Joules per image). This positions the Proposed Platform as a leading candidate for energy-efficient neural network training, showcasing a 16.55x energy efficiency gain over CPUs and a 7.75x over GPUs.
Meeting ID: 923 9073 1187
Password: 023281