Έμβλημα Πολυτεχνείου Κρήτης
Το Πολυτεχνείο Κρήτης στο Facebook  Το Πολυτεχνείο Κρήτης στο Instagram  Το Πολυτεχνείο Κρήτης στο Twitter  Το Πολυτεχνείο Κρήτης στο YouTube   Το Πολυτεχνείο Κρήτης στο Linkedin

Νέα / Ανακοινώσεις / Συζητήσεις

Παρουσίαση Διπλωματικής Εργασίας κας Χριστίνας Χατζηαναγνώστου - Σχολή ΗΜΜΥ
Αναγνώσεις: 297 / Συνδρομές: 0

  • Συντάχθηκε 16-07-2025 11:04 Πληροφορίες σύνταξης

    Ενημερώθηκε: -

    Τόπος:
    Σύνδεσμος τηλεδιάσκεψης
    Έναρξη: 17/07/2025 14:00
    Λήξη: 17/07/2025 15:00

    ΠΟΛΥΤΕΧΝΕΙΟ ΚΡΗΤΗΣ
    Σχολή Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών
    Πρόγραμμα Προπτυχιακών Σπουδών

    ΠΑΡΟΥΣΙΑΣΗ ΔΙΠΛΩΜΑΤΙΚΗΣ ΕΡΓΑΣΙΑΣ

    Χριστίνας Χατζηαναγνώστου

    με θέμα
    Μελέτη Καταγραφής και Ανάλυσης Δεδομένων Πολλαπλών Πηγών για Εκτίμηση Δεικτών Συναισθημάτων 
    Study of Recording and Analysis of Multi-Source Data for the Estimation of Emotion Indicators

    Εξεταστική Επιτροπή
    Καθηγητής Μιχάλης Ζερβάκης (επιβλέπων)
    Καθηγητής Μιχάλης Λαγουδάκης 
    Καθηγητής Κωνσταντίνος – Αλκέτας Ουγγρίνης (Σχολή ΑΡΜΗΧ, Πολυτεχνείο Κρήτης)

    Περίληψη
    Τα ανθρώπινα συναισθήματα επηρεάζουν βαθιά τη γνωστική μας απόδοση, τις φυσιολογικές μας αντιδράσεις και τη συνολική μας ευεξία, ωστόσο η αντικειμενική μέτρηση αυτών των συναισθηματικών καταστάσεων σε περιβάλλοντα πραγματικού κόσμου παραμένει μια σημαντική πρόκληση. Η παρούσα διπλωματική επικεντρώνεται στην ανάπτυξη ενός συστήματος πολλαπλών συσκευών που είναι ικανό να καταγράφει και να αναλύει ταυτόχρονα φυσιολογικά σήματα από πολλαπλές πηγές για την ανίχνευση συναισθηματικών αντιδράσεων σε διάφορα ερεθίσματα, μέσα σε ένα περιβάλλον εμβυθιστικής προβολής. Το πείραμα αυτό, παρουσιάζει μια μελέτη που διεξήχθη στο πλαίσιο συνεργασίας του Display Lab (Σχολή Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών) και του Transformable Intelligent Environments Lab (TIE Lab, Σχολή Αρχιτεκτόνων του Πολυτεχνείου Κρήτης).
    Κατά τη διάρκεια του πειράματος, συλλέχθηκαν πολυτροπικά φυσιολογικά δεδομένα EEG και ECG από 33 συμμετέχοντες, κατά τη διάρκεια δύο διαφορετικών βίντεο σε ένα διαδραστικό οπτικοακουστικό περιβάλλον. Το πρώτο βίντεο περιείχε έξι ερεθίσματα που εναλλάσσονταν μεταξύ στρεσογόνου και ήρεμου περιεχομένου, ενώ το δεύτερο παρουσίαζε τέσσερις συνεχείς σκηνές μπλέ χώρων, με διαρκή αίσθηση ηρεμίας. Τα δεδομένα EEG καταγράφηκαν με το σύστημα Unicorn Hybrid Black και τα δεδομένα ECG με δύο φορητές συσκευές: τη ζώνη στήθους Movesense και το περικάρπιο Traqbeat.
    Χρησιμοποιήθηκαν διάφορες μέθοδοι επεξεργασίας σήματος, όπως τεχνικές φιλτραρίσματος, υπολογισμός διάμεσης συχνότητας, εκτίμηση φασματικής πυκνότητας ισχύος, αξιολόγηση πολυπλοκότητας, ανάλυση συνδεσιμότητας, ανίχνευση κορυφών R και μετρήσεις μεταβλητότητας καρδιακού ρυθμού (HRV) για να αναλυθούν οι φυσιολογικές αντιδράσεις των συμμετεχόντων σε κάθε ερέθισμα. Τα ευρήματά που προέκυψαν από τις παραπάνω μεθόδους ανέδειξαν αξιοσημείωτες διαφορές στις κατανομές ισχύος συχνοτήτων, στα μετρικά πολυπλοκότητας και στα πρότυπα καρδιακού ρυθμού.
    Η έρευνα αυτή αποδεικνύει πόσο αποτελεσματικά μπορεί η ανάλυση πολυτροπικών βιοσημάτων να διακρίνει συναισθηματικές αντιδράσεις σε διαφορετικά οπτικοακουστικά ερεθίσματα. Τα ευρήματα αυτά διανοίγουν νέους ορίζοντες, τόσο σε κλινικά περιβάλλοντα, όσο και σε εφαρμογές βαθύτερης ψυχολογικής αξιολόγησης.

    Abstract 
    Human emotions profoundly influence our cognitive performance, physiological responses, and overall wellbeing, yet objectively measuring these emotional states in real-world environments remains a significant challenge. This thesis focuses on developing a multi-device system capable of simultaneously recording and analyzing physiological signals from multiple sources to detect emotional responses to different stimuli within an immersive projection environment. This experiment was conducted in the context of a collaboration between the Display Lab (School of Electrical and Computer Engineering) and the Transformable Intelligent Environments Lab (TIE Lab, School of Architecture) at the Technical University of Crete.
    During the experiment, multimodal physiological data (EEG and ECG) were collected from 33 participants as they watched two different videos within an immersive audiovisual setup. The first video contained six segments that alternated between stress-inducing and calming content, while the second featured four continuously peaceful blue space scenes. EEG data were recorded using the Unicorn Hybrid Black system and recorded ECG measurements through two wearable devices: the Movesense chest strap and Traqbeat wristband.
    We employed various signal processing methods, including filtering techniques, median frequency calculation, power spectral density assessment, complexity evaluation, connectivity analysis, R-peak detection, and heart rate variability (HRV) measurements to analyze participants' physiological reactions to each stimulus. Our findings revealed distinctive EEG and ECG characteristics linked to states of stress versus relaxation, with notable differences in frequency power distributions, complexity metrics, and cardiac rhythm patterns.
    This research demonstrates how effectively multimodal biosignal analysis can distinguish emotional responses to different audiovisual stimuli. These findings open up new horizons, both in clinical settings and in applications of deeper psychological assessment.



© Πολυτεχνείο Κρήτης 2012