Shazam, οι οποίες έχουν την δυνατότητα να αναγνωρίσουν την μουσική όταν το κινητό μας βρίσκεται κοντά σε ένα ηχείο. Αλλα δεν θα ήταν εντυπωσιακό αν μια εφαρμογή μπορούσε να εντοπίσει ένα κομμάτι μουσικής βασισμένο σε τίποτα περισσότερο από τα μοντέλα σκέψης σας;
Το 2014, ο ερευνητής Brian Pasley και οι συνάδελφοι του συνδύασαν έναν αλγόριθμο deep learning και με μετρήσεις της εγκεφαλικής δραστηριότητας, για να μετατρέψει τις σκέψεις ενός ατόμου σε ψηφιακή συνθετική ομιλία. Αυτό επετεύχθη με την ανάλυση των εγκεφαλικών σημάτων ενός ατόμου ενώ μιλούσαν για να αποκωδικοποιήσουν τη σχέση μεταξύ ομιλίας και εγκεφαλικής δραστηριότητας.
Μετά από πολλά χρόνια έρευνας, η ομάδα εφάρμοσε την τεχνολογία στην μουσική. Συγκεκριμένα, ήταν σε θέση να προσδιορίσουν με ακρίβεια και να προβλέπουν τι άκουγε ένας πιανίστας, με βάση την εγκεφαλική του δραστηριότητα.
“Κατά τη διάρκεια της ακουστικής αντίληψης, όταν ακούμε τους ήχους όπως ο λόγος ή η μουσική, γνωρίζουμε ότι ορισμένα μέρη του ακουστικού φλοιού αποσυνθέτουν τους ήχους αυτούς σε ακουστικές συχνότητες – χαμηλές ή υψηλές”, είπε ο Pasley.
Για τη μελέτη, η ομάδα κατέγραψε την εγκεφαλική δραστηριότητα ενός πιανίστα όταν έπαιζε μουσική σε ένα ηλεκτρικό πιάνο. Με αυτόν τον τρόπο, κατάφεραν να την συνδέσουν τόσο με τα σχέδια του εγκεφάλου του, όσο και με τις νότες που έπαιξε. Στη συνέχεια, πραγματοποίησαν πάλι το πείραμα, αλλά απενεργοποιώντας τον ήχο του πιάνου και ζητώντας από τον μουσικό να φανταστεί τις νότες καθώς τις έπαιζε. Αυτό το πείραμα τους επέτρεψε να δημιουργήσουν τον αλγόριθμο πρόβλεψης μουσικής τους.
Πηγή