Auditive EEG Challenge 2024
21. Schlüsselwörter: C 54689718, C2DNN Zusammenfassung: Code für das auditorische EEG30. In dieser Arbeit wird die Lösung der Teilaufgabe „Match-Mismatch“ detailliert beschrieben: Anhand eines kurzen zeitlichen Segments von EEG-Aufzeichnungen und mehrerer Kandidaten-Sprachsegmente besteht die Aufgabe darin, zu klassifizieren, welches der Sprachsegmente zeitlich mit den EEG-Signalen abgeglichen wurde. Die ICASSP Auditory EEG Signal Processing Grand Challenge betrifft die Dekodierung von 16. Eine Teilmenge dieses Datensatzes wurde auch in Accou et al. verwendet. 11,12, Monesi et al. 9, Bollens et al. 24 und ist für die Auditory EEG Decoding Challenge verfügbar: https: exporl.github.io auditory. 20. Die Elektroenzephalographie (EEG) spielt eine entscheidende Rolle bei der Erkennung, wie das Gehirn auf verschiedene Reize reagiert. In diesem Artikel schlagen wir ein neuartiges, auf flacher und tiefer Aufmerksamkeit basierendes Netzwerk SDANet vor, um den korrekten Hörreiz zu klassifizieren, der das EEG-Signal hervorruft. Es verwendet das Aufmerksamkeitsbasierte Korrelationsmodul ACM, um den Zusammenhang zu ermitteln, 3. Dieser Bericht beschreibt unsere Einreichung bei der Auditory EEG Decoding Challenge beim Signal Processing Grand Challenge SPGC. ist ein Regressionsproblem, das sich auf die Rekonstruktion einer Sprachhüllkurve aus einem EEG-Signal konzentriert. Für diese Aufgabe schlagen wir einen vorschichtigen normalisierten Feed-Forward-Transformator FFT vor, 10. Diese Arbeit stellt eine neuartige Methode, ConvConcatNet, zur Rekonstruktion von Mel-Spektrogrammen aus EEG vor, in der das tiefe Faltungs-Neuronale Netzwerk und die umfangreiche Verkettungsoperation kombiniert wurden. Mit unserem ConvConcatNet-Modell kann die Pearson-Korrelation zwischen dem rekonstruierten und dem Ziel-Mel-Spektrogramm erreicht werden, 16. Eine Teilmenge dieses Datensatzes wurde auch in Accou et al. verwendet. 11,12, Monesi et al. 9, Bollens et al. 24 und ist für die Auditory EEG Decoding Challenge verfügbar https: exporl.github.io auditory.