서브 밴드 CSP기반 FLD 및 PCA를 이용한 동작 상상 EEG 특징 추출 방법 연구
뇌-컴퓨터 인터페이스는 사용자의 뇌전도(Electroencephalogram: EEG)를 획득하여 생각만으로 기계를 제어하거나 신체장애를 가진 사람에게 손 또는 발과 같은 신체를 대신하여 의사 전달 수단으로사용될 수 있다. 본 논문에서는 동작 상상 EEG를 분류하기 위해 Sub-Band Common Spatial Pattern (SBCSP)를 기반으로 필터 선택을 하지 않는 특징 추출 방법에 대해 연구한다. 4~40Hz의 동작 상상 신호를 4Hz 대역마다 나눈 9개의 서브 밴드에 각각 CSP를 적용한다. 이후 Fisher'...
Saved in:
Published in | Chŏngbo Kwahakhoe nonmunji pp. 1535 - 1543 |
---|---|
Main Authors | , |
Format | Journal Article |
Language | Korean |
Published |
한국정보과학회
01.12.2015
|
Subjects | |
Online Access | Get full text |
ISSN | 2383-630X 2383-6296 |
Cover
Summary: | 뇌-컴퓨터 인터페이스는 사용자의 뇌전도(Electroencephalogram: EEG)를 획득하여 생각만으로 기계를 제어하거나 신체장애를 가진 사람에게 손 또는 발과 같은 신체를 대신하여 의사 전달 수단으로사용될 수 있다. 본 논문에서는 동작 상상 EEG를 분류하기 위해 Sub-Band Common Spatial Pattern (SBCSP)를 기반으로 필터 선택을 하지 않는 특징 추출 방법에 대해 연구한다. 4~40Hz의 동작 상상 신호를 4Hz 대역마다 나눈 9개의 서브 밴드에 각각 CSP를 적용한다. 이후 Fisher's Linear Discriminant (FLD)를 사용하여 도출된 값들을 결합한 FLD 점수 벡터에 차원 축소를 위한 Principal Component Analysis(PCA)를 적용하여 클래스 구분을 위한 최적의 평면에 특징을 투영한다. 데이터베이스는 BCI CompetitionⅢ dataset Ⅳa(2 클래스: 오른손・다리)를 이용하며, 추출된 특징은 Least Squares Support Vector Machine(LS-SVM)의 입력으로 사용된다. 제안된 방법의 성능은 10×10 fold cross-validation을이용하여 분류 정확도로 나타낸다. 본 논문에서 제안하는 방법은 피험자 ‘aa’, ‘al’, ‘av’, ‘aw’, ‘ay’에 대하여 각각 85.29±0.93%, 95.43±0.57%, 72.57±2.37%, 91.82±1.38%, 93.50±0.69%의 분류 정확도를 보였다. The brain-computer interface obtains a user's electroencephalogram as a replacement communication unit for the disabled such that the user is able to control machines by simply thinking instead of using hands or feet. In this paper, we propose a feature extraction method based on a non-selected filter by SBCSP to classify motor imagery EEG. First, we divide frequencies (4~40 Hz) into 4-Hz units and apply CSP to each Unit. Second, we obtain the FLD score vector by combining FLD results. Finally, the FLD score vector is projected onto the optimal plane for classification using PCA. We use BCI Competition III dataset IVa, and Extracted features are used as input for LS-SVM.
The classification accuracy of the proposed method was evaluated using 10×10 fold cross-validation.
For subjects ‘aa’, ‘al’, ‘av’, ‘aw’, and ‘ay’, results were 85.29 ± 0.93%, 95.43 ± 0.57%, 72.57 ± 2.37%, 91.82 ± 1.38%, and 93.50 ± 0.69%, respectively. KCI Citation Count: 1 |
---|---|
Bibliography: | G704-SER000004124.2015.42.12.010 |
ISSN: | 2383-630X 2383-6296 |