"임창환"의 두 판 사이의 차이
둘러보기로 가기
검색하러 가기
(→연구실적) |
|||
44번째 줄: | 44번째 줄: | ||
# 임 교수팀은 '뇌-컴퓨터 인터페이스(BCIs)' 기술을 이용해 마비로 인해 의사소통이 불가했던 완전감금증후군 환자와 대화할 수 있는 기술을 개발했다. 외부에서 청각이나 촉각 자극을 전혀 주지 않은 상태에서 뇌파만을 통해 의사소통에 성공한 것은 이번이 처음이다. | # 임 교수팀은 '뇌-컴퓨터 인터페이스(BCIs)' 기술을 이용해 마비로 인해 의사소통이 불가했던 완전감금증후군 환자와 대화할 수 있는 기술을 개발했다. 외부에서 청각이나 촉각 자극을 전혀 주지 않은 상태에서 뇌파만을 통해 의사소통에 성공한 것은 이번이 처음이다. | ||
# 과학기술정보통신부 SW컴퓨팅산업원천기술개발사업의 지원으로 수행된 이 연구 결과는 지난 1월 31일 국제학술지 '신경공학과 재활학회지'(Journal of Neuroengineering and Rehabilitation)에 실렸다. | # 과학기술정보통신부 SW컴퓨팅산업원천기술개발사업의 지원으로 수행된 이 연구 결과는 지난 1월 31일 국제학술지 '신경공학과 재활학회지'(Journal of Neuroengineering and Rehabilitation)에 실렸다. | ||
− | == VR 아바타 표정 인식 재현 기술(2019.01)<ref><뉴스H> 2019.01.01 가상현실 아바타가 내 표정까지 따라 한다고? ([http://www.hanyang.ac.kr/surl/pkPq 카드뉴스])</ref> == | + | === VR 아바타 표정 인식 재현 기술(2019.01)<ref><뉴스H> 2019.01.01 가상현실 아바타가 내 표정까지 따라 한다고? ([http://www.hanyang.ac.kr/surl/pkPq 카드뉴스])</ref> === |
# 임 교수팀이 개발한 'VR 아바타 표정 인식 재현 기술'은 웃음, 놀람, 두려움, 슬픔, 키스, 비웃음 등 11가지 표현을 정확하게 분류하고 재현한다. | # 임 교수팀이 개발한 'VR 아바타 표정 인식 재현 기술'은 웃음, 놀람, 두려움, 슬픔, 키스, 비웃음 등 11가지 표현을 정확하게 분류하고 재현한다. | ||
# 임 교수팀이 자체개발한 ‘리마니안 특징 대응 기법(Riemanian manifold feature mapping)’과 ‘모델 적응 기법(model adaptation)’ 기술은 눈 주위 생체신호를 보다 정확하고 효율적으로 인식한다. 또한 전극 패드는 고무나 헝겊 소재로 교체도 쉽고 간편해 가격과 실용성까지 우수하다. | # 임 교수팀이 자체개발한 ‘리마니안 특징 대응 기법(Riemanian manifold feature mapping)’과 ‘모델 적응 기법(model adaptation)’ 기술은 눈 주위 생체신호를 보다 정확하고 효율적으로 인식한다. 또한 전극 패드는 고무나 헝겊 소재로 교체도 쉽고 간편해 가격과 실용성까지 우수하다. |
2021년 10월 29일 (금) 10:23 판
임창환은 서울캠퍼스 공과대학 전기생체공학부 생체공학전공 교수이자, 뇌공학연구센터장 및 계산신경공학 연구실장을 겸임하고 있다.
전기생체공학부 홈페이지 참고(2019.10.)
목차
학력
- 2005 서울대학교 공학박사(전기컴퓨터공학)
- 2001 서울대학교 공학석사(전기컴퓨터공학)
- 1999 서울대학교 공학사(전기공학)
경력
- 2017.08 ~ 2018.07 BME, University of California, Irvine, Visiting Scholar
- 2017.01 ~ 2017.03 Neurosci, University College London, Visiting Scholar
- 2013.3 ~ 현재 한양대학교 공과대학 생체공학전공 부교수, 교수
- 2010.03 ~ 2011.02 연세대학교 의공학부 부교수
- 2006.03 ~ 2010.02 연세대학교 의공학부 조교수
- 2005.03 ~ 2006.02 Dept. BME, University of Minnesota, Post-doctor
- 2002.03 ~ 2003.01 한국전기연구원 위촉연구원
학회 활동
- 한국뇌파신경생리학회 학술이사
- 한국뇌공학회 대외협력이사
- 대한뇌기능매핑학회 홍보이사
- Brain-Computer Interfaces, Associate Editor
- Biomedical Engineering Letters, Associate Editor
- Sensors, Frontiers in Human Neuroscience - Editorial Board Member
연구관심분야
뇌공학, 신경공학, 생체전자공학
연구실적
미세표정 속 감정 읽어내는 기술 개발(2021.10)[1]
- 임창환 한양대 생체공학과 교수팀이 뇌파와 근전도 신호를 이용해 사람의 미세표정 속에 담긴 숨겨진 감정을 높은 정확도로 읽어내는 기계학습 기술을 개발했다.
- 연구팀은 머리둘레에서 측정한 뇌파신호와 눈의 가장자리 부위에서 측정한 근전도(근육에서 발생하는 전기신호) 신호에 기계학습 기술을 적용해 미세표정에 감춰진 감정을 평균 90% 이상의 높은 정확도로 인식하는 데 성공했다.
- 연구팀의 방식은 카메라를 이용한 미세표정 인식 방식에 비해 높은 정확도를 기록한 것은 물론 조명의 밝기나 머리의 움직임에도 영향을 받지 않아 실용성이 높다.
- 이번 연구 결과는 저명 국제 학술지인 「Expert Systems With Applications」 19일자에 게재됐다
VR 아바타에 사용자 표정을 실시간 투영하는 기술 개발(2021.09)[2]
- 임창환 교수팀이 가상현실(VR) 기반 메타버스 서비스에서 사용자의 얼굴 표정을 실시간으로 아바타에 투영하는 신기술을 개발했다.
- 임 교수팀은 기존 사용자의 등록데이터로 학습한 기계학습모델을 신규 사용자 데이터에 맞춰 적응시키는 방법으로 모델학습에 필요한 데이터의 양을 효과적으로 줄였다. 그 결과 1번의 표정등록만으로 11개의 얼굴표정을 약 90%의 정확도로 인식하고 실시간으로 아바타 얼굴에 반영하는 데 성공했다.
- 이번 연구는「Virtual Reality」9월 3일자에 게재됐다.
뇌파로 의사소통 가능 기술 개발(2019.02)[3]
- 임 교수팀은 '뇌-컴퓨터 인터페이스(BCIs)' 기술을 이용해 마비로 인해 의사소통이 불가했던 완전감금증후군 환자와 대화할 수 있는 기술을 개발했다. 외부에서 청각이나 촉각 자극을 전혀 주지 않은 상태에서 뇌파만을 통해 의사소통에 성공한 것은 이번이 처음이다.
- 과학기술정보통신부 SW컴퓨팅산업원천기술개발사업의 지원으로 수행된 이 연구 결과는 지난 1월 31일 국제학술지 '신경공학과 재활학회지'(Journal of Neuroengineering and Rehabilitation)에 실렸다.
VR 아바타 표정 인식 재현 기술(2019.01)[4]
- 임 교수팀이 개발한 'VR 아바타 표정 인식 재현 기술'은 웃음, 놀람, 두려움, 슬픔, 키스, 비웃음 등 11가지 표현을 정확하게 분류하고 재현한다.
- 임 교수팀이 자체개발한 ‘리마니안 특징 대응 기법(Riemanian manifold feature mapping)’과 ‘모델 적응 기법(model adaptation)’ 기술은 눈 주위 생체신호를 보다 정확하고 효율적으로 인식한다. 또한 전극 패드는 고무나 헝겊 소재로 교체도 쉽고 간편해 가격과 실용성까지 우수하다.
- 임 교수팀의 기술은 VR 프랤폼에서 응용 가능성이 높아 삼성전자 미래기술육성센터의 지원을 받고 있다.
주요논문
- Electroencephalography-based endogenous brain-computer interface for online communication with a completely locked-in patient. Chang-Hee Han, Yong-Wook Kim, Do Yeon Kim, Seung Hyun Kim, Zoran Nenadic, and Chang-Hwan Im. (2019) Journal of NeuroEngineering and Rehabilitation 16: 18.
- Performance Prediction for a Near-Infrared Spectroscopy-Brain-Computer Interface Using Resting-State Functional Connectivity of the Prefrontal Cortex Jaeyoung Shin and Chang-Hwan Im. (2018) International Journal of Neural Systems 28(10): 1850023.
- Development of an electrooculogram-based human-computer interface using involuntary eye movement by spatially rotating sound for communication of locked-in patients Do Yeon Kim, Chang-Hee Han, and Chang-Hwan Im. (2018) Scientific Reports 8: 9505.
- Assessment of user voluntary engagement during neurorehabilitation using functional near-infrared spectroscopy: a preliminary study Chang-Hee Han, Han-Jeong Hwang, Jeong-Hwan Lim, and Chang-Hwan Im. (2018) Journal of NeuroEngineering and Rehabilitation 15: 27.
- Ternary Near-Infrared Spectroscopy Brain-Computer Interface with Increased Information Transfer Rate Using Prefrontal Hemodynamic Changes During Mental Arithmetic, Breath-Holding, and Idle State Jaeyoung Shin, Jinuk Kwon, Jongkwan Choi, and Chang-Hwan Im. (2018) IEEE Access 6: 19491-19498.
저서
- Chang-Hwan Im (Ed.) (2018) Computational EEG Analysis: Methods and Applications. Springer, Singapore.
- Chang-Hwan Im (2019). Brain-Machine Interfaces, In Encyclopedia of Robotics (Ang et al. (Ed.)). Springer, New York.
- 임창환(2015) 뇌를 바꾼 공학 공학을 바꾼 뇌 (뇌공학의 현재와 미래), MiD.
- 임창환(2017) 바이오닉맨 (인간을 공학하다), MiD.
- 임창환 외 12인, (2017) 뇌파의 이해와 응용, 학지사.
- 임창환(2020) 브레인3.0, MiD
수상
- 2020 대한뇌기능매핑학회 학술상
- 2013, 2015 한양대학교 Best Teacher상
- 2014 한양대학교 신진연구자
- 2013 한국공학한림원 2020년 미래 100대 기술과 주역
- 2012 한국공학한림원 2020년 미래 100대 기술과 주역
- 2007 대한의용생체공학회 솔고의공학상 젊은 의공학자상
강연
- 2020.10.08 2020 가을 카오스 '브레인3.0 -AI와 뇌공학이 바꿀 인류의 미래'[5]
언론 활동
교내언론
- <뉴스H> 2018.08.31임창환 교수, 인간을 공학하다
- <뉴스H> 2021.05.06 [HYPER] 지식과 지혜 그 사이 어딘가에서
대외 언론
- 2014.12.08 일자 <산업방송 채널i>에서 방영된 '기술의 업그레이드 새로운 문명의 시작'에서는 임창환 전기생체공학부 교수가 출연하여 연구성과에 관한 이야기를 나눴다. http://www.hanyang.ac.kr/surl/v0Bu
각주
- ↑ <뉴스H> 2021.10.26 임창환 교수, 미세표정 속 감춰진 감정 읽어내는 기술 개발
- ↑ <뉴스H> 2021.09.14 임창환 교수, VR 아바타에 사용자 표정을 실시간 투영하는 기술 개발
- ↑ <뉴스H> 2019.02.15 임창환 교수팀, 뇌파로 의사소통 가능 기술 개발
- ↑ <뉴스H> 2019.01.01 가상현실 아바타가 내 표정까지 따라 한다고? (카드뉴스)
- ↑ 2020.10.08 <뉴스H> '세계적인 뇌공학자' 임창환 교수, 카오스 강연에서 AI 주제로 온라인 강의 진행