"임창환"의 두 판 사이의 차이

한양 위키
둘러보기로 가기 검색하러 가기
30번째 줄: 30번째 줄:
  
 
= 연구실적 =
 
= 연구실적 =
==VR 아바타에 사용자 표정을 실시간 투영하는 기술 개발(2021.09)<ref><뉴스H> 2021.09.14 [http://www.newshyu.com/news/articleView.html?idxno=1004041 임창환 교수, VR 아바타에 사용자 표정을 실시간 투영하는 기술 개발]</ref>==
+
===미세표정 속 감정 읽어내는 기술 개발(2021.10)<ref><뉴스H> 2021.10.26 [http://www.newshyu.com/news/articleView.html?idxno=1004330 임창환 교수, 미세표정 속 감춰진 감정 읽어내는 기술 개발]</ref>
 +
# 임창환 한양대 생체공학과 교수팀이 뇌파와 근전도 신호를 이용해 사람의 미세표정 속에 담긴 숨겨진 감정을 높은 정확도로 읽어내는 기계학습 기술을 개발했다.
 +
# 연구팀은 머리둘레에서 측정한 뇌파신호와 눈의 가장자리 부위에서 측정한 근전도(근육에서 발생하는 전기신호) 신호에 기계학습 기술을 적용해 미세표정에 감춰진 감정을 평균 90% 이상의 높은 정확도로 인식하는 데 성공했다.
 +
# 연구팀의 방식은 카메라를 이용한 미세표정 인식 방식에 비해 높은 정확도를 기록한 것은 물론 조명의 밝기나 머리의 움직임에도 영향을 받지 않아 실용성이 높다.
 +
# 이번 연구 결과는 저명 국제 학술지인 「Expert Systems With Applications」 19일자에 게재됐다
 +
 
 +
===VR 아바타에 사용자 표정을 실시간 투영하는 기술 개발(2021.09)<ref><뉴스H> 2021.09.14 [http://www.newshyu.com/news/articleView.html?idxno=1004041 임창환 교수, VR 아바타에 사용자 표정을 실시간 투영하는 기술 개발]</ref>===
 
# 임창환 교수팀이 가상현실(VR) 기반 메타버스 서비스에서 사용자의 얼굴 표정을 실시간으로 아바타에 투영하는 신기술을 개발했다.
 
# 임창환 교수팀이 가상현실(VR) 기반 메타버스 서비스에서 사용자의 얼굴 표정을 실시간으로 아바타에 투영하는 신기술을 개발했다.
 
# 임 교수팀은 기존 사용자의 등록데이터로 학습한 기계학습모델을 신규 사용자 데이터에 맞춰 적응시키는 방법으로 모델학습에 필요한 데이터의 양을 효과적으로 줄였다. 그 결과 1번의 표정등록만으로 11개의 얼굴표정을 약 90%의 정확도로 인식하고 실시간으로 아바타 얼굴에 반영하는 데 성공했다.
 
# 임 교수팀은 기존 사용자의 등록데이터로 학습한 기계학습모델을 신규 사용자 데이터에 맞춰 적응시키는 방법으로 모델학습에 필요한 데이터의 양을 효과적으로 줄였다. 그 결과 1번의 표정등록만으로 11개의 얼굴표정을 약 90%의 정확도로 인식하고 실시간으로 아바타 얼굴에 반영하는 데 성공했다.
 
# 이번 연구는「Virtual Reality」9월 3일자에 게재됐다.  
 
# 이번 연구는「Virtual Reality」9월 3일자에 게재됐다.  
  
==뇌파로 의사소통 가능 기술 개발(2019.02)<ref><뉴스H> 2019.02.15 임창환 교수팀, 뇌파로 의사소통 가능 기술 개발</ref>==
+
===뇌파로 의사소통 가능 기술 개발(2019.02)<ref><뉴스H> 2019.02.15 임창환 교수팀, 뇌파로 의사소통 가능 기술 개발</ref>===
 
# 임 교수팀은 '뇌-컴퓨터 인터페이스(BCIs)' 기술을 이용해 마비로 인해 의사소통이 불가했던 완전감금증후군 환자와 대화할 수 있는 기술을 개발했다. 외부에서 청각이나 촉각 자극을 전혀 주지 않은 상태에서 뇌파만을 통해 의사소통에 성공한 것은 이번이 처음이다.
 
# 임 교수팀은 '뇌-컴퓨터 인터페이스(BCIs)' 기술을 이용해 마비로 인해 의사소통이 불가했던 완전감금증후군 환자와 대화할 수 있는 기술을 개발했다. 외부에서 청각이나 촉각 자극을 전혀 주지 않은 상태에서 뇌파만을 통해 의사소통에 성공한 것은 이번이 처음이다.
 
# 과학기술정보통신부 SW컴퓨팅산업원천기술개발사업의 지원으로 수행된 이 연구 결과는 지난 1월 31일 국제학술지 '신경공학과 재활학회지'(Journal of Neuroengineering and Rehabilitation)에 실렸다.
 
# 과학기술정보통신부 SW컴퓨팅산업원천기술개발사업의 지원으로 수행된 이 연구 결과는 지난 1월 31일 국제학술지 '신경공학과 재활학회지'(Journal of Neuroengineering and Rehabilitation)에 실렸다.

2021년 10월 29일 (금) 10:23 판

임창환은 서울캠퍼스 공과대학 전기생체공학부 생체공학전공 교수이자, 뇌공학연구센터장 및 계산신경공학 연구실장을 겸임하고 있다.

전기생체공학부 홈페이지 참고(2019.10.)

학력

  • 2005 서울대학교 공학박사(전기컴퓨터공학)
  • 2001 서울대학교 공학석사(전기컴퓨터공학)
  • 1999 서울대학교 공학사(전기공학)

경력

  • 2017.08 ~ 2018.07 BME, University of California, Irvine, Visiting Scholar
  • 2017.01 ~ 2017.03 Neurosci, University College London, Visiting Scholar
  • 2013.3 ~ 현재 한양대학교 공과대학 생체공학전공 부교수, 교수
  • 2010.03 ~ 2011.02 연세대학교 의공학부 부교수
  • 2006.03 ~ 2010.02 연세대학교 의공학부 조교수
  • 2005.03 ~ 2006.02 Dept. BME, University of Minnesota, Post-doctor
  • 2002.03 ~ 2003.01 한국전기연구원 위촉연구원

학회 활동

  • 한국뇌파신경생리학회 학술이사
  • 한국뇌공학회 대외협력이사
  • 대한뇌기능매핑학회 홍보이사
  • Brain-Computer Interfaces, Associate Editor
  • Biomedical Engineering Letters, Associate Editor
  • Sensors, Frontiers in Human Neuroscience - Editorial Board Member

연구관심분야

뇌공학, 신경공학, 생체전자공학

연구실적

===미세표정 속 감정 읽어내는 기술 개발(2021.10)[1]

  1. 임창환 한양대 생체공학과 교수팀이 뇌파와 근전도 신호를 이용해 사람의 미세표정 속에 담긴 숨겨진 감정을 높은 정확도로 읽어내는 기계학습 기술을 개발했다.
  2. 연구팀은 머리둘레에서 측정한 뇌파신호와 눈의 가장자리 부위에서 측정한 근전도(근육에서 발생하는 전기신호) 신호에 기계학습 기술을 적용해 미세표정에 감춰진 감정을 평균 90% 이상의 높은 정확도로 인식하는 데 성공했다.
  3. 연구팀의 방식은 카메라를 이용한 미세표정 인식 방식에 비해 높은 정확도를 기록한 것은 물론 조명의 밝기나 머리의 움직임에도 영향을 받지 않아 실용성이 높다.
  4. 이번 연구 결과는 저명 국제 학술지인 「Expert Systems With Applications」 19일자에 게재됐다

VR 아바타에 사용자 표정을 실시간 투영하는 기술 개발(2021.09)[2]

  1. 임창환 교수팀이 가상현실(VR) 기반 메타버스 서비스에서 사용자의 얼굴 표정을 실시간으로 아바타에 투영하는 신기술을 개발했다.
  2. 임 교수팀은 기존 사용자의 등록데이터로 학습한 기계학습모델을 신규 사용자 데이터에 맞춰 적응시키는 방법으로 모델학습에 필요한 데이터의 양을 효과적으로 줄였다. 그 결과 1번의 표정등록만으로 11개의 얼굴표정을 약 90%의 정확도로 인식하고 실시간으로 아바타 얼굴에 반영하는 데 성공했다.
  3. 이번 연구는「Virtual Reality」9월 3일자에 게재됐다.

뇌파로 의사소통 가능 기술 개발(2019.02)[3]

  1. 임 교수팀은 '뇌-컴퓨터 인터페이스(BCIs)' 기술을 이용해 마비로 인해 의사소통이 불가했던 완전감금증후군 환자와 대화할 수 있는 기술을 개발했다. 외부에서 청각이나 촉각 자극을 전혀 주지 않은 상태에서 뇌파만을 통해 의사소통에 성공한 것은 이번이 처음이다.
  2. 과학기술정보통신부 SW컴퓨팅산업원천기술개발사업의 지원으로 수행된 이 연구 결과는 지난 1월 31일 국제학술지 '신경공학과 재활학회지'(Journal of Neuroengineering and Rehabilitation)에 실렸다.

VR 아바타 표정 인식 재현 기술(2019.01)[4]

  1. 임 교수팀이 개발한 'VR 아바타 표정 인식 재현 기술'은 웃음, 놀람, 두려움, 슬픔, 키스, 비웃음 등 11가지 표현을 정확하게 분류하고 재현한다.
  2. 임 교수팀이 자체개발한 ‘리마니안 특징 대응 기법(Riemanian manifold feature mapping)’과 ‘모델 적응 기법(model adaptation)’ 기술은 눈 주위 생체신호를 보다 정확하고 효율적으로 인식한다. 또한 전극 패드는 고무나 헝겊 소재로 교체도 쉽고 간편해 가격과 실용성까지 우수하다.
  3. 임 교수팀의 기술은 VR 프랤폼에서 응용 가능성이 높아 삼성전자 미래기술육성센터의 지원을 받고 있다.

주요논문

  • Electroencephalography-based endogenous brain-computer interface for online communication with a completely locked-in patient. Chang-Hee Han, Yong-Wook Kim, Do Yeon Kim, Seung Hyun Kim, Zoran Nenadic, and Chang-Hwan Im. (2019) Journal of NeuroEngineering and Rehabilitation 16: 18.
  • Performance Prediction for a Near-Infrared Spectroscopy-Brain-Computer Interface Using Resting-State Functional Connectivity of the Prefrontal Cortex Jaeyoung Shin and Chang-Hwan Im. (2018) International Journal of Neural Systems 28(10): 1850023.
  • Development of an electrooculogram-based human-computer interface using involuntary eye movement by spatially rotating sound for communication of locked-in patients Do Yeon Kim, Chang-Hee Han, and Chang-Hwan Im. (2018) Scientific Reports 8: 9505.
  • Assessment of user voluntary engagement during neurorehabilitation using functional near-infrared spectroscopy: a preliminary study Chang-Hee Han, Han-Jeong Hwang, Jeong-Hwan Lim, and Chang-Hwan Im. (2018) Journal of NeuroEngineering and Rehabilitation 15: 27.
  • Ternary Near-Infrared Spectroscopy Brain-Computer Interface with Increased Information Transfer Rate Using Prefrontal Hemodynamic Changes During Mental Arithmetic, Breath-Holding, and Idle State Jaeyoung Shin, Jinuk Kwon, Jongkwan Choi, and Chang-Hwan Im. (2018) IEEE Access 6: 19491-19498.

저서

  • Chang-Hwan Im (Ed.) (2018) Computational EEG Analysis: Methods and Applications. Springer, Singapore.
  • Chang-Hwan Im (2019). Brain-Machine Interfaces, In Encyclopedia of Robotics (Ang et al. (Ed.)). Springer, New York.
  • 임창환(2015) 뇌를 바꾼 공학 공학을 바꾼 뇌 (뇌공학의 현재와 미래), MiD.
  • 임창환(2017) 바이오닉맨 (인간을 공학하다), MiD.
  • 임창환 외 12인, (2017) 뇌파의 이해와 응용, 학지사.
  • 임창환(2020) 브레인3.0, MiD

수상

  • 2020 대한뇌기능매핑학회 학술상
  • 2013, 2015 한양대학교 Best Teacher상
  • 2014 한양대학교 신진연구자
  • 2013 한국공학한림원 2020년 미래 100대 기술과 주역
  • 2012 한국공학한림원 2020년 미래 100대 기술과 주역
  • 2007 대한의용생체공학회 솔고의공학상 젊은 의공학자상

강연

  • 2020.10.08 2020 가을 카오스 '브레인3.0 -AI와 뇌공학이 바꿀 인류의 미래'[5]

언론 활동

교내언론

대외 언론

  • 2014.12.08 일자 <산업방송 채널i>에서 방영된 '기술의 업그레이드 새로운 문명의 시작'에서는 임창환 전기생체공학부 교수가 출연하여 연구성과에 관한 이야기를 나눴다. http://www.hanyang.ac.kr/surl/v0Bu

각주

  1. <뉴스H> 2021.10.26 임창환 교수, 미세표정 속 감춰진 감정 읽어내는 기술 개발
  2. <뉴스H> 2021.09.14 임창환 교수, VR 아바타에 사용자 표정을 실시간 투영하는 기술 개발
  3. <뉴스H> 2019.02.15 임창환 교수팀, 뇌파로 의사소통 가능 기술 개발
  4. <뉴스H> 2019.01.01 가상현실 아바타가 내 표정까지 따라 한다고? (카드뉴스)
  5. 2020.10.08 <뉴스H> '세계적인 뇌공학자' 임창환 교수, 카오스 강연에서 AI 주제로 온라인 강의 진행