"임창환"의 두 판 사이의 차이

한양 위키
둘러보기로 가기 검색하러 가기
 
(사용자 11명의 중간 판 30개는 보이지 않습니다)
1번째 줄: 1번째 줄:
== 소속 ==
+
임창환은 서울캠퍼스 [[공과대학]] [[전기생체공학부]] [[생체공학전공]] 교수이자, [[뇌공학연구센터]]장 및 [[계산신경공학 연구실]]장을 겸임하고 있다.
서울 공과대학 전기·생체공학부 생체공학전공
 
  
== 학력 ==
+
전기생체공학부 홈페이지 참고(2019.10.)
1999 서울대학교 공학사(전기공학)
+
[[분류:교수]]
2001 서울대학교 공학석사(전기컴퓨터공학)
+
 
2005 서울대학교 공학박사(전기컴퓨터공학)
+
=학력=
(학위논문: Analysis of Neuroelectromagnetic Inverse Problems Using Anatomical Information)
+
 
 +
*2005 서울대학교 공학박사(전기컴퓨터공학)
 +
*2001 서울대학교 공학석사(전기컴퓨터공학)
 +
*1999 서울대학교 공학사(전기공학)
 +
 
 +
=경력=
 +
 
 +
*2017.08 ~ 2018.07 BME, University of California, Irvine, Visiting Scholar
 +
*2017.01 ~ 2017.03 Neurosci, University College London, Visiting Scholar
 +
*2013.3 ~ 현재 한양대학교 공과대학 생체공학전공 부교수, 교수
 +
*2010.03 ~ 2011.02 연세대학교 의공학부 부교수
 +
*2006.03 ~ 2010.02 연세대학교 의공학부 조교수
 +
*2005.03 ~ 2006.02 Dept. BME, University of Minnesota, Post-doctor
 +
*2002.03 ~ 2003.01 한국전기연구원 위촉연구원
 +
 
 +
===학회 활동===
 +
 
 +
*2023, 대한뇌파신경생리학회 회장
 +
*한국뇌파신경생리학회 학술이사
 +
*한국뇌공학회 대외협력이사
 +
*대한뇌기능매핑학회 홍보이사
 +
*Brain-Computer Interfaces, Associate Editor
 +
*Biomedical Engineering Letters, Associate Editor
 +
*Sensors, Frontiers in Human Neuroscience - Editorial Board Member
 +
 
 +
=연구관심분야=
 +
뇌공학, 신경공학, 생체전자공학
 +
 
 +
=연구실적=
 +
 
 +
===머신러닝을 활용한 뇌파 분석 기법 개발 (2023.12)<ref><뉴스H> 2024.01.03 [http://www.newshyu.com/news/articleView.html?idxno=1012647 임창환 교수, 대검찰청 과학수사부와 머신러닝을 활용한 뇌파 분석 기법 개발]</ref>===
 +
 
 +
#대검찰청 과학수사부와 협업. 강력범죄 수사에 도입될 예정. 검찰이 수사에 AI 기술을 적용하는 건 처음
 +
#P300 반응 외에도 뇌 영역 간 주고받는 신호의 연결 강도와 횟수 변화 등을 분석할 수 있는 게 특징. 뇌의 ‘네트워크 흐름’을 종합적으로 분석하고 머신러닝 기술로 AI에 학습을 시켜 범인과 참고인, 단순 목격자 등을 구분
 +
 
 +
===뇌 전기자극으로 동체시력 강화 성공  (2023.08)<ref><뉴스H> 2023.08.31[http://www.newshyu.com/news/articleView.html?idxno=1011201 한양대 임창환 교수, 뇌 전기자극으로 동체시력 강화 성공]</ref>===
 +
 
 +
#경두개 교류자극(tACS) 방식을 통해 동체시력 강화하는데 성공
 +
#본 연구는 한국연구재단의 뇌과학 원천기술개발사업 및 뇌과학 선도융합기술개발사업의 지원을 받아 수행
 +
#연구결과는 행동과학 분야 상위 10% 이내 국제 학술지인 「Behavioral and Brain Functions」 8월호에 게재
 +
 
 +
===3축 가속도계를 이용한 무음 발화 인식 기술 개발 (2023.04)<ref><뉴스H> 2023.04.24 [http://www.newshyu.com/news/articleView.html?idxno=1009696 한양대, 입의 움직임만으로 말을 이해하는 AI기술 개발]</ref>===
 +
 
 +
#무음 발화 인식 기술은 목소리 없이 입의 움직임을 분석하여 단어를 인식하는 기술을 말한다.
 +
 
 +
===VR에서 입모양만으로 음성인식하는 기술 개발(2022.02)<ref><뉴스H> 2022.02.21 [http://www.newshyu.com/news/articleView.html?idxno=1005160 한양대 임창환 교수, VR에서 입모양만으로 음성인식하는 기술 개발]</ref>===
 +
 
 +
#임창환 교수팀이 가상현실(VR) 헤드셋을 착용한 채 실제 발성 없이 입모양만으로 사용자의 의도를 정확히 인식하는 신기술을 개발했다.
 +
#임 교수팀은 VR 헤드셋을 착용할 때 피부에 닿는 눈 아래 부위에 6개의 생체전극을 부착한 VR 헤드셋을 개발했다. 개발된 VR 헤드셋은 사용자가 실제로 말을 하지 않고 말하는 입모양을 흉내 냈을 때 전극에서 측정되는 안면 근전도(facial electromyogram) 신호를 실시간으로 분석, 사용자의 발화 의도를 알아내는 데 성공했다.
 +
#이번 연구 결과는 가상현실 분야의 최고 권위지인 「Virtual Reality」 2월 2일자에 게재됐다.
 +
 
 +
===미세표정 속 감정 읽어내는 기술 개발(2021.10)<ref><뉴스H> 2021.10.26 [http://www.newshyu.com/news/articleView.html?idxno=1004330 임창환 교수, 미세표정 속 감춰진 감정 읽어내는 기술 개발]</ref>===
 +
 
 +
#임창환 한양대 생체공학과 교수팀이 뇌파와 근전도 신호를 이용해 사람의 미세표정 속에 담긴 숨겨진 감정을 높은 정확도로 읽어내는 기계학습 기술을 개발했다.
 +
#연구팀은 머리둘레에서 측정한 뇌파신호와 눈의 가장자리 부위에서 측정한 근전도(근육에서 발생하는 전기신호) 신호에 기계학습 기술을 적용해 미세표정에 감춰진 감정을 평균 90% 이상의 높은 정확도로 인식하는 데 성공했다.
 +
#연구팀의 방식은 카메라를 이용한 미세표정 인식 방식에 비해 높은 정확도를 기록한 것은 물론 조명의 밝기나 머리의 움직임에도 영향을 받지 않아 실용성이 높다.
 +
#이번 연구 결과는 저명 국제 학술지인 「Expert Systems With Applications」 19일자에 게재됐다
 +
 
 +
===VR 아바타에 사용자 표정을 실시간 투영하는 기술 개발(2021.09)<ref><뉴스H> 2021.09.14 [http://www.newshyu.com/news/articleView.html?idxno=1004041 임창환 교수, VR 아바타에 사용자 표정을 실시간 투영하는 기술 개발]</ref>===
 +
 
 +
#임창환 교수팀이 가상현실(VR) 기반 메타버스 서비스에서 사용자의 얼굴 표정을 실시간으로 아바타에 투영하는 신기술을 개발했다.
 +
#임 교수팀은 기존 사용자의 등록데이터로 학습한 기계학습모델을 신규 사용자 데이터에 맞춰 적응시키는 방법으로 모델학습에 필요한 데이터의 양을 효과적으로 줄였다. 그 결과 1번의 표정등록만으로 11개의 얼굴표정을 약 90%의 정확도로 인식하고 실시간으로 아바타 얼굴에 반영하는 데 성공했다.
 +
#이번 연구는「Virtual Reality」9월 3일자에 게재됐다.
 +
 
 +
===뇌파로 의사소통 가능 기술 개발(2019.02)<ref><뉴스H> 2019.02.15 임창환 교수팀, 뇌파로 의사소통 가능 기술 개발</ref>===
 +
 
 +
#임 교수팀은 '뇌-컴퓨터 인터페이스(BCIs)' 기술을 이용해 마비로 인해 의사소통이 불가했던 완전감금증후군 환자와 대화할 수 있는 기술을 개발했다. 외부에서 청각이나 촉각 자극을 전혀 주지 않은 상태에서 뇌파만을 통해 의사소통에 성공한 것은 이번이 처음이다.
 +
#과학기술정보통신부 SW컴퓨팅산업원천기술개발사업의 지원으로 수행된 이 연구 결과는 지난 1월 31일 국제학술지 '신경공학과 재활학회지'(Journal of Neuroengineering and Rehabilitation)에 실렸다.
 +
 
 +
===VR 아바타 표정 인식 재현 기술(2019.01)<ref><뉴스H> 2019.01.01 가상현실 아바타가 내 표정까지 따라 한다고? ([http://www.hanyang.ac.kr/surl/pkPq 카드뉴스])</ref>===
 +
 
 +
#임 교수팀이 개발한 'VR 아바타 표정 인식 재현 기술'은 웃음, 놀람, 두려움, 슬픔, 키스, 비웃음 등 11가지 표현을 정확하게 분류하고 재현한다.
 +
#임 교수팀이 자체개발한 ‘리마니안 특징 대응 기법(Riemanian manifold feature mapping)’과 ‘모델 적응 기법(model adaptation)’ 기술은 눈 주위 생체신호를 보다 정확하고 효율적으로 인식한다. 또한 전극 패드는 고무나 헝겊 소재로 교체도 쉽고 간편해 가격과 실용성까지 우수하다.
 +
#임 교수팀의 기술은 VR 프랤폼에서 응용 가능성이 높아 삼성전자 미래기술육성센터의 지원을 받고 있다.
 +
 
 +
=주요논문=
 +
 
 +
*Electroencephalography-based endogenous brain-computer interface for online communication with a completely locked-in patient. Chang-Hee Han, Yong-Wook Kim, Do Yeon Kim, Seung Hyun Kim, Zoran Nenadic, and Chang-Hwan Im. (2019) Journal of NeuroEngineering and Rehabilitation 16: 18.
 +
*Performance Prediction for a Near-Infrared Spectroscopy-Brain-Computer Interface Using Resting-State Functional Connectivity of the Prefrontal Cortex Jaeyoung Shin and Chang-Hwan Im. (2018) International Journal of Neural Systems 28(10): 1850023.
 +
*Development of an electrooculogram-based human-computer interface using involuntary eye movement by spatially rotating sound for communication of locked-in patients Do Yeon Kim, Chang-Hee Han, and Chang-Hwan Im. (2018) Scientific Reports 8: 9505.
 +
*Assessment of user voluntary engagement during neurorehabilitation using functional near-infrared spectroscopy: a preliminary study Chang-Hee Han, Han-Jeong Hwang, Jeong-Hwan Lim, and Chang-Hwan Im. (2018) Journal of NeuroEngineering and Rehabilitation 15: 27.
 +
*Ternary Near-Infrared Spectroscopy Brain-Computer Interface with Increased Information Transfer Rate Using Prefrontal Hemodynamic Changes During Mental Arithmetic, Breath-Holding, and Idle State Jaeyoung Shin, Jinuk Kwon, Jongkwan Choi, and Chang-Hwan Im. (2018) IEEE Access 6: 19491-19498.
 +
 
 +
=저서=
  
== 경력 ==
+
*Chang-Hwan Im (Ed.) (2018) Computational EEG Analysis: Methods and Applications. Springer, Singapore.
2011.03 ~ 현재 한양대학교 공과대학 생체공학전공 부교수, 교수
+
*Chang-Hwan Im (2019). Brain-Machine Interfaces, In Encyclopedia of Robotics (Ang et al. (Ed.)). Springer, New York.
2010.03 ~ 2011.02 연세대학교 의공학부 부교수
+
*임창환(2015) 뇌를 바꾼 공학 공학을 바꾼 뇌 (뇌공학의 현재와 미래), MiD.
2006.03 ~ 2010.02 연세대학교 의공학부 조교수
+
*임창환(2017) 바이오닉맨 (인간을 공학하다), MiD.
2005.03 ~ 2006.02 Dept. BME, University of Minnesota, Post-doctor
+
*임창환 외 12인, (2017) 뇌파의 이해와 응용, 학지사.
2002.03 ~ 2003.01 한국전기연구원 위촉연구원
+
*임창환(2020) 브레인3.0, MiD
2017.01 ~ 2017.03 Neurosci, University College London, Visiting Scholar
+
*임창환(2024) 뉴럴링크, 동아시아<ref><뉴스H> 2024.01.11 [http://www.newshyu.com/news/articleView.html?idxno=1012755 <nowiki>[보도자료] 한양대 임창환 교수, 신간 뉴럴링크 출간</nowiki>]</ref>
2017.08 ~ 2018.07 BME, University of California, Irvine, Visiting Scholar
 
  
== 활동 ==
+
=수상=
한국뇌파신경생리학회 학술이사
 
한국계산신경과학회 홍보이사
 
Brain-Computer Interfaces, Associate Editor
 
Biomedical Engineering Letters, Associate Editor 
 
  
== 각주 ==
+
*2020 대한뇌기능매핑학회 학술상
[[분류:교수]]
+
*2013, 2015 한양대학교 Best Teacher상
 +
*2014 한양대학교 신진연구자
 +
*2013 한국공학한림원 2020년 미래 100대 기술과 주역
 +
*2012 한국공학한림원 2020년 미래 100대 기술과 주역
 +
*2007 대한의용생체공학회 솔고의공학상 젊은 의공학자상
 +
 
 +
=강연=
 +
 
 +
*2020.10.08 2020 가을 카오스 '브레인3.0 -AI와 뇌공학이 바꿀 인류의 미래'<ref>2020.10.08 <뉴스H> [http://cms.newshyu.com/news/articleView.html?idxno=951443 '세계적인 뇌공학자' 임창환 교수, 카오스 강연에서 AI 주제로 온라인 강의 진행]</ref>
 +
 
 +
=언론 활동=
 +
==교내언론==
 +
 
 +
*<뉴스H> 2018.08.31[http://www.hanyang.ac.kr/surl/PENTB 임창환 교수, 인간을 공학하다]
 +
*<뉴스H> 2021.05.06 [http://cms.newshyu.com/news/articleView.html?idxno=1002704 [HYPER<nowiki>]</nowiki> 지식과 지혜 그 사이 어딘가에서]
 +
*<뉴스H> 2022.01.05 [http://www.newshyu.com/news/articleView.html?idxno=1004860 바이오메디컬공학..."인간 수명 연장과 건강한 삶의 영위를 위해"]
 +
 
 +
==대외 언론==
 +
 
 +
*2014.12.08 일자 <산업방송 채널i>에서 방영된 '기술의 업그레이드 새로운 문명의 시작'에서는 임창환 전기생체공학부 교수가 출연하여 연구성과에 관한 이야기를 나눴다. http://www.hanyang.ac.kr/surl/v0Bu
 +
*<동아일보> 2023.12.26 [https://www.donga.com/news/Society/article/all/20231226/122772689/1 <nowiki>[단독]“범인 뇌속의 증거 추적”… 檢, AI 활용 뇌파분석 수사법 개발</nowiki>]
 +
 
 +
=각주=
 
<references />
 
<references />
 +
[[분류:생체공학전공]]

2024년 2월 29일 (목) 13:20 기준 최신판

임창환은 서울캠퍼스 공과대학 전기생체공학부 생체공학전공 교수이자, 뇌공학연구센터장 및 계산신경공학 연구실장을 겸임하고 있다.

전기생체공학부 홈페이지 참고(2019.10.)

학력

  • 2005 서울대학교 공학박사(전기컴퓨터공학)
  • 2001 서울대학교 공학석사(전기컴퓨터공학)
  • 1999 서울대학교 공학사(전기공학)

경력

  • 2017.08 ~ 2018.07 BME, University of California, Irvine, Visiting Scholar
  • 2017.01 ~ 2017.03 Neurosci, University College London, Visiting Scholar
  • 2013.3 ~ 현재 한양대학교 공과대학 생체공학전공 부교수, 교수
  • 2010.03 ~ 2011.02 연세대학교 의공학부 부교수
  • 2006.03 ~ 2010.02 연세대학교 의공학부 조교수
  • 2005.03 ~ 2006.02 Dept. BME, University of Minnesota, Post-doctor
  • 2002.03 ~ 2003.01 한국전기연구원 위촉연구원

학회 활동

  • 2023, 대한뇌파신경생리학회 회장
  • 한국뇌파신경생리학회 학술이사
  • 한국뇌공학회 대외협력이사
  • 대한뇌기능매핑학회 홍보이사
  • Brain-Computer Interfaces, Associate Editor
  • Biomedical Engineering Letters, Associate Editor
  • Sensors, Frontiers in Human Neuroscience - Editorial Board Member

연구관심분야

뇌공학, 신경공학, 생체전자공학

연구실적

머신러닝을 활용한 뇌파 분석 기법 개발 (2023.12)[1]

  1. 대검찰청 과학수사부와 협업. 강력범죄 수사에 도입될 예정. 검찰이 수사에 AI 기술을 적용하는 건 처음
  2. P300 반응 외에도 뇌 영역 간 주고받는 신호의 연결 강도와 횟수 변화 등을 분석할 수 있는 게 특징. 뇌의 ‘네트워크 흐름’을 종합적으로 분석하고 머신러닝 기술로 AI에 학습을 시켜 범인과 참고인, 단순 목격자 등을 구분

뇌 전기자극으로 동체시력 강화 성공 (2023.08)[2]

  1. 경두개 교류자극(tACS) 방식을 통해 동체시력 강화하는데 성공
  2. 본 연구는 한국연구재단의 뇌과학 원천기술개발사업 및 뇌과학 선도융합기술개발사업의 지원을 받아 수행
  3. 연구결과는 행동과학 분야 상위 10% 이내 국제 학술지인 「Behavioral and Brain Functions」 8월호에 게재

3축 가속도계를 이용한 무음 발화 인식 기술 개발 (2023.04)[3]

  1. 무음 발화 인식 기술은 목소리 없이 입의 움직임을 분석하여 단어를 인식하는 기술을 말한다.

VR에서 입모양만으로 음성인식하는 기술 개발(2022.02)[4]

  1. 임창환 교수팀이 가상현실(VR) 헤드셋을 착용한 채 실제 발성 없이 입모양만으로 사용자의 의도를 정확히 인식하는 신기술을 개발했다.
  2. 임 교수팀은 VR 헤드셋을 착용할 때 피부에 닿는 눈 아래 부위에 6개의 생체전극을 부착한 VR 헤드셋을 개발했다. 개발된 VR 헤드셋은 사용자가 실제로 말을 하지 않고 말하는 입모양을 흉내 냈을 때 전극에서 측정되는 안면 근전도(facial electromyogram) 신호를 실시간으로 분석, 사용자의 발화 의도를 알아내는 데 성공했다.
  3. 이번 연구 결과는 가상현실 분야의 최고 권위지인 「Virtual Reality」 2월 2일자에 게재됐다.

미세표정 속 감정 읽어내는 기술 개발(2021.10)[5]

  1. 임창환 한양대 생체공학과 교수팀이 뇌파와 근전도 신호를 이용해 사람의 미세표정 속에 담긴 숨겨진 감정을 높은 정확도로 읽어내는 기계학습 기술을 개발했다.
  2. 연구팀은 머리둘레에서 측정한 뇌파신호와 눈의 가장자리 부위에서 측정한 근전도(근육에서 발생하는 전기신호) 신호에 기계학습 기술을 적용해 미세표정에 감춰진 감정을 평균 90% 이상의 높은 정확도로 인식하는 데 성공했다.
  3. 연구팀의 방식은 카메라를 이용한 미세표정 인식 방식에 비해 높은 정확도를 기록한 것은 물론 조명의 밝기나 머리의 움직임에도 영향을 받지 않아 실용성이 높다.
  4. 이번 연구 결과는 저명 국제 학술지인 「Expert Systems With Applications」 19일자에 게재됐다

VR 아바타에 사용자 표정을 실시간 투영하는 기술 개발(2021.09)[6]

  1. 임창환 교수팀이 가상현실(VR) 기반 메타버스 서비스에서 사용자의 얼굴 표정을 실시간으로 아바타에 투영하는 신기술을 개발했다.
  2. 임 교수팀은 기존 사용자의 등록데이터로 학습한 기계학습모델을 신규 사용자 데이터에 맞춰 적응시키는 방법으로 모델학습에 필요한 데이터의 양을 효과적으로 줄였다. 그 결과 1번의 표정등록만으로 11개의 얼굴표정을 약 90%의 정확도로 인식하고 실시간으로 아바타 얼굴에 반영하는 데 성공했다.
  3. 이번 연구는「Virtual Reality」9월 3일자에 게재됐다.

뇌파로 의사소통 가능 기술 개발(2019.02)[7]

  1. 임 교수팀은 '뇌-컴퓨터 인터페이스(BCIs)' 기술을 이용해 마비로 인해 의사소통이 불가했던 완전감금증후군 환자와 대화할 수 있는 기술을 개발했다. 외부에서 청각이나 촉각 자극을 전혀 주지 않은 상태에서 뇌파만을 통해 의사소통에 성공한 것은 이번이 처음이다.
  2. 과학기술정보통신부 SW컴퓨팅산업원천기술개발사업의 지원으로 수행된 이 연구 결과는 지난 1월 31일 국제학술지 '신경공학과 재활학회지'(Journal of Neuroengineering and Rehabilitation)에 실렸다.

VR 아바타 표정 인식 재현 기술(2019.01)[8]

  1. 임 교수팀이 개발한 'VR 아바타 표정 인식 재현 기술'은 웃음, 놀람, 두려움, 슬픔, 키스, 비웃음 등 11가지 표현을 정확하게 분류하고 재현한다.
  2. 임 교수팀이 자체개발한 ‘리마니안 특징 대응 기법(Riemanian manifold feature mapping)’과 ‘모델 적응 기법(model adaptation)’ 기술은 눈 주위 생체신호를 보다 정확하고 효율적으로 인식한다. 또한 전극 패드는 고무나 헝겊 소재로 교체도 쉽고 간편해 가격과 실용성까지 우수하다.
  3. 임 교수팀의 기술은 VR 프랤폼에서 응용 가능성이 높아 삼성전자 미래기술육성센터의 지원을 받고 있다.

주요논문

  • Electroencephalography-based endogenous brain-computer interface for online communication with a completely locked-in patient. Chang-Hee Han, Yong-Wook Kim, Do Yeon Kim, Seung Hyun Kim, Zoran Nenadic, and Chang-Hwan Im. (2019) Journal of NeuroEngineering and Rehabilitation 16: 18.
  • Performance Prediction for a Near-Infrared Spectroscopy-Brain-Computer Interface Using Resting-State Functional Connectivity of the Prefrontal Cortex Jaeyoung Shin and Chang-Hwan Im. (2018) International Journal of Neural Systems 28(10): 1850023.
  • Development of an electrooculogram-based human-computer interface using involuntary eye movement by spatially rotating sound for communication of locked-in patients Do Yeon Kim, Chang-Hee Han, and Chang-Hwan Im. (2018) Scientific Reports 8: 9505.
  • Assessment of user voluntary engagement during neurorehabilitation using functional near-infrared spectroscopy: a preliminary study Chang-Hee Han, Han-Jeong Hwang, Jeong-Hwan Lim, and Chang-Hwan Im. (2018) Journal of NeuroEngineering and Rehabilitation 15: 27.
  • Ternary Near-Infrared Spectroscopy Brain-Computer Interface with Increased Information Transfer Rate Using Prefrontal Hemodynamic Changes During Mental Arithmetic, Breath-Holding, and Idle State Jaeyoung Shin, Jinuk Kwon, Jongkwan Choi, and Chang-Hwan Im. (2018) IEEE Access 6: 19491-19498.

저서

  • Chang-Hwan Im (Ed.) (2018) Computational EEG Analysis: Methods and Applications. Springer, Singapore.
  • Chang-Hwan Im (2019). Brain-Machine Interfaces, In Encyclopedia of Robotics (Ang et al. (Ed.)). Springer, New York.
  • 임창환(2015) 뇌를 바꾼 공학 공학을 바꾼 뇌 (뇌공학의 현재와 미래), MiD.
  • 임창환(2017) 바이오닉맨 (인간을 공학하다), MiD.
  • 임창환 외 12인, (2017) 뇌파의 이해와 응용, 학지사.
  • 임창환(2020) 브레인3.0, MiD
  • 임창환(2024) 뉴럴링크, 동아시아[9]

수상

  • 2020 대한뇌기능매핑학회 학술상
  • 2013, 2015 한양대학교 Best Teacher상
  • 2014 한양대학교 신진연구자
  • 2013 한국공학한림원 2020년 미래 100대 기술과 주역
  • 2012 한국공학한림원 2020년 미래 100대 기술과 주역
  • 2007 대한의용생체공학회 솔고의공학상 젊은 의공학자상

강연

  • 2020.10.08 2020 가을 카오스 '브레인3.0 -AI와 뇌공학이 바꿀 인류의 미래'[10]

언론 활동

교내언론

대외 언론

각주