Life & StyleTechnology

인조 뇌?

미래는 뇌의 시대가 될 것이다. 얼마 전, 구글이 합병하는 대부분의 회사가 인간 로보트를 생산하기 위한 절차라는 발표를 본 적이 있다.

그리고 2025 년 경에는 인간의 뇌를 재현하는 컴퓨터가 완성 된다고 하니, 실제 인간 로보트가 완성 되기 전 까지는 뇌에 대한 연구가 한층 박차가 가해 질것이라는 전망을 할 수 있다.

♡ 안응 곽계달 ♡


ㅡㅡㅡㅡㅡㅡㅡㅡㅡ
(Brain Decoding 의 현주소)
“외부자극(stimuli)에 반응하는 뇌반응(measurement space)을 측정해 외부자극이 무엇이었는지 feature space 에서 유추하는 걸 “decoding”이라고 부른다. 이걸 Computational Neuroscience 수업시간에 제일 첫 시간에 가르친다.

아직은 “신경세포 몇 개에” 전기자극을 주면서, 자극이 어떻게 신경세포의 복잡한 spike train 으로 표상되는지 관찰하고 그걸로 외부자극을 찾아내는 수준이다.

Jennifer Aniston 에 반응하는 신경세포를 소리로 전환해 들려주면 학생들은 꺄악!! 그럼 “할머니 세포 가설”은 맞는 건가요? 수업시간은 갑자기 질문과 논쟁으로 아수라장이 된다. 그리고 나는 그걸 즐긴다.

10년전 이 분야에 fMRI 를 들고나온 야심찬 신경학자가 있다. UC at Berkeley 의 Jack Gallant 교수. 그는 피험자의 뇌 전체 활동을 fMRI로 측정해 그 패턴으로, 피험자들이 무슨 이미지를 보았는지 어렴풋이 알아맞추는데 성공했다. (이미지 자극 성공!)

한발 더 나아가, 지난 2011년에는 유튜브의 동영상들을 보여주며, 피험자의 fMRI 패턴으로 어떤 동영상을 본 건지 영상을 복원하는데 성공했다. (동영상 자극 성공!)

참 믿기 힘든 이 연구결과가 Current Biology에 발표됐을때, 많은 기자들이 내게 인터뷰 요청을 하고 커멘트를 달라고 했다. 이게 과연 믿을만한 사실이냐고, 이걸 응용하면 잎으로 미래에는 무슨일이 벌어질수있는 거냐고. 소설 <눈먼 시계공> 같은 얘기로 성큼 나아가는 거였다. (김탁환 선생님과 쓴 이 소설에서 우리는 죽은 자의 prefrontal cortex에서 죽기 직전에 그가 본 영상(당연히 살인자 정보가 담긴!)을 복원하는 기술을 제안했었지:-)

어제는 이 도전적인 괴짜가 칼텍에 와서, 아직 저널에 실리지 않은 최근 연구결과를 보여주었다. 시각분야의 대가인 그가 이번에는 언어영역에 도전했다. 이야기를 읽게 하면서 fMRI 패턴으로 단어와 문장이 뇌 어디에서 어떻게 표상되는지 탐색한 것이다.

결과가 충격적이다. 수백개 단어가 뇌 위에 고스란히 놓여있다. 이러다가 뇌만 찍어보면 (뭘 보고있는지를 넘어) 뭘 읽고 있는지, 무슨 생각을 하는지도 유추할 수 있겠다. 구글 검색을 생각만으로 할수도 있겠다! 각별히 주목할만한 결과는 언어가 처리되는데 있어 가장 중요한 영역이 알고보니 temporal lobe 이 아닌 prefrontal cortex 라는 사실! (우리가 소설로 쓴대로 ㅋㅋ)

Broca and Wernike’s areas 가 언어처리를 담당한다는 일반통념이 매우 제한된 가설이며, 실제로는 훨씬 광범위한 뇌영역이 관여되며 특히 좀더 고등한 영역이 “단어수준의 처리에서부터” 깊이 관여한다는 사실이 놀랍다.

안식년 마치고 올해부터 학과로 돌아가 Cognitive Neuroscience 를 학부생들에게 가르치기로 했는데, 학생들에게 해줄 얘기가 많다.”
– 정재승님 –

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다