“뇌 작동원리, 강력한 AI 개발 단서 될 것”
  • 김용수 시사저널e. 기자 (yong0131@sisajournal-e.com)
  • 승인 2021.09.08 07:30
  • 호수 1664
이 기사를 공유합니다

[인터뷰] 이대열 존스홉킨스대 교수 겸 뉴로게이저 공동 창업자
“AI에 대한 맹신이나 막연한 두려움 버려야”

코로나19 팬데믹으로 인공지능(AI)의 활용 범위는 더욱 확대되고 있다. AI는 챗봇, AI 스피커, 로봇청소기 등 일상 속 대부분 영역에서 찾아볼 수 있다. 그러나 AI에 대한 정확한 이해가 부족한 탓에 막연한 두려움과 우려의 시선도 나온다. 뇌과학자인 이대열 존스홉킨스대 교수는 “인간의 뇌와 AI는 기능·구조적으로 차이점이 많다”며 “AI에 대한 맹신이나 막연한 두려움을 갖지 않도록 하는 것이 중요하다. 인간 뇌의 작동원리를 이해하면 더욱 강력한 AI 개발의 단서를 발견할 수 있을 것”이라고 말했다. 다음은 이 교수와의 일문일답.

ⓒ시사저널e 제공

인간의 뇌와 AI의 차이점은.

“AI는 인간의 일을 대신하기 위해 개발됐기 때문에 과제 수행 방식이 인간의 행동을 닮았다. 하지만 둘은 기능적·구조적으로 다른 점이 많다. 인간의 뇌는 생존과 종족 보존을 목적으로 다양한 환경에서 가장 적합한 행동을 선택하도록 기능한다. 반면 AI는 인간이 자신의 목적을 좀 더 적은 노력으로 달성하기 위해 만들어낸 도구다. 인간의 유전자가 스스로 해결하지 못하는 문제를 해결하기 위해 뇌를 진화시켜 온 것과 마찬가지로, 인간의 뇌는 자신이 해결해야 하는 문제를 좀 더 쉽게 해결하기 위해 AI를 개발했다고 볼 수 있다. 이 같은 관계를 경제학은 ‘본인과 대리인의 문제’라고 부른다. 문제라고 부르는 이유는 본인과 대리인이 추구하는 목적이 항상 일치하지 않기 때문이다.”

최근 AI 분야에서 흥미로운 사건 또는 트렌드가 있다면.

“지난 10년간 AI 기술 중에서 가장 눈부신 활약을 한 것은 ‘심층학습’과 ‘강화학습’, 그리고 그 두 가지 알고리즘이 결합된 ‘심층 강화학습’이다. 딥마인드의 ‘알파고’나 오픈 AI의 ‘GPT-3’ 등이 모두 이에 해당한다. 또한 인간 프로그래머가 문제 해결 방식을 구체적으로 지정해야 했던 전통적인 ‘상징적 AI’에 비하면, 심층학습을 하는 신경망은 인간의 대뇌가 정보를 처리하는 방식과 유사한 면이 있다. 하지만 인간의 뇌는 심층학습 신경망처럼 단순히 신호를 한 층에서 다음 층으로 전달하는 방식으로 작동하는 것이 아니고, 수많은 신경세포가 순환적으로 정보를 처리한다고 볼 수 있다. 최근엔 그와 유사한 ‘순환적 신경망’에 대한 연구가 빠른 속도로 진행되고 있다.

‘GPT-3’ 성능을 평가한다면.

“인간의 언어능력을 모방하기 위해 개발된 GPT-3와 몇 개의 문답을 주고받고 있으면, 과연 상대가 인간인지 AI인지 구별하기 어렵다. 하지만 GPT-3는 인터넷에 있는 방대한 문헌을 학습하고 그에 따라 주어진 질문에 가장 적합한 답변을 제시하는 역할을 하고 있을 뿐, 인간이 언어를 이용해 달성하고자 하는 구체적인 이유를 이해하지 못한다. 예컨대 GPT-3는 토스터가 주인에게 보내는 매우 감동적인 연애편지를 쓸 수는 있지만, 자신이 왜 그런 작문을 하고 있는지 전혀 이해하지 못한다. 즉 매우 뛰어난 언어능력을 가지고 있지만, 사물과 인간의 심리를 이해하는 능력은 결여돼 있다.”

AI 기술 진보로 인한 부작용 가능성은.

“인간이 도구를 사용하는 이유는 원하는 일을 적은 노력을 들여 더 빨리 끝내기 위한 것이지만, 모든 도구를 사용하는 데는 항상 잠재적인 위험이 따른다. 예컨대 전동 테이블톱을 사용하면 수동톱을 사용할 때보다 큰 목재를 더욱 정확하고 신속하게 절단할 수 있지만, 안전수칙을 따르지 않으면 큰 부상을 초래할 수 있다. 더욱 진보된 AI 기술이 등장한다면, 비록 그 AI의 능력이 인간의 전반적인 사고능력에 많이 뒤진다 할지라도, 그에 따른 부작용은 전동톱과는 비교할 수 없이 심각할 것이다. 노동자들이 새로운 기술을 학습하고 그에 적응하는 것보다 빠른 속도로 기업이 AI와 로봇을 도입하면 경제적 불평등은 더 심각해지고 사회가 불안정해질 것이므로 대비책을 미리 찾아 두어야 한다.”

저서 《지능의 탄생》에서 “인간의 뇌를 완전히 대체하는 기술적 특이점은 당분간 발생하지 않을 것”이라고 주장한 바 있다. ‘당분간’이라는 단서를 단 이유는.

“‘당분간’이라고 한 이유는 AI가 인간을 완전히 대체하기 위해선 다른 생명체와 마찬가지로 자기복제 능력을 획득해야 하기 때문이다. 지능은 생명체가 자기복제를 위해 마주치는 다양한 문제 해결 능력이라고 봐야 한다. 그렇지 않으면 문제 해결 여부를 결정할 수 있는 객관적인 기준이 없기 때문이다. 언젠가는 인간이 자기복제를 하는 기계를 만들 수 있는 날이 올지도 모른다. 하지만 아마 ‘당분간’은 어려울 것이다.”

AI 윤리 문제 해결 방안은.

“AI가 비윤리적인 방식으로 일을 처리해 문제가 발생한다면, 반드시 그 AI를 사용한 인간에게 책임을 물어야 할 것이다. AI를 사용하려는 인간의 동기를 분석해 보면, 그로 인해 발생할 수 있는 윤리적 문제도 예측할 수 있다. 예컨대 안면 인식 기술을 활용하기 위해 설치해야 하는 카메라의 수와 장소, 그리고 획득한 정보를 누가 어떻게 사용할 것인지를 결정해야 하는데, 이 과정에서 발생하는 윤리 문제를 해결하는 데 사회구성원의 의견이 민주적으로 반영될 수 있는 시스템을 만들어야 한다.”

ⓒ시사저널e 제공

인공지능, 개념부터 적용 사례까지 한눈에

시사저널e, ‘AIF 2021’ 온라인 행사 마련

IT 비전문가들도 쉽게 이해할 수 있는 인공지능 행사가 열린다. 인공지능은 공학도나 수학자들의 기술이란 편견을 넘어 개념부터 산업 적용 사례까지 한눈에 이해할 수 있는 행사가 될 것이다.

시사저널이코노미는 오는 9월9일 유튜브 ‘시사저널e’ 채널에서 ‘산업계에 스며든 인공지능’이란 주제로 ‘제7회 인공지능 국제포럼(AIF·Artificial Intelligence Forum) 2021’ 행사를 연다. 제리 카플란 스탠퍼드대학교 법정보학센터 교수, 이대열 존스홉킨스대 특훈교수, 이현규 정보통신기획평가원 인공지능단장 등이 기조연설을 맡았다. 기조연설은 인공지능의 개념부터 최근 시장 동향, 무엇을 준비해야 하는지 등을 담았다.

각 세션은 포스코, 신한은행, 서울아산병원 등 각 산업별 인공지능 대표 적용 사례와 시장동향으로 꾸민다. 최재식 KAIST 교수, 이덕만 포스코 기술연구원 AI연구그룹장, 김민수 신한은행 AI센터장, 장정훈 와이즈넛 상무, 김종재 서울아산병원 아산생명과학연구원장, 김현준 뷰노 대표 등이 발표한다.

자세한 행사 내용은 시사저널이코노미 홈페이지(http://www.sisajournal-e.com/)와 온오프믹스에서 확인할 수 있다.

관련기사
이 기사에 댓글쓰기펼치기