본문 바로가기
about Science

인간 vs 기계 by 김대식

by hoyony 2022. 9. 15.

인공지능을 개발할 때 가장 처음 겪는 어려움은 인간에게 쉬운 일을 기계에게 구현시키기 힘들다는 점 ㅡ 카네기멜론대학의 인공지능 전문가 한스 모라백 교수가 제시 ‘모라백의 역설(moravec’s paradox)’

전통적인 인공지능이 지능을 획득하기 어려웠던 이유는 기계에 설명을 입력해줘야 하기 때문. 설명을 위해서는 두 가지 조건 필요
1) 설명을 하는 사람이 답을 알고 있어야 한다
2) 답을 알고 있는 사람이 답을 완벽하게 표현할 수 있는 기호 시스템이 필요하다
현대 과학에서는 이 두 가지 조건을 만족시킬 수 없다고 결론.

데이터는 상상을 초월할 정도로 늘고 있으나 기계가 자동 분석할 수 있는 데이터는 10% 이내. 이 분석된 10% 데이터를 정형 또는 계량화된 데이터라 함. 즉 이미 구조가 있어서 코딩할 수 있는 데이터. 그러나 인터넷에는 90%의 구조가 없는 데이터가 있고 이를 비정형 데이터라 함
비정형데이터란 예를 들면 이미지 정보. 기계가 분석할 수 없는 데이터는 기하급수적 증가, 분석 가능한 데이터는 선형적으로 증가. 따라서 기계가 세상에 대해 무언가 배우고 소화하여 내 것으로 만들기 위해서는 지적 능력을 가진 인공지능이 필요.

뇌 안에는 10^11개 정도의 신경세포가 있고 신경세포 하나들은 수천 개 또는 수만 개의 다른 세포들과 연결. 뇌를 아무리 해부해도 영상도 없고, 기억도 없고, 자아도 없고, 감성도 없고, 아무것도 없고, 유일하게 존재하는 건 끝없이 많은 시냅스들.

인간의 뇌는 각 상황에서 저장할 가치가 있는 정보와 저장할 필요가 없는 정보를 구별하여 저장하고 그 구별한 정보들도 압축. 나중에 기억할 때에는 내가 예전부터 알았던 이야기, 들은 이야기, 남들이 나한테 보여주는 이야기, 그런 것들을 합쳐서 새롭게 이야기를 만들어서 기억. 즉 ‘기억한다’는 것은 어디에다 정보를 저장했다가 가져오는 것이 아니고 매번 새로 만들어내는 것.
뇌에서는 정보가 무늬(패턴) 위주로 입력.
컴퓨터는 정보를 가감 없이 입력. 뇌는 세상을 직접 보지 못하기 때문에 눈, 코, 귀 등 오감을 통해 들어오는 정보를 패턴화하여 저장하고 그것을 해석.

망막 안에는 상당히 많은 세포들과 혈관들이 있기 때문에 빛이 들어오면 그것의 그림자가 생기기도 함. 분명 눈 안에서 그림자도 생기도 맹점도 있는데 뇌에서는 다 제거하여 보여줌. 눈으로 들어오는 큰 그림들을 그대로 받아들이는 것이 아니고 차이 값만을 인식. 눈, 코, 귀가 완벽하다면 뇌가 해석을 할 필요가 없으나 눈, 코, 귀가 너무나 많은 문제를 가지고 있기 때문에 뇌는 있는 정보를 그대로 받아들이지 않고 해석을 함. 해석을 한다는 것은 실수의 여지가 있을 수도 있음을 뜻하는데, 결국 뇌가 하는 해석은 객관적이지 않다는 것.
현대 과학에서는 인간의 믿음, 생각, 지각, 느낌, 기억 대부분이 착시현상일 거라고 생각.


뇌는 10^11개의 신경세포들이 10^15개의 시냅스라는 연결선으로 연결. 그중 1/3은 유전적으로 만들어지고, 1/3은 환경을 통해 만들어지고 1/3은 랜덤으로 만들어진다.
그렇다면 우리 눈에 세상이 다르게 보이는데 왜 우리는 다들 같은 세상을 산다고 생각할까?
이것은 착시현상.
사과는 빨갛다라고 생각하지만 실제 색깔은 노란색, 하얀색도 있고, 점도 있고 패턴도 있고, 상당히 애매모호하고 복잡한 색깔. 그런데 이 애매모호하고 복잡한 색깔을 완벽하게 표현할 수 있는 언어는 존재하지 않는다. 각자 머릿속에서 보이는 색과 가장 가까운 언어는 ‘빨강’. 이 과정에서 우리는 서로 이해하고 소통했다는 착시를 얻게 되는 것.


핵심은 언어의 해상도가 인식의 해상도보다 훨씬 낮다는 것. 생각의 숫자가 언어의 숫자가 훨씬 많기 때문에 일대일 매칭은 불가능. 우리는 말, 단어만을 통해서는 상대의 생각을 절대로 파악할 수가 없다.

뇌 안에는 정보가 엄청나게 많은 데 이 정보량을 대략 추정해보면 시냅스들의 위차와 연결은 유전적으로 전달될 수 없다는 결론. DNA에는 시냅스 정보 말고도 머리카락 색깔, 피부색, 키, 손가락, 발가락 개수 등 코딩해야 할 정보가 너무 많은데 시냅스 정보만 집어넣더라도 정보량이 모자랄 판. 따라서 뇌는 새로운 방법을 고안. 대부분의 생물들의 뇌를 완성되지 않은 상태로 태어나게 하는 것.
인간은 태어나서 10~12년의 기간이 결정적 시기. 이 기간 동안 뇌는 젖은 찰흙 같아서 자주 사용되는 길들은 살아남고 자주 사용되지 않는 길들은 뇌 안에서 싹 지워버림.

뇌는 10층에서 15층 정도 되는 구조로 차곡차곡 쌓여진 계층적 구조 형태. 가장 아래층은 신경세포층으로 영상을 있는 그대로 분석하지 않고 영상의 가장 작은 단위, 한 픽셀과 픽셀 간의 통계적인 인과관계를 분석하고 학습해서 가장 압축된 표현을 만들어 냄. 그다음 층에 위치한 신경세포들은 이 압축된 현상으로 압축된 표현을 생성. 현상을 만들어내면 2층에 있는 신경세포에 보내고 2층에 있는 신경세포는 더 이상 현실에는 관심이 없어지고, 1층에서 보낸 압축된 현상을 가지고 또 압축된 표현을 만든다. 압축에 압축된 표현. 이런 식으로 계속 10층, 15층까지 올리면 맨 위층의 신경세포들은 많은 변이가 있는 강아지라도 강아지로 알아볼 수 있게 됨.

딥러닝은 더 이상 인간이 기계에게 세상을 설명하지 않는다. 세상에 관한 엄청나게 많은 데이터를 그냥 집어넣어주면 기계는 자체 인공신경망 구조를 통해 스스로 학습. 무엇을 학습? 데이터에 포함된 통계학적인 정보에 대해 점점 더 압축된 표현을 만들어내는 과정을 학습이라고 말함.

딥러닝 학습 과정은 크게 3가지
1) 수퍼바이저 학습 : 선생님이 존재. 수백만 장의 강아지 사진을 보여주고 강아지라고 이야기해 줌. 이 학습은 가장 잘 되지만 가장 비현실적 방법. 부모님들이 쫓아다니면서 고양이, 강아지라고 아이들에게 하나하나 이야기를 해준 적은 그리 길지 않기 때문.
2) 비수퍼바이저 학습 : 계속 수천만 개의 사진을 보여주면 답이 뭔지 몰라도 언젠가는 통계적으로 비슷한 구조를 가진 것들을 모을 수 있음. 가장 어렵고 연구방법으론 가장 낮은 성능.
3) 보상 학습 : 시스템이 답을 냈을 때 정답을 얘기해주지는 않지만 틀렸는지 맞았는지 O,X만 알려줌.

지금 사용하는 시스템의 대부분은 수퍼바이저 학습 시스템. 이를 실현하기 위해서는 정답이 적혀 있는 엄청난 양의 빅데이터가 필요. 1000만 장의 강아지가 강아지라고 이름표를 붙이고 있어야 함. 이런 정보를 가지고 있는 회사는 구글, 페이스북, 바이두 정도.

워렌 버핏의 책을 읽고 그대로 따라한다고 그와 같은 수익을 낼 수 있을까? 절대 불가능. 왜 수익이 나는지 정확한 이유를 워렌 버핏 자신도 모르기 때문. 어떻게 투자하는지에 대해 90%는 직감으로 한다고 말할 것. 당연히 뇌는 무언인가를 계산하고 그 일부만을 언어로 표현하는데, 언어로 표현할 수 있는 모든걸 우리가 적분해서 합쳐서 직감이라고 이름붙인 것이라 생각.

구글이 2014년 4000억원을 주고 인수한 딥마인드는 깊은 보상 학습(DQN, deep Q-network)을 개발. DQN을 이용해서 구글은 (1) 월스트리트 최고 투자자의 뇌를 맵핑 (2) 프로젝트 코딩, 반도체 설계 등에 활용하겠다는 소문.

1900년 부활절 아침, 뉴욕 5번가의 사진 속 거의 모든 운송수단은 마차였으며 자동차는 딱 한 대. 하지만 신기하게도 13년 후 같은 날 같은 장소의 사진을 보면 모든 운송수단이 자동차.


기술이 발전하는 과정 중 늘 걱정해야 할 부분은, 기술은 어느 한순간 기하급수적으로 증가하는 시점, 즉 특이점이 있다는 것.
인공지능 기반의 기술이 분명 특이점을 만들 것인데, 이 시점이 언제인지는 아무도 모른다. 확실한 것은 200년 후가 아니라 10~30년 남짓 남았다는 것.

현재 40대인 사람들은 인류의 역사상 가장 행복한 사람들. 인류 역사 1만 년의 혜택을 다 받고 살다가 기계에게 밀려나기 직전 은퇴. 20,30대는 혼란의 시대를 경험하겠지만 현실적으로 살아남을 것임. 지금 확득한 기술은 20~30년 사이에 바로 바뀌지 않을 것이기 때문. 진짜 걱정해야 할 세대는 10대. 이들은 기계가 못하는 것을 할 수 있도록 준비해야 함. 언제든지 상황을 냉철하게 분석하고 세상을 정확하게 파악해서 무엇이 필요하다고 최대한 ㅃㆍㄹ리 결론을 내서 거기에 빠르게 적응할 수 있는 능력을 키워야 함.

강한 인공지능은 어차피 다 SF. 하지만 약한 인공지능은 100% 실현될 것.
창조와 혁신에 필수적인 건설적 불평등을 유지하면서 파괴적 사회 불평등을 최소화하는 내시균형 수준의 재분배만 디자인한다면 인공지능의 미래에 대한 희망적인 시나리오 역시 충분히 그릴 수 있을 것.

댓글