본문 바로가기
책,영화,리뷰,

2029 기계가 멈추는 날

by Casey,Riley 2021. 9. 25.
반응형

게리 마커스, 어니스트 데이비스 지음 / 비즈니스북스
이 책은 AI의 현주소에 대해 명료하고 현실적인 평가를 내놓으면서 새로운 세대의 AI를 통해 인간이
원하는 미래를 설계해 나가는 법에 대한 고무적인 비전을 제시한다. 저자들은 딥러닝으로 설계된 AI는
학습할 데이터 양이 충분히 많아야 하고 패턴을 식별하기 위해 일련의 알고리즘을 필수로 한다는 점에
서 한계가 있기 때문에, 상식과 인지 모델, 추론 능력을 가진 AI로 재설계해야 한다고 주장한다.

2029 기계가 멈추는 날
게리 마커스, 어니스트 데이비스 지음

▣ 저자 게리 마커스, 어니스트 데이비스
게리 마커스 - 뉴욕대학교 심리학ㆍ신경과학 교수이자 로버스트닷 창립자 겸 CEO다. 햄프셔대학교에
서 인지과학으로 석사 학위를, MIT대학교에서 뇌과학 연구로 박사학위를 마쳤다. 심리학, 언어학, 분자
생물학을 통합해 인간 마음의 기원을 연구한 세계적인 학자로 손꼽힌다. 23세의 나이로 MIT대학교에서
스티븐 핑커 교수의 지도하에 뇌와 인지과학을 연구했으며 1996년 전도유망한 젊은 심리학자들에게
수여되는 로버트 판츠상을 수상했다. 저자는 뇌과학과 진화심리학, 언어학 등 분야를 넘나들며《뉴욕타
임스》, 《월스트리트저널》, 『뉴요커』, 『네이처』 등 유수의 일간지와 잡지에 기고했다. 2016년에
는 우버의 자회사인 머신러닝 스타트업 지오메트릭 인텔리전스를 설립하고 최고경영자로 재직했다. 저
서로는 『클루지』, 『마음이 태어나는 곳』, 『뇌과학의 비밀』 등이 있다.
어니스트 데이비스 - 뉴욕대학교의 쿠란트 수학연구소에서 컴퓨터공학을 가르치고 있다. 저서로는 『상
식적 지식의 표상』 외 3권이 있다.

▣ Short Summary
미래학자이자 구글 기술이사인 레이 커즈와일이 기술이 인간을 초월하는 순간이 온다고 예측한 2029
년이 얼마 남지 않았다. 그가 예측한 미래는 정말 도래할 것인가? 구글 전 CEO 에릭 슈미트는 “AI가
기후 변화, 빈곤, 전쟁, 암을 해결할 것이다!”라고 말했다. 반면 스페이스X의 CEO 일론 머스크는 “AI
연구는 악마를 소환하는 일”이라고 말했다. 이러한 AI를 둘러싼 논쟁과 화려한 이슈에도 불구하고, 인
간의 지능을 완전히 능가하거나 일부 초월한 수준에 도달했다고 말할 수 있는 AI의 실현은 아직 이뤄
지지 않고 있다. 단순한 알고리즘으로 움직이는 기계는 과연 진화할 것인가, 여기서 멈춰 설 것인가?
이 책은 AI의 현주소에 대해 명료하고 현실적인 평가를 내놓으면서 새로운 세대의 AI를 통해 인간이
원하는 미래를 설계해 나가는 법에 대한 고무적인 비전을 제시한다. 저자들은 딥러닝으로 설계된 AI는
학습할 데이터 양이 충분히 많아야 하고 패턴을 식별하기 위해 일련의 알고리즘을 필수로 한다는 점에
서 한계가 있기 때문에, 상식과 인지 모델, 추론 능력을 가진 AI로 재설계해야 한다고 주장한다. 저자
들은 데이터가 더 풍부해지고 컴퓨터 클러스터의 속도가 더 빨라지고 천문학적 규모의 투자가 더 많아
진다고 해도 해결할 수 없는 근본적인 문제 - 딥러닝 기반의 기계는 지능 활용에 가장 기본이 되는 상
식과 추론 영역의 한계를 갖고 있음 - 가 남아 있다고 말한다. 아울러 지금 우리는 AI와 공존하는 세
상으로 가는 길 위에 있으며, 다음에 올 순간이 무엇이든 우리는 그것을 안전하고, 믿을 수 있고, 가능
한 한 인류에게 유용한 방향으로 나아가도록 최선을 다해야 한다고 역설한다.

▣ 차례
저자의 글 - AI는 훨씬 더 인간다워져야 한다

-2-

2029 기계가 멈추는 날

제1장 꿈과 현실의 간극에 선 AI - 과대평가된 AI의 문제점 / 기계는 얼마나 인간과 가까워졌나 / ‘닫힌
세계’에 갇혀 있는 인공지능 / 세상의 다양성과 복잡함을 기계가 알 수 있을까 / 지금의 AI 연구는 잘
못된 길로 가고 있다
제2장 진짜 위협인가, 위협적인 척인가? - 터미네이터는 없다 / 의도를 알지 못하는 어리석은 하인 /
지금의 AI를 얼마나 믿을 수 있을까 / 빅데이터를 넘어선 새로운 접근법을 찾아야 할 때
제3장 딥러닝을 너무 믿지 마라 - 지금, 왜 딥러닝에 주목해야 하는가 / 인간의 뇌를 닮은 시스템 /
불가능이 없는 딥러닝의 탄생? / 탐욕스럽고 불안정하며 알 수 없는 존재 / 완전한 지성이 아닌 알고리
즘의 하나일 뿐
제4장 구글은 문맹인가, 언어 천재인가? - 기계는 정말 글을 이해할 수 있을까 / 똑똑한 AI가 제대로
읽지 못하는 이유 / 비유, 상식, 추론을 통합하는 일 / 링크를 찾는 것과 질문을 이해하는 것의 차이 /
시리는 정말 비서가 될 수 있는가 / 추론하지 못하는 구글 번역의 한계 / 인풋과 아웃풋으로 설명할
수 없는 언어의 미묘함 / 지금의 AI가 인간처럼 읽지 못하는 이유 / 인간의 ‘상식’을 기계에게 이해시
키는 일 / 세상을 모르고 언어를 알 수는 없다
제5장 로봇은 정말 ‘다 알아서’ 해줄까? - 인간의 일자리는 아직 안전하다 / 가정용 로봇은 꿈의 영역
일까 / 알고 보면 대단한 로봇청소기의 능력 / 인간에게는 쉬운 일이 로봇에게는 어렵다 / 닫힌 시스
템은 알 수 없는 열린 세계 / AI에게는 큰 도전인 일상적인 업무 / ‘다 알아서 하는 로봇’은 언제쯤 실
현될까
제6장 인간 정신이 주는 11가지 인사이트 - ‘마스터 알고리즘’은 존재하지 않는다 / 기계에는 ‘표상’이
없다 / 세상을 이해하는 도구, 추상화와 일반화 / AI는 유연성을 가지고 생각할 수 있는가 / 규칙과 불
규칙을 통합하는 인간 정신의 비밀 / 단어의 합은 문장이 아니다? / 같은 말도 맥락 안에서 달라진다 /
숨겨진 본질을 간파하는 능력이 필요하다 / 인과성을 학습하는 일의 어려움 / 인간의 경험과 딥러닝의
차이점 / 무에서 유를 만들려 하지 말라
제7장 상식과 딥 언더스탠딩으로 가는 길 - 상식을 ‘코딩’하는 일의 어려움 / 상식을 명확하고 애매하
지 않게 나타내는 방식 / 수천 개의 지식에서 관계를 찾아내는 법 / 시간, 공간 그리고 인과성 / 진보
의 시작은 유동성을 얻는 데 있다 / 계획을 세우고 수정할 줄 아는 로봇 / 시뮬레이션만으로는 부족하
다 / 부정확하고 불완전한 인간이 AI보다 나은 점 /범용지능으로 가는 길
제8장 신뢰할 수 있는 AI를 향해 - AI에도 안전 법규가 필요하다 / AI가 판도라의 상자가 되어서는 안
된다 / 소프트웨어의 신뢰성을 높이는 접근법 / 지름길은 없다 / 버그 없고 위해를 가하지 않는 AI /
로봇이 가져야 할 가치관은 무엇인가 / 진정한 의미의 ‘생각’을 할 수 있는 인공지능 / 더 나은 AI는
있다
감사의 말 / 추천 도서 / 참고문헌 / 주 / 찾아보기 / 이미지 출처

-3-

2029 기계가 멈추는 날

2029 기계가 멈추는 날
게리 마커스, 어니스트 데이비스 지음

꿈과 현실의 간극에 선 AI
기계는 얼마나 인간과 가까워졌나
지난 몇 년 동안 AI는 거의 매일같이, 때로는 정말 놀라운 방식으로 진보해왔다. 게임부터 음성 인식,
얼굴 인식에 이르기까지 모든 방면에서 큰 발전이 있었다. 최근 AI 분야에서 이루어진 이런 성공들 대
부분은 주로 두 분야의 발전 덕분에 가능해졌다. 첫째는 동시에 작동하는 많은 기계를 활용함으로써
더 많은 메모리와 더 빠른 계산을 가능하게 하는 하드웨어의 발전이다. 둘째는 빅데이터, 즉 기가바이
트나 테라바이트(혹은 그 이상)의 자료를 담고 있는 대규모 데이터 세트다.
이런 데이터와 함께 부각된 기술이 데이터를 분석하는 알고리즘, 즉 딥러닝(deep learning)이다. 구글
딥마인드의 알파제로부터 구글이 내놓은 인공지능 비서 구글 듀플렉스까지 지난 몇 년간 AI가 이룬 거
의 모든 진보의 중심에는 딥러닝이 있었다. 그리고 모든 경우에서 성공의 공식은 빅데이터, 딥러닝, 빠
른 하드웨어의 결합이었다. 오늘날 딥러닝은 피부암 진단에서 여진 예측, 신용카드 사기 탐지에 이르
는 다양한 응용 분야에서 꽤 성공적으로 활용되고 있다. 그러나 데이터가 더 풍부해지고 컴퓨터 클러
스터의 속도가 더 빨라지고 투자가 더 많아졌어도 근본적인 문제가 남아 있다.
이런 모든 진전에도 불구하고 기계는 여전히 여러 면에서 인간에 비할 바가 못 된다는 사실이다. 읽기
를 예로 들어보자. 당신이 새로운 문장을 읽거나 들을 경우, 당신의 뇌는 1초도 안 되는 시간에 2가지
유형의 분석을 수행한다. 첫째, 문장을 명사와 동사 등의 구성 요소로 나누고 그들의 의미를 개별적으
로 또 전체적으로 분석한다. 둘째, 당신이 세상에 대해서 알고 있는 것들과 문장의 내용을 연결 지어
서 세부적인 문법 사항들을 모든 실체와 아이디어에 통합한다. 그런데 현재의 AI 프로그램은 이와 같
은 일을 할 수도, 이해할 수도 없다. 지금까지 이루어진 AI 분야에서 진전 대부분은 ‘대상 인식’과 같
은 영역에서 이루어졌는데, 대상 인식은 의미를 이해하는 것과는 전혀 다른 별개의 문제다.
실제 세상에서는 이 2가지, 즉 대상 인식과 진정한 이해 사이의 차이가 매우 중요하다. 예를 들어 현
재 소셜미디어 플랫폼을 작동시키는 AI 프로그램은 클릭 수를 올리는 충격적인 이야기들을 우리에게
제공함으로써 가짜 뉴스를 확산시키는 데 한몫한다. 하지만 그들은 뉴스를 충분히 이해하지 못하기 때
문에 어떤 이야기가 가짜이고 어떤 것이 진짜인지 판단하지 못한다.
운전과 같은 매뉴얼된 일도 대부분의 사람들이 생각하는 것만큼 간단치가 않다. 운전을 할 때 당신이
하는 일의 95퍼센트는 아주 평범하고 일상적인 행동으로 기계가 쉽게 복제할 수 있다. 그러나 전동 킥
보드를 탄 10대가 차 앞으로 뛰어드는 일을 처음 당했을 때라면 어떨까? 현재의 기계는 이런 경우 인
간이라면 마땅히 할 일을 적절히 해내지 못한다. 반면 당신은 이전의 경험이라는 거대한 데이터베이스
가 없어도 강력하고 유연한 세상에 대한 이해를 기반으로 새롭고 예상치 못한 일에 대해 판단하고 행
동을 취할 수 있다. 문제의 핵심을 한마디로 표현하자면 현재의 AI는 ‘제한적’(narrow)이라고 말할 수
있다. AI는 마주치는 상황이 이전에 경험했던 상황보다 지나치게 어렵지 않다는 전제하에 프로그램된

-4-

2029 기계가 멈추는 날

‘특정한 과제’만을 수행할 수 있다. 이럴 경우 바둑처럼 말을 움직이는 게임(2,500년간 규칙이 변하지
않은 과제)을 할 때는 문제가 없다. 하지만 대부분의 현실 상황에서는 전망이 밝지 않다. AI를 다음 단
계로 진보시키려면 훨씬 더 ‘유연한 기계’를 발명해야 한다.
문제는 우리가 지금 갖고 있는 AI에 대한 접근법으로는 그곳으로, 즉 가정용 로봇이나 자동화된 과학
적 발견으로 가지 못한다는 데 있다. 중요한 조각이 아직 빠져 있기 때문이다. ‘제한적인 AI’(Artificial
Narrow Intelligence, 이하 ANI)만으로는 충분하지 않다. 하지만 우리는 신뢰할 수 없고 더 심각하게는
인간에 대한 아무런 이해가 없는 기계에게 점점 더 많은 권한을 넘겨주고 있는 중이다. AI에 투자되는
엄청난 돈이 중대한 이해관계가 걸린 문제에 이용되기에는 불안정하고 애매하고 신뢰성이 너무나 낮은
해법으로 향하고 있는 것이 지금의 현실이다.
‘닫힌 세계’에 갇혀 있는 인공지능
문제의 핵심은 ‘신뢰’다. 우리가 현재 가지고 있는 ANI 시스템은 프로그램된 분야에서는 효과가 좋지만,
프로그래머가 정확히 예견할 수 없는 일에서는 신뢰성이 낮다. 심각한 결과를 불러올 수 있을 상황이
라면 신뢰가 특히 중요하다. AI 시스템이 페이스북을 통해 잘못된 광고를 게재한다고 해서 사람이 죽지
는 않는다. 하지만 데이터베이스에 없는 이상하게 생긴 차를 향해 그대로 돌진하거나 암 환자를 오진
한다면 심각한, 심지어는 치명적인 결과가 초래된다.
현재의 AI가 놓치고 있는 부분(이 분야가 새로운 접근법을 택하지 않는 한 계속 놓치게 될)은 범용
(broad)지능(혹은 일반지능)이다. AI는 엄청난 양의 관련 데이터에 담긴 구체적인 상황만이 아니라, 이
전에 보지 못한 새로운 문제들과 변형된 상황들도 다룰 수 있어야 한다. 참고로 우리가 사는 세상은
근본적으로 열린계(open system)다. 범용지능은 이런 세상에도 유연하게 적응할 수 있다(이는 기계가
아직 접근하지 못하는 인간의 대단한 능력이다). AI가 다음 단계로 진전하기 위해서는 반드시 이 분야
로 가야 한다. 반면 ANI는 바둑과 같은 게임을 할 때 완전히 닫힌계(closed system)를 다룬다.
바둑의 세상은 가로 19줄, 세로 19줄의 격자와 흰 돌, 검은 돌로 이루어져 있다. 규칙은 고정적이며
따라서 많은 가능성을 빠르게 처리하는 능력을 가진 기계가 당연히 유리한 위치에 서게 된다. AI는 바
둑판의 상태를 빠짐없이 파악하며 자신과 상대가 규칙에 따라 취할 수 있는 모든 움직임을 안다. 게임
에서 움직임의 절반은 AI 알고리즘으로 이루어지며, AI는 결과가 어떻게 될지 정확히 예측할 수 있다.
프로그램은 수백, 수천만 번의 게임을 통해서 막대한 양의 데이터를 모으고, 이 데이터는 또다시 AI가
게임을 하게 될 환경을 정확하게 반영한다.
반면에 우리가 사는 현실 세계는 열린계다. 어떤 데이터도 계속 변화하는 세상을 완벽하게 반영하지
못한다. 고정된 규칙이 없고 가능성은 무한하다. 우리는 어떤 상황도 미리 연습할 수 없고, 어떤 상황
에서 어떤 정보가 필요하게 될지 예측할 수도 없다. 뉴스를 읽는 시스템을 예로 들어보자. 지난주에
혹은 지난해에 일어난 모든 일, 아니 기록된 모든 역사를 학습시켜도 새로운 상황이 발생하면 이 시스
템은 무용지물이 된다. 지능이 있는 뉴스 읽기 시스템은 “드라이버를 사용하면 나사를 조일 수 있다.”
에서 “초콜릿 총은 진짜 총알을 발사할 수 없다.”에 이르기까지 이전에 중요한 뉴스로 나온 적이 없더
라도 평범한 성인이라면 알 만한 모든 배경 정보에 대처할 수 있어야만 한다. 이런 유연성이야말로 평
범한 사람이라면 모두 가지고 있는 범용지능의 가장 핵심적인 부분이다.

-5-

2029 기계가 멈추는 날

세상의 다양성과 복잡함을 기계가 알 수 있을까
우리는 기존의 AI 연구가 안전하고 스마트하고 믿을 만한 AI로 향하는 길 위에 있지 않다고 생각한다.
ANI, 즉 제한적 의미의 AI와 쉽게 얻을 수 있는 빅데이터에 대한 단기적 집착이 AI의 진보를 위해 해
결해야 하는 훨씬 더 어렵고 장기적인 문제, 즉 ‘기계에게 세상의 다양성과 복잡함을 가르치는 법’에
대한 관심을 앗아갔다. 그런 깊이 있는 이해 없이는 진정으로 신뢰할 수 있는 AI에 이를 수 없다. 기술
용어로 우리는 ‘국소 최대치’쯤에 갇혀 있는 것 같다. 시도해본 비슷한 방법들보다는 낫지만, 우리를
원하는 곳으로 데려다주기에는 한참 부족한 접근법에 말이다.
지금으로서는 야심과 현실 사이에 엄청난 격차가 있는데, 우리는 이 격차를 ‘AI 캐즘’(chasm, 깊은 틈
이나 큰 차이를 뜻함)이라고 부른다. 이 캐즘은 솔직하게 맞부딪혀야 하는 3개의 개별 과제에 뿌리를
두고 있다. 첫 번째 과제를 우리는 ‘허술한 신뢰 격차(gullibility gap)라고 부른다. 이는 우리 인간이 인
간과 기계를 구분하도록 진화하지 않아서 쉽게 속을 수밖에 없다는 사실에서 출발한다.
우리는 행동의 기반을 아이디어, 믿음, 욕구와 같은 추상적인 부분에 두도록 진화했고, 이런 인간들과
평생을 살아왔기 때문에 컴퓨터에게도 지능이 있다고 생각한다. 기계의 행동이 피상적으로는 인간의
행동과 비슷할 때가 많다 보니, 기계에는 인간이 가진 기본 기제가 없는데도 우리는 기계에 그런 기제
를 적용한다. 인간에게 적용됐을 때는 가치 있는 추론도 AI 프로그램에 적용됐을 때는 완전히 틀릴 수
있다. 사회심리학의 핵심 원리에 경의를 표하는 의미에서 우리는 이것을 기본적 과대 귀인 오류(심리
학 용어인 ‘기본적 귀인 오류’에서 따온 말)라고 부른다.
두 번째 문제를 우리는 ‘착각적 진보 격차’(illusory progress gap)라고 부른다. 쉬운 문제에 관한 AI의
진보를 어려운 문제에 관한 진보로 오인하는 현상이다. 왓슨에 대한 IBM의 과도한 전망에서 이런 오류
가 나타났다. 《제퍼디!》에서 보인 진전을 언어의 이해에 있어서 실제보다 큰 진전으로 받아들인 것이
다. 딥마인드의 알파고도 그 비슷한 길을 따를 가능성이 보인다. 바둑과 체스는 ‘완벽한 정보’가 주어
진 게임이다. 그러나 현실 세계에서는 아무도 어떤 것을 절대적으로 확실하게 알 수 없다. 우리의 데
이터는 잡음이 많고 불완전한 경우가 많다. 대단히 간단한 경우에도 많은 불확실성이 존재한다.
구름이 뒤덮인 날 병원에 걸어갈지 지하철을 탈지 정한다고 생각해보라. 우리는 지하철이 오는 데 시
간이 얼마나 걸릴지, 붐비는 사람들 틈에 끼어 있게 될지, 걸어간다면 비에 얼마나 홀딱 젖게 될지, 우
리가 늦었을 때 의사가 어떤 반응을 보일지 정확히 알지 못한다. 우리는 그때그때 주어진 상황에 따라
행동한다. 그에 비해 딥마인드의 알파고가 하듯이 혼자서 100만 번 바둑을 두는 일은 예측 가능한 일
이다. 거기에서는 불확실성이나 불완전한 정보와 마주할 일이 없다.
AI 캐즘의 세 번째 원인 제공자는 ‘신뢰성 격차’(robustness gap)다. 우리는 사람들이 AI에 관해서 어떻
게 생각하는지를 여러 번 목격했다. 사람들은 몇 가지 경우에 효과적인 해법을 찾기만 하면, 약간의
작업(그리고 약간의 데이터)을 더해 모든 경우에도 효과적인 AI를 얻을 수 있다고 쉽게 가정해버린다.
하지만 꼭 그런 것은 아니다. 자율주행차를 생각해보라. 한산한 도로에서 정확하게 차선을 지키는 시
범 자율주행차를 만드는 일은 비교적 쉬운 일이다. 하지만 도전적이거나 예상하기 힘든 상황에서도 작
동하게 만들기란 훨씬 더 어려운 일이다. 듀크대학교 인간 및 자율성 연구소의 소장인 미시 커밍스가
표현했듯이, 문제는 해당 자율주행차가 사고 없이 얼마나 먼 길을 갈 수 있느냐가 아니라, 그 차가 얼
마나 ‘적응성’이 있느냐다. 그녀의 말대로 오늘날의 반(半)자율주행차는 “극히 제한적인 조건하에서만

-6-

2029 기계가 멈추는 날

작동하며 이는 그 차가 다른 운전 환경이나 조건에서 어떻게 작동할지에 대해서는 아무것도 말해주지
않는다.” 이런 혼란, 즉 자율주행차가 이상적인 상황(맑은 날 한적한 국도)에서 기능하는 방식과 그들
이 극단적인 상황에서 할 수 있는 일 사이의 혼란이 전체 업계에서 성공과 실패 사이의 차이를 만들
수 있다. 극단적인 조건에 주의를 기울이지 않고 까다로운 조건에서 성과를 보장하는 방법론에 크게
관심을 두지 않은 상태라면, 신뢰하기 힘든 자율주행차 구축 기술에 수십억 달러의 자금이 낭비되고
있을 가능성이 높다. 우리에게는 신뢰성의 가장 사소하고 작은 조각까지 충족시키는 전혀 다른 기술이
필요한 것일지도 모른다. 자동차는 하나의 예일 뿐이다.
지금의 AI 연구는 잘못된 길로 가고 있다
이와 같은 AI 캐즘을 극복하려면 위태로운 부분에 대한 명확한 의식, 기존 시스템이 그 일을 처리할
수 없는 이유에 대한 명확한 이해, 그리고 새로운 전략, 이 세 가지가 반드시 필요하다. 일자리, 안전,
사회구조의 측면에서 중대한 문제가 걸려 있기 때문에 독자들과 정책 결정권자들은 하루빨리 기술의
현실적인 상태를 이해해야 하며, 우리 모두가 AI에 대해 비판적으로 생각하는 방식을 배워야 한다. 현
명한 시민이라면 통계를 이용해 사람들을 오도하는 것이 얼마나 손쉬운지 아는 일만큼이나 AI에 대한
과대 선전과 진실을 구분하고, 현재 AI가 할 수 있는 것과 할 수 없는 것을 파악하는 일도 중요하다.
결정적으로 AI는 마법이 아니다. AI는 일련의 엔지니어링 기법과 알고리즘에 불과하다. 그 기법과 알고
리즘들은 각기 그만의 강점과 약점을 가지며, 어떤 문제에는 적합하나 다른 문제에 대해서는 그렇지
못하다. 우리가 이 책을 집필하게 된 가장 큰 이유 중 하나는 우리가 읽은 AI에 대한 논의들 대부분이
상상으로 그린, 따라서 기존의 기술적 역량에서는 전혀 얼토당토않은 AI의 장점만을 기반으로 하는 완
벽한 ‘공상’이라는 인상을 주었기 때문이다. AI에 대한 대중적 논의의 대부분은 범용지능에 이르는 과정
이 매우 어려운 일이라는 현실에 발을 딛고 있지 않았다.
확실히 해둘 것이 있다. 이런 모든 이야기를 밝히기 위해서는 비판적인 입장을 취할 수밖에 없지만,
우리는 AI 자체를 반대하는 입장은 아니다. 아니 오히려 AI를 좋아한다. 우리는 오랫동안 AI 연구에 몰
두해왔고 AI가 발전하는 것을 가능한 한 빨리 보고 싶다. 간단히 말해 우리는 AI가 정말로 세상을 매우
중요한 방식으로 변화시키고 진정한 진보가 이루어지려면 많은 ‘기본적 가정’들이 변해야 한다고 믿는
다. 이 책이 전하는 메시지는 이 분야의 셔터를 닫으라는 주장(그런 식으로 받아들이는 사람도 있겠지
만)이 아니라, 막혀 있는 부분에 대한 진단이며 보다 낫게 만들 수 있는 방법에 대한 처방이다.

상식과 딥 언더스탠딩으로 가는 길
상식을 ‘코딩’하는 일의 어려움
사람들은 AI의 시초부터 상식의 문제에 대해 염려해왔다. ‘인공지능’이라는 말을 만든 존 매카시는
1959년 처음으로 이 문제에 대한 주의를 촉구하기 시작했다. 하지만 진전은 눈에 띄게 적었다. 클래식
AI (Classical AI)도 딥러닝도 큰 진보를 이루지 못했다. 추상적 지식을 통합시킬 직접적인 방법이 없는
딥러닝은 대개 그 문제를 외면했다. 클래식 AI는 여러 가지 접근법을 밀고 나가며 노력을 해봤지만 어
떤 것도 특별히 성공적이진 못했다. 그중 한 가지 접근 방식은 웹을 돌아다니면서 일상적인 지식을 배
우는 것이었다. 2011년 시작된 NELL(Never-Ending Language Learner)은 기계에게 상식을 가르치는
가장 광범위한 프로젝트로 머신러닝의 선구자 중 한 명인 톰 미첼 카네기멜론대학교 교수가 이끌고 있

-7-

2029 기계가 멈추는 날

다. NELL은 매일(이 프로젝트는 지금도 진행 중이다) 웹에서 문서를 찾아 읽으며 특정 언어 패턴을 찾
고 그것이 무엇을 의미하는지 추측한다. 예로 ‘뉴욕, 파리, 베를린과 같은 도시’라는 구절을 보면 NELL
은 뉴욕, 파리, 베를린이 모두 도시라고 추론하고 이를 데이터베이스에 추가한다. 만약 ‘뉴욕 제츠
(New York Jets)의 쿼터백 켈런 클레먼스’라는 구절을 보면 NELL은 켈런 클레먼스가 뉴욕 제츠에서 뛰
고 있다는 사실(현재 시점에서 NELL은 시간 감각이 없다)과 그가 쿼터백이라는 사실을 유추할 수 있
을 것이다. 기본 아이디어는 합리적이지만 결과는 그리 뛰어나지 못하다.
상식적인 지식을 수집하는 접근법으로 요즘 유행하는 또 다른 접근법은 ‘크라우드소싱’을 이용하는 것
이다. 크라우드소싱이란 기본적으로 일반 사람들에게 도움을 청하는 것을 의미한다. 가장 눈에 띄는
프로젝트는 1999년부터 MIT 미디어랩에서 진행해온 콘셉트넷(ConceptNet)일 것이다. 자원자들은 이
프로젝트가 운영하는 웹사이트에서 영어로 단순한 상식적인 사실을 입력한다. 예로 한 참가자는 ‘밥은
감기에 걸렸다. 밥은 의사에게 갔다’라는 이야기의 이해와 관련이 있는 사실들을 제공하라는 요청을
받고 ‘감기에 걸린 사람들은 기침을 한다’, ‘약으로 아픈 사람에게 도움을 줄 수 있다’와 같은 사실들을
답으로 내놓는다(영어 문장은 이후 패턴 매칭 과정을 통해 자동으로 기계 코딩으로 전환된다). 이 경우
도 아이디어는 타당해 보이지만 결과는 실망스러웠다.
한 가지 문제는 훈련받지 않은 일반인들에게 단순히 사실들을 열거해달라고 하면 사람들은 컴퓨터가
정말로 필요로 하는 지식이 아니라 ‘오리너구리는 알을 낳는 포유류다’라거나 ‘탭이란 새벽에 울리는
나팔 소리다’와 같이 쉽게 발견되는 사실들을 나열하는 경향이 있다는 점이다. 컴퓨터에게 정말 필요
한 지식은 ‘무엇이 죽은 후에는 다시 살아날 수 없다’나 ‘윗부분이 열려 있고 다른 곳에는 개구부가 없
는 불침투성 용기에는 액체를 담을 수 있다’처럼 인간에게는 당연하지만 웹에서는 찾기 어려운 정보들
이다. 둘째로 일반인이 적절한 종류의 정보를 주도록 유도할 수 있다고 하더라도, 컴퓨터가 요구하는
대단히 정밀하고 세심한 주의를 요하는 방식으로 정보를 진술하기가 어렵다는 문제가 있다.
다른 팀에서 진행 중인 것으로 MIT에 기반을 둔 최근의 프로젝트로 버츄얼홈(VirtualHome)이 있다. 이
프로젝트 역시 크라우드소싱을 이용해서 냉장고 안에 식료품을 넣거나 상을 차리는 단순한 활동의 ‘절
차’에 대한 정보를 수집한다. 그들은 300가지 물건과 2,700가지 유형의 상호 작용이 포함된 500가지
과제에 대한 총 2,800가지 절차를 수집했다. 기본적인 행동이 게임 엔진으로 연결되어 있기 때문에
(때로는) 실행 중인 절차를 동영상으로 볼 수도 있다. 여기에서도 결과는 많은 아쉬움을 남겼다.
또 다른 접근법은 고도로 숙련된 사람들에게 컴퓨터가 해석할 수 있는 형태로 모든 것을 적도록 하는
것이다. 존 매카시에서 시작해서 오늘날 어니스트와 그의 많은 동료들, 헥터 레베스크, 조 할펀, 제리
홉스에 이르기까지 많은 AI 이론가들이 바로 이런 일을 하기 위해 노력하고 있다. 솔직히 여기에서도
‘집’이라는 영역에서의 진전은 우리가 바랐던 것에 한참 못 미치고 있다.
이 분야에서 지금까지 가장 큰 규모로 이루어진 연구는 CYC라고 알려진 프로젝트다. 더그 레너트가
지휘하는 이 프로젝트는 지난 30년간 인간과 닮은 상식의 거대한 데이터베이스를 만드는 데 목표를
두었다. 여기에는 AI와 철학 분야의 교육을 받은 일단의 사람들이 일일이 손으로 주의 깊게 코딩한, 말
그대로 수백만 개의 사실(테러, 의학 기술, 가족 관계에 이르기까지)이 포함되어 있다. 그런데 그 분야
의 대부분 연구자들은 이 프로젝트를 실패로 여기고 있다. 그 안에 무엇이 있는지에 관해 발표된 내용
이 아주 적긴 하지만(이 프로젝트는 대부분 비밀리에 수행된다). 어쨌든 들어간 노력에 비하면 그것이

-8-

2029 기계가 멈추는 날

무엇을 할 수 있는지를 보여주는 증거가 너무 빈약하기 때문이다. ‘광범위하고 신뢰할 만한 상식적 지
식의 데이터베이스에 어떻게 이르는가’ 하는 미스터리는 여전히 풀리지 않고 있다. 그렇다면 다음은
무엇일까? 우리가 간단하고 명쾌한 해답을 갖고 있다면 좋겠지만 안타깝게도 그렇지 못하다. 어떤 단
일한 혹은 간단한 접근법으로 족할 것 같지는 않다. 인간의 상식 자체가 대단히 다양하기 때문에 단일
한 어떤 기법이 갑자기 나타나 이 분야가 수십 년 동안 고전해온 문제를 해결하지는 못할 것이다. 상
식은 이 분야가 넘어야 할 거대한 산이다.
범용지능으로 가는 길
적절한 추론을 하고, 지식을 표상하는 적절한 방법을 찾고, 적절한 영역(시간, 공간, 지식 등)에 초점
을 맞추는 것 모두가 우리가 강화된 인지 모델과 딥 언더스탠딩, 패러다임의 전환에 이르는 데 도움을
줄 수 있다. 그리고 거기에 이르기 위해 필요한 것이 또 하나 있는데, 바로 학습이 어떻게 이루어지는
지에 대한 근본적인 재고다. 우리는 직면하는 모든 영역에서 굳이 백지 상태부터 시작하기보다는 기존
의 지식을 활용하는 새로운 종류의 학습을 발명해야 한다. 기존 머신러닝 연구의 목표는 이와 정반대
인 경우가 많았다. 대부분의 연구자들과 엔지니어들은 0에서부터 시작하려고 노력하면서 구체적이고
제한적인 과제에 집중했다. 사전 지식이 전혀 없이 유튜브 동영상만 보고 알아야 할 모든 것을 학습하
는 어떤 마법과 같은 시스템(현재는 어떤 형태로도 존재하지 않는 것)을 상상하는 것이다. 하지만 이런
일이 가능하다는 증거도, 이런 방향으로의 어떤 진전이 있다는 증거도 존재하지 않는다.
진보를 위해서는 학습에 대한 더욱 정교한 지식 기반 접근법이 필수적이다. CYC에 대한 경험이 말해
주듯이 기계가 알아야 하는 모든 지식을 손으로 일일이 코딩하는 것은 현실적이지 못하다. 기계는 스
스로 많은 것을 학습할 수 있어야 한다. 예리하고 단단한 날이 부드러운 물질을 자를 수 있다는 사실
은 인간이 코딩하더라도, 이후 AI는 그 지식을 기반으로 삼아 칼, 치즈 강판, 잔디 깎는 기계, 믹서가
어떻게 작동하는지 인간이 코딩하지 않아도 학습할 수 있어야 한다.
역사적으로 AI는 수동 코딩과 머신러닝이라는 양극단 사이를 오갔다. 칼의 작동 방법에서 유추해 잔디
깎기 작동법을 학습하는 일은 라벨이 붙은 많은 사진을 집어넣어 개의 종을 분류하는 시스템을 개선하
는 일과는 전혀 다르다. 지나치게 많은 연구가 전자를 배제하고 후자에만 몰두했다. 칼 그림에 라벨을
다는 것은 픽셀의 공통 패턴에 대한 학습의 문제일 뿐이다. 칼이 ‘무슨 일을 하는지’ 이해하기 위해서
는 형태와 기능, 그들이 어떤 연관을 갖는지에 대한 더 심층적인 지식이 필요하다. 칼의 용도와 위험
성을 이해하는 것은 많은 사진을 축적하는 것이 아닌 인과관계의 이해와 학습에 대한 문제다.
결혼식을 계획하는 디지털 비서라면 결혼식에는 전형적으로 칼과 케이크가 필요하다는 것만 알아서는
안 된다. 이 디지털 비서는 그 칼이 케이크를 자르기 위해서 거기에 있다는 ‘이유’를 알아야만 한다.
케이크가 결혼식용 특별 밀크셰이크로 대체되면 이전 데이터에서 칼과 결혼식의 상관관계가 아무리 높
다 해도 칼은 필요하지 않다. 신뢰할 수 있는 디지털 비서는 칼은 집에 두고 빨대를 잔뜩 가져가야 한
다는 것을 인식할 만큼 밀크셰이크에 대해 충분히 이해하고 있어야 한다. 거기에 이르기 위해서는 학
습을 완전히 새로운 수준으로 끌어올려야 한다.
결국 인간 정신의 연구에서 얻은 교훈은 모든 일에 ‘타협’이 필요하다는 것이다. 우리에게 필요한 것은
0에서부터 모든 것을 학습해야 하는 백지 상태의 시스템도, 생각할 수 있는 모든 우발적 상황을 미리
완전히 시뮬레이션한 시스템도 아니다. 그보다는 개념적이고 인과적 수준에서 새로운 것을 학습할 수

-9-

2029 기계가 멈추는 날

있게 해주는 강력한 본유의 토대를 갖춘 주의 깊게 구조화된 하이브리드 모델이다. 즉, 단순히 분리된
사실들만이 아니라, 이론을 학습할 수 있는 시스템을 추구해야 하는 것이다. 개별 사람, 장소, 물건을
추적하는(클래식 AI에서는 표준이지만 머신러닝은 철저히 멀리했던) 시스템 같은, 스펠크가 강조했던
‘핵심’(core) 시스템이 좋은 출발점일 것이다.
상식, 궁극적으로는 ‘범용지능’에 이르는 우리의 레시피는 이렇게 요약할 수 있다. 첫 번째 단계에서는
인간 지식 그러니까 시간, 공간, 인과성, 물리적 사물과 그들의 상호작용에 대한 기본적 지식, 인간과
그들의 상호작용에 대한 기본적 지식의 핵심 체계를 나타낼 수 있는 시스템을 개발한다. 둘째, 추상성,
구상성, 개별 추적에 대한 중심 원리를 항상 염두에 두면서 이런 것들을 온갖 종류의 지식으로 자유롭
게 확장될 수 있는 아키텍처에 집어넣는다. 셋째, 복잡하고 불확실하고 불완전한 지식을 다룰 수 있고,
하향식, 상향식으로 모두 자유롭게 작동할 수 있는 강력한 추론 기법을 개발한다. 그리고 이들을 인식,
조종, 언어와 연결한다. 이들을 이용해서 세상에 대한 강화된 인지 모델을 구축한다.
그 후 마지막 단계에 이르러 인간에게 영감을 받는 종류의 학습 시스템을 만드는 것이다. 이 시스템은
AI가 가지고 있는 모든 지식과 인지 역량을 이용하고, 학습한 지식을 이전 지식에 통합하고, 아이들처
럼 모든 가능한 정보로부터 탐욕스럽게 학습하고, 세상과 상호작용하고, 사람과 상호작용하고, 책을
읽고, 비디오를 보고, 가르침을 받는다. 이 모든 것이 합쳐지면 거기에서 딥 언더스탠딩을 얻을 수 있
다. 분명 무리한 요구다. 하지만 반드시 해야 할 일이다.

신뢰할 수 있는 AI를 향해
상식을 가지고 어떤 일이 벌어지는지 정말로 이해하는 기계들이라면 통계에만 의지하는 기계들보다 훨
씬 믿음직하고 분별 있는 결과를 만들어낼 가능성도 훨씬 높다. 하지만 우리가 먼저 생각해봐야 할 다
른 구성 요소들이 몇 가지 있다. 살펴보면 다음과 같다.
AI에도 안전 법규가 필요하다
신뢰할 수 있는 AI는 법규와 업계의 표준을 따르는 좋은 엔지니어링 관행에서 출발해야 한다. 그러나
현재는 법규와 업계 표준이 제대로 갖추어져 있지 않다. 지금까지의 AI 대다수는 단기적인 해법으로만
이루어져 있다. 다른 분야에서는 당연히 여겨지는 ‘기술 보증’이라는 필수적인 단계 없이 당장 시스템
을 작동시키는 코드로만 이루어진 것이다. 따라서 AI는 다른 분야의 엔지니어들이 일을 하는 방법에서
많은 것을 배워야 한다. 다른 자동차를 인식하는 자동 운전 시스템은 새로운 자동차 모델이 출시될 때
마다 빠짐없이 업데이트를 해야 한다. 원래의 프로그래머가 없을 경우 새로 들어온 직원도 그가 설치
한 것을 어떻게 고쳐야 하는지 반드시 알아야 한다. 그러나 지금의 AI는 빅데이터와 딥러닝이 지배하
고 있어 오류 검출이 어렵고 유지, 보수가 까다로운, 해석하기 힘든 모델이 나오고 있다.
소프트웨어의 신뢰성을 높이는 접근법
우리는 특히 한 소프트웨어 엔지니어링 기법이 AI의 안전에 크게 기여하리라고 조심스레 낙관하고 있
다. 프로그램 검증(program verification)으로 알려진 이 일련의 기법들은 프로그램의 정당성을 공식적
으로 검증하는 일을 하는데, 적어도 지금까지는 머신러닝보다 클래식 AI에 더 적합하다. 그런 기법들
은 형식 논리를 이용해 컴퓨터 시스템이 정확하게 작동하는지, 좀 더 소규모로는 컴퓨터 시스템이 특

- 10 -

2029 기계가 멈추는 날

정 종류의 버그로부터 자유로운지 검증해왔다. 우리 저자들은 이러한 프로그램 검증이 해당 AI 구성
요소가 의도한 일을 하게 될 가능성을 높이는 데 사용될 수 있기를 희망한다. AI 연구자들은 딥 언더스
탠딩의 도구들을 통해 기계들이 소프트웨어의 정확성, 신뢰성에 대해 추론할 수 있게 하는 새로운 접
근법에 대해서도 진지하게 고민해야 한다. 최소한 기술이 발전함에 따라 시스템이 특정한 종류의 실수
는 피한다는 증명은 가능해질 것이다. 예를 들어 정상적인 상황에서 로봇은 넘어지거나 물건에 부딪치
지 않을 것이고, 기계 번역의 결과에는 문법적 오류가 없다고 증명할 수 있을 것이다. 그리고 좀 더 낙
관하자면 AI의 인지 능력 자체가 우리를 더 멀리로 데려갈 수 있을지도 모른다. 소프트웨어가 다양한
범위의 환경에서 어떻게 작동할지 상상하고, 숙련된 소프트웨어 설계자의 능력을 모방해 코딩과 디버
깅을 개선하는 정도로까지 말이다.
로봇이 가져야 할 가치관은 무엇인가
사실 딥러닝 대신 딥 언더스탠딩을 가진 프로그램이라면 현재의 AI가 하는 명백한 바보짓과 부적절한
행동의 대부분은 사라질 것이다. 누군가에게 생일을 축하한다고 말할 때와 ‘사망한’의 의미가 무엇인지
를 안다면 아이폰은 “생일 축하해요, 사망한(dead) 시어도어.”라는 자동 교정을 하지 않을 것이다. 알
렉사가 사람들이 어떤 사람과 어떤 내용을 소통하는지에 대해 안다면, 가족 간의 대화를 임의의 친구
에게 전송하기 전에 재확인 절차를 거칠 것이다. 우리가 우리 자신과 마찬가지로 다른 사람도 신뢰할
수 있는 데에는 같은 증거가 있다면 다른 사람도 대개는 우리와 같은 결론을 내릴 것이라는 생각이 큰
몫을 한다. 기계를 신뢰할 수 있으려면 그들에게도 같은 기대를 할 수 있어야 한다.
신뢰할 수 있는 인지 시스템을 만드는 일은 세상에 대한 심층적인 이해, 즉 딥 언더스탠딩이 있는 시
스템을 만드는 데에서 출발해야 한다. 그러나 이 분야의 핵심이 되어야 하는 딥 언더스탠딩이 현재 AI
에 대한 전체 연구에서 차지하는 비중은 아주 작다. 마지막으로 기계를 신뢰할 수 있기 위해서는 기계
에 윤리적 가치관이 주입되어야 한다. 상식적 지식은 사람을 건물에서 떨어뜨리면 죽을 수 있다는 것
을 알려준다. 하지만 그것이 좋지 못한 생각이라는 판단을 내리는 데에는 ‘가치관’이 필요하다.
로봇의 기본 가치관을 언급한 대표적 사례로는 1942년 SF 작가 아이작 아시모프의 소설에 등장한 다
음과 같은 ‘로봇공학의 3대 원칙’이 있다. ① 로봇은 인간에게 위해를 가해서는 안 되며 인간이 해를
입게 방치해서도 안 된다. ② 제1원칙에 위배되지 않는 한, 로봇은 인간이 내린 명령에 복종해야만 한
다. ③ 제1원칙과 제2원칙에 위배되지 않는 한, 로봇은 자신을 보호해야 한다.
로봇이 일상에서 반드시 해야 하는 간단한 윤리적 결정들에 대해서는 아시모프의 원칙을 문제없이 적
용할 수 있다. 로봇이 누군가의 집으로 걸어갈 때는 도중에 다른 행인을 밀쳐서는 안 된다. 그것이 로
봇과 동반하는 사람을 집에 더 빨리 도착하게 하는 방법이라도 말이다. ‘거짓말하지 않는다. 부정행위
를 하지 않는다. 훔치지 않는다. 상해를 입히지 않는다’ 이렇게 위해를 가하게 되는 특별한 상황들을
피하는 간단한 처방만으로도 대단히 많은 상황을 아우를 수 있다.
하지만 피츠버그대학교의 윤리학자 데릭 레벤이 지적했듯이, 다른 많은 경우에서는 상황이 모호해지기
시작한다. 신체적 상해 이외에 로봇이 고려해야 할 위해에는 어떤 것이 있을까? 재산 손실, 명예 훼손,
고용 상실, 친구를 잃는 것? 로봇이 고려해야 하는 간접적 위해에는 어떤 것이 있을까? 로봇이 얼음이
언 보도에 커피를 쏟아서 누군가가 그것을 밟고 넘어졌다면 그것은 제1원칙 위반일까? 인간이 해를
입게 방치하지 말아야 하는 범위는 어디까지일까? 지금 이 문장을 읽고 있는 동안에도 네 명의 사람이

- 11 -

2029 기계가 멈추는 날

죽을 것이다. 그들의 죽음을 막는 것이 로봇의 임무일까? 자율주행차(바퀴가 달린 로봇)가 자신이 존
재할 수 있는 모든 장소에 대해서 깊이 생각해야 한다면 차는 도로로 나서지 못할 것이다.
그 외에도 여러 가지 도덕적 딜레마가 존재한다. 로봇이 모슨 일을 하든 누군가는 위해를 입는 여러
상황이 있다. 저자 게리가 철학자 필리파 풋의 고전적인 트롤리 딜레마에 대한 정의의 표시로 『뉴요
커』에 소개했던 예가 있다. 어린이들이 가득 타고 있는 스쿨버스가 다리 위에서 통제력을 잃고 차로
돌진하고 있는 상황에서 자율주행차는 어떻게 해야 할까? 차는 자신과 주인을 희생해서 어린 아이들을
구해야 할까, 아니면 어떤 대가를 치르더라도 자신과 주인을 보호해야 할까? 이 경우에는 아시모프의
제1원칙이 큰 도움이 되지 않는다. 어느 쪽이든 인간의 생명이 반드시 희생되기 때문이다. 실생활에서
마주치는 도덕적 딜레마도 명쾌하지 않기는 마찬가지다. 당장의 문제는 이런 미묘한 사안이 아니다.
지금 해야 할 일은 AI가 ‘명백한 의미에서’ 비윤리적인 일을 하지 않도록 하는 것이다.
한편 법적 관례에 대한 업데이트도 필요할 것이다. 열린 세상에서 인간과 상호작용하는 AI라면 일련의
핵심 가치관을 이해하고 존중하도록 법률로 강제되어야 한다. 예를 들어 절도나 살인에 대한 기존의
금지는 사람에게 적용되는 것과 마찬가지로 인공지능(그리고 그것을 설계하고, 개발하고, 사용할 사람)
에게도 적용되어야 한다. 더 심층적인 AI를 갖게 되면 우리는 기계에도 가치관을 주입할 수 있을 것이
다. 하지만 그 가치관들은 그들을 만들고 운영하는 사람들과 기업들, 그들을 둘러싼 사회적 구조와 장
려책에도 반영되어야 한다.
더 나은 AI는 있다
우리는 어린 시절 SF소설이나 영화를 통해 AI를 접했고 이루어진 기술들에 경탄했으며 실현되지 않은
기술에 호기심을 가져왔다. 스마트워치에 들어간 많은 메모리와 연산력, 네트워킹 기술은 우리를 놀라
게 했다. 우리는 음성 인식 기술이 이렇게 빨리 보편화될 줄 예상하지 못했다. 하지만 진정한 기계 지
능의 실현은 우리가 처음 AI에 대해 생각했을 때 기대했던 것보다 훨씬 더 먼 미래의 일이다.
우리가 가장 두려워하는 것은 기계가 우리 인간을 말살하거나 클립으로 만드는 것이 아니라, AI에 대한
우리의 기대가 우리의 능력을 넘어서는 것이다. 기존 AI 시스템들은 상식 비슷한 것조차 가지고 있지
않다. 그럼에도 그들에 대한 우리의 의존도는 점차 높아지고 있다. 진짜 위험은 초지능이 아니라 ‘힘을
가진 어리석은 하인’, 즉 자신을 제어할 가치관 없이 사람들을 표적으로 삼을 수 있는 자율 무기나 장
기적인 가치에 미치는 영향을 평가하지 않고 단기적인 판매만을 우선시하는 AI 주도의 뉴스피드 등이
다. 지금 우리는 일종의 공백기에 있다. 네트워크고 자율성을 가졌으나 힘의 결과에 대해서 추론할 진
정한 지능은 거의 없는 좁은 지능의 상태에 있는 것이다. 머지않아 AI는 더욱 정교해질 것이다. 자기
행동의 결과에 대해 추론할 수 있게 될 날은 빨리 올수록 좋다.
이 모든 것이 이 책의 주제와 연관된다. 우리는 지금의 AI연구가 대체로 잘못된 길을 가고 있다고 주
장해왔다. 기존 연구와 노력의 대부분은 한정된 과제를 수행하고 우리가 딥 언더스탠딩이라고 부르는
것이 아닌, 빅데이터에 주로 의존하는, 비교적 지적이지 않은 기계를 만드는 데 집중되고 있다. 우리는
그것이 큰 실수라고 생각한다. 그 방향이 일종의 ‘사춘기 AI’로 이어질 가능성 크기 때문이다. 자신의
장점이 무엇인지 모르고, 자기 행동의 결과를 심사숙고할 수단을 갖지 못한 기계로 말이다.
단기적인 해법은 우리가 만드는 AI에게 입마개를 씌우는 것이다. 심각한 결과가 따르는 일은 할 수 없

- 12 -

2029 기계가 멈추는 날

게 하고, 발견되는 개별적 오류를 수정하는 것이다. 하지만 이것은 장기적으로 실행할 수는 없는 방법
이며 단기적으로도 포괄적인 해법이 아닌 반창고를 붙이는 수준일 뿐이다. 이런 난장판을 벗어나는 유
일한 방법은 상식, 인지 모델, 강력한 추론 도구들을 갖춘 기계를 만드는 일을 하루빨리 시작하는 것
이다. 이 모든 것을 합치면 딥 언더스탠딩에 이를 수 있다. 딥 언더스탠딩은 자신의 행동 결과를 예측
하고 평가할 수 있는 기계를 만드는 전제 조건이다. 이 프로젝트는 이 분야가 통계나 빅데이터에 대한
심각한, 그러나 피상적인 의존으로부터 탈피해야만 비로소 시작될 수 있다. 위험한 AI에 대한 치료제
는 더 나은 AI이며, 더 나은 AI로 가는 가장 올바른 길은 세상을 진정으로 이해하는 AI를 통해서만 가
능하다.


- 13 -

2029 기계가 멈추는 날

반응형

'책,영화,리뷰,' 카테고리의 다른 글

D2C 레볼루션  (0) 2021.09.25
AI 피보팅  (0) 2021.09.25
200가지 고민에 대한 마법의 명언  (0) 2021.09.25
100만 팔로워 마케팅  (0) 2021.09.25
50 나를 인정할 시간  (0) 2021.09.25