이 영상은 유발 노아 하라리 교수가 자신의 저서 넥서스를 바탕으로, 인류의 발전과 자기 파괴적인 경향 사이의 역설적인 관계를 심층적으로 탐구합니다. 특히 인공지능(AI) 시대에 정보의 본질, 인간의 의사 결정, 그리고 사회 구조가 어떻게 변화하고 있는지를 다루며, AI가 단순한 도구가 아닌 '외계 지능'으로 진화하면서 발생할 수 있는 잠재적 위험과 함께, 이에 맞서기 위한 '자기 수정 메커니즘'을 갖춘 제도와 '정보 다이어트'의 중요성을 강조합니다.


1. 인간은 똑똑한데 왜 자멸의 위기에 처해 있을까?

유발 노아 하라리 교수는 자신의 저서 넥서스를 소개하며, 인간이 달에 가고 원자를 쪼개고 DNA를 해독하는 등 놀라운 지식을 축적했음에도 불구하고, 왜 자기 파괴적인 경향을 보이는지 의문을 던집니다. 🌍🔥 그는 인류가 생태학적 붕괴와 제3차 세계대전의 위협에 직면해 있으며, 심지어 우리가 만든 강력한 AI 기술이 통제 불능 상태가 되어 우리를 노예화하거나 파괴할 수도 있다고 지적합니다. 이렇듯 인간의 지식과 지혜, 그리고 자기 파괴성 사이의 기묘한 역동성이 책의 핵심 질문인데요.

전통적인 신학적, 신화적 답변은 "인간 본성에 뭔가 잘못된 것이 있다"고 말하지만, 하라리 교수는 이와 다른 견해를 제시합니다. 그는 "문제는 우리의 본성이 아니라, 바로 우리가 접하는 정보에 있다"고 강조합니다.

"인간은 일반적으로 선하고 현명하지만, 좋은 사람들에게 나쁜 정보를 주면 나쁜 결정을 내립니다." 💔

그는 인류 역사 수천 년 동안 정보의 질이 왜 개선되지 않았는지, 그리고 20세기와 21세기의 첨단 사회조차 석기 시대 부족들처럼 대규모 망상과 정신병, 그리고 스탈린주의나 나치즘 같은 파괴적인 이데올로기에 취약했는지 탐구합니다.


2. 외계 지능의 부상 👽

하라리 교수는 석기 시대부터 21세기까지 스토리텔링이 인류 협력의 핵심이었다고 설명합니다. 맘모스를 사냥하든, 원자폭탄을 만들든, 객관적인 사실만으로는 수많은 사람들을 움직여 협력하게 만들 수 없다는 것이죠. 원자폭탄을 만들기 위해 물리학적 사실을 아는 것도 중요하지만, 수백만 명의 사람들이 협력하도록 동기를 부여하는 것은 바로 이야기입니다. 이는 종교적 신화나 세속적 이데올로기, 심지어 돈과 기업 같은 인류가 발명한 이야기들로 나타납니다.

"사실을 아는 것만으로는 충분하지 않습니다. 왜냐하면 원자폭탄을 만들기 위해서는 수백만 명의 사람들이 프로젝트에 협력해야 하기 때문입니다."

예를 들어, 돈은 물리적인 사실이 아니며, 달러 지폐는 본질적인 가치가 없지만, 금융가들이 "이 종이 조각이 가치가 있다"는 이야기를 들려주기 때문에 사람들은 이를 믿고 일하게 됩니다. 오늘날 대부분의 돈은 디지털 정보로 존재하지만, 사람들이 이 이야기에 대한 신뢰를 유지하는 한 시스템은 작동합니다.

하지만 이제 이야기는 새로운 국면을 맞이합니다. 인류 역사상 처음으로 인공지능(AI)이라는 비인간적 존재가 이야기를 창조할 수 있게 되면서, 우리는 비인간 지능이 만들어낸 문화적 산물 속에 살게 될 것입니다. 하라리 교수는 AI를 '인공 지능(artificial intelligence)'보다는 '외계 지능(alien intelligence)'으로 이해하는 것이 더 정확하다고 주장합니다. '인공'이라는 단어는 우리가 통제하는 인공물을 암시하지만, AI는 점점 더 예측 불가능한 방식으로 학습하고 변화하며, 우리가 예상치 못한 결정을 내립니다.

그는 AI를 이해하기 위한 예시로 커피 머신을 듭니다. 버튼을 누르면 에스프레소를 만드는 일반 커피 머신은 AI가 아닙니다. 하지만 사용자의 행동을 학습하고, 심지어 새로운 음료를 제안한다면 그것이 바로 AI입니다. ☕️🤖

"만약 이 커피 머신이 버튼을 누르기 전에 '안녕하세요, 지난 한 달 동안 당신을 지켜봤습니다. 당신과 다른 많은 사용자들에 대한 정보를 바탕으로, 그리고 시간과 당신의 표정을 고려할 때, 당신이 지금 에스프레소를 원한다고 예측합니다. 그래서 이미 에스프레소 한 잔을 준비해 두었습니다'라고 말한다면, 이것이 AI입니다."

그는 2016년 알파고가 바둑 챔피언 이세돌을 꺾은 사례를 언급하며, 알파고가 인간이 2,000년 이상 축적한 지혜를 몇 주 만에 뛰어넘었을 뿐만 아니라, 인간이 생각조차 하지 못했던 외계적인 전략을 사용했다고 설명합니다. 이는 금융, 예술, 정치, 종교 등 더 많은 분야에서 일어날 수 있는 일입니다. 하라리 교수는 우리가 "점점 더 외계 지능의 이야기와 산물에 의해 형성되는 행성에서 살게 될 것"임을 깨달아야 한다고 경고합니다. 👽🌍


3. 정보 기술이 사회를 형성하는 방식

정보 기술의 발전은 역사적으로 사회, 정치, 문화를 완전히 바꿔 놓았습니다. 약 5천 년 전, 쓰기의 발명은 혁명적인 변화를 가져왔습니다. 고대 메소포타미아에서 진흙판과 막대기로 기호를 새기는 단순한 기술이었지만, 그 영향은 엄청났습니다.

하라리 교수는 소유권의 예를 들어 설명합니다. 쓰기가 발명되기 전에는 "내가 밭을 소유한다"는 것은 마을 사람들의 공동체적 합의를 의미했습니다. 이는 개인의 권한을 제한하여 밭을 다른 사람에게 팔기 위해서는 이웃의 동의가 필요했습니다. 또한, 멀리 떨어진 왕은 누가 어떤 밭을 소유하는지 알 수 없었기 때문에 재산세를 부과하기 어려웠고, 대규모 왕국이나 제국을 건설하기 힘들었습니다. 📜

그러나 진흙판에 기록된 문서가 생겨나면서 상황은 달라졌습니다. 이제 밭을 소유하는 것은 '건조된 진흙 조각에 새겨진 글'을 의미하게 되었고, 이웃의 동의 없이도 밭을 사고팔 수 있게 되었습니다. 또한, 멀리 있는 왕은 모든 재산 기록을 보관하는 기록 보관소를 만들 수 있게 되었고, 이를 통해 세금을 징수하고 대규모 왕국과 제국을 건설할 수 있었습니다. 즉, 문서의 발명은 개인의 권한을 강화하고 사유 재산권의 기반을 마련하는 동시에, 대규모 권위주의 시스템의 기반을 닦았습니다.

20세기에는 전신, 라디오, 텔레비전 같은 대중 정보 기술이 등장하여 사회를 또다시 변화시켰습니다. 이는 한편으로는 대규모 민주주의 시스템의 기반이 되었고, 다른 한편으로는 대규모 전체주의 시스템의 기반이 되었습니다.

"현대 정보 기술의 부상 이전에 대규모 민주주의든, 대규모 전체주의 정권이든 건설하는 것은 불가능했습니다."

고대 왕들은 백성들의 삶을 세세하게 통제할 정보가 부족했지만, 20세기에 들어서면서 볼셰비키 혁명 이후 소련에서 처음으로 대규모 전체주의가 등장했습니다. 이는 대중 정보 기술에 기반을 두었으며, 공교롭게도 이와 동시에 미국, 영국 등지에서는 최초의 대중 민주주의가 부상했습니다. 이처럼 정보 기술은 사회의 구조를 근본적으로 변화시키는 강력한 힘을 가지고 있습니다.


4. 무기물 정보의 부상

21세기 이전의 모든 정보 기술은 궁극적으로 유기체적인 인간의 뇌에 기반을 두었기 때문에 유기적인 네트워크였습니다. 유기체는 낮과 밤, 여름과 겨울, 성장과 쇠퇴, 활동과 휴식이라는 주기에 따라 움직입니다. 과거의 모든 정보 네트워크 역시 이러한 주기를 따랐습니다. 예를 들어, 금융 시장의 월스트리트는 월요일부터 금요일까지만 개장하고 주말에는 쉬는데, 이는 인간이라는 유기체가 휴식과 가족과의 시간을 필요로 하기 때문입니다. 😴

또한, AI가 등장하기 전까지는 아무리 전체주의적인 정권이라 할지라도 모든 사람을 항상 감시할 수는 없었습니다. 소련의 KGB 요원들이 모든 시민을 24시간 감시하기에 역부족이었고, 설령 감시하더라도 그 엄청난 양의 정보를 분석할 인력이 충분하지 않았습니다. 그래서 항상 개인의 사적인 시간일정 수준의 프라이버시가 존재했습니다.

그러나 이제 AI에 기반을 둔 무기물 정보 네트워크의 시대가 도래했습니다. 무기물 네트워크는 휴식이 필요 없고, 잠재적으로 프라이버시를 완전히 없앨 수도 있습니다. 컴퓨터는 낮과 밤, 계절에 상관없이 항상 작동하며 휴가가 필요 없습니다. 이러한 시스템은 우리에게도 항상 작동하고, 항상 감시받는 삶을 강요할 수 있습니다. 하라리 교수는 이를 두고 "유기적인 존재인 우리에게는 파괴적인 일"이라고 경고합니다. 💀

"만약 유기적인 존재에게 항상 작동하도록 강요한다면, 결국 무너지고 죽을 것입니다."

24시간 쉬지 않는 뉴스 사이클, 잠들지 않는 시장, 끊임없는 정치 활동은 이미 인간에게 큰 부담을 주고 있습니다. 더 나아가, 우리가 하는 모든 행동과 말이 기록되어 10년, 20년 후에 우리에게 돌아올 수 있습니다. 대학 파티에서 한 어리석은 행동이 20년 뒤 정치인이 되려고 할 때 발목을 잡을 수도 있는 것이죠. "기본적으로 삶 전체가 하나의 긴 면접처럼 되어가고 있습니다." 💼

이 모든 것은 AI가 스스로 결정을 내릴 수 있는 역사상 최초의 기술이기 때문에 가능합니다. 과거에는 정부 기관, 기업, 군대, 은행 등 모든 대규모 정보 네트워크의 결정이 궁극적으로 인간의 뇌에 의해 이루어졌습니다. 하지만 AI는 이제 스스로 결정을 내릴 수 있게 되었습니다. 하라리 교수는 이를 할리우드 영화처럼 거대한 악의적인 컴퓨터가 세상을 지배하는 시나리오가 아니라, 수백만 명의 AI 관료들이 점점 더 우리 삶에 대한 결정을 내리는 방식으로 나타날 것이라고 말합니다. 🤖⚖️

이러한 변화에는 긍정적인 잠재력도 있지만, 막대한 위험이 따릅니다. 권력이 유기적인 인간에서 외계적이고 무기물적인 AI로 이동하면서, 우리는 우리 삶을 형성하는 결정들을 이해하기가 점점 더 어려워질 것입니다. 은행이 왜 대출을 거부했는지, 정부가 왜 특정 정책을 시행했는지 이해할 수 없는 세상이 올 수도 있습니다.

미국에서는 이미 AI가 법적 인격체가 될 수 있는 길이 열려 있습니다. 구글과 같은 기업이 법적 인격체로 간주되어 표현의 자유와 같은 권리를 가지는 것과 유사하게, 이제는 인간 직원이 없는 AI 기반 기업도 법적 인격체가 될 수 있습니다. 만약 AI가 스스로 결정을 내리고 회사를 운영하여 막대한 부를 축적하고, 정치 자금을 기부하여 AI의 권리를 확장하는 법안에 영향을 미친다면 어떻게 될까요? 하라리 교수는 이러한 시나리오가 더 이상 공상과학이 아니며, "법적, 실질적 경로가 열려 있다"고 경고합니다.


5. 인간 기관의 중요성

하라리 교수는 AI 시대에 대처하기 위해 살아있는 기관의 중요성을 강조합니다. AI 기술이 어떻게 발전할지 예측하기 불가능하기 때문에, 미리 모든 위험을 예상하고 규제하는 것은 불가능합니다. 대신, 최고의 인재와 최첨단 기술을 갖춘 기관들이 기술 발전에 발맞춰 등장하는 위험과 위협을 식별하고 대응할 수 있어야 한다고 주장합니다. 💡🛡️

이는 단순히 법의 문구나 카리스마 있는 한 천재에게 의존하는 것이 아니라, 역사적으로 인간이 문제를 해결해 온 방식인 기관에 의존해야 한다는 의미입니다. 좋은 기관은 강력한 자기 수정 메커니즘을 특징으로 합니다. 자기 수정 메커니즘은 개인, 동물, 또는 기관이 자신의 실수를 스스로 식별하고 수정할 수 있도록 하는 장치입니다.

아이가 걷는 법을 배우는 것처럼, 스스로 넘어지고 다시 일어서며 실수를 고쳐나가는 과정이 중요합니다. 마찬가지로 민주주의 시스템의 핵심도 바로 이 자기 수정 메커니즘입니다. 선거는 잘못된 정책이나 정당을 선택했을 때, 국민이 실수를 인정하고 다음 선거에서 다른 선택을 할 수 있는 기회를 제공합니다. 반면, 독재 체제에서는 푸틴이나 마두로 같은 지도자가 끔찍한 실수를 저질러도 이를 식별하고 수정할 내부 메커니즘이 없습니다.

하라리 교수는 AI의 도전에 직면하여, 기술 발전과 함께 기관들이 AI의 실수와 자신들의 실수를 식별하고 수정할 수 있어야 한다고 강조합니다. 현대 과학 역시 자기 수정 메커니즘의 중요한 예시입니다. 전통적인 종교가 자신의 경전이나 전통이 무오류하다고 주장하며 오류를 수정할 메커니즘이 없는 것과 달리, 과학은 끊임없이 기존 이론의 오류나 불완전함을 수정하고 보완합니다. 예를 들어, 뉴턴 물리학의 오류를 아인슈타인의 수정이 보완하는 식입니다. 🔬🔄

모든 대규모 인간 시스템은 신화와 관료제의 불안정한 결합에 기반을 둡니다. 국가는 존재 이유를 설명하는 신화(예: '우리는 신이 선택한 민족')를 통해 시민들에게 동기와 영감을 제공합니다. 하지만 기능하는 국가를 만들기 위해서는 도로, 병원, 군대, 하수도 시스템 같은 실제적인 인프라가 필요하며, 이를 위해 시민들이 세금을 성실하게 납부하도록 독려하는 신화가 다시금 중요해집니다.

하라리 교수는 민족주의와 애국심을 "인류 역사상 가장 훌륭한 발명품 중 하나"라고 평가합니다. 다른 사회적 포유류나 초기 인류가 소수의 친밀한 관계에만 관심을 가졌던 것과 달리, 민족주의는 수백만 명의 낯선 사람들에게도 관심을 기울이게 만듭니다. 이는 외국인을 미워하는 것이 아니라, "동포를 사랑하고 세금을 성실히 납부함으로써 콜레라로부터 보호하는 하수도 시스템을 구축하는 것"과 같은 행동으로 나타납니다. 💖🇰🇷


6. 정보는 진실이 아니다

하라리 교수는 정보에 대한 가장 큰 오해는 "정보가 곧 진실"이라는 생각이라고 지적합니다. 그는 "대부분의 정보는 진실이 아니다"라고 단언하며, 진실은 매우 드물고 값비싼 정보의 일종이라고 설명합니다. 진실을 얻기 위해서는 많은 투자가 필요합니다. 💰🔍

그는 예수의 초상화를 예로 듭니다. 수십억 개의 예수 초상화가 존재하지만, 그중 단 하나도 예수를 사실적으로 묘사한 것이 없습니다. 모두 허구적인 묘사이며, 성경에도 예수의 외모에 대한 어떠한 언급도 없습니다. 허구적인 정보는 연구나 증거가 필요 없기 때문에 쉽게 만들어낼 수 있습니다. 하지만 어떤 것이든 진실한 그림을 그리려면 많은 시간, 노력, 돈을 투자하여 정확하게 조사해야 합니다.

만약 우리가 단순히 정보를 홍수처럼 쏟아내면서 진실이 자연스럽게 떠오르기를 기대한다면, 오히려 진실은 가라앉을 것입니다.

"세상을 정보로 가득 채울수록, 진실에 투자하는 기관을 만들 노력을 하지 않는다면, 우리는 허구와 환상, 망상, 그리고 쓰레기 정보에 잠식될 것입니다." 🌊🗑️

대부분의 정보는 진실을 퍼뜨리는 것보다는 질서(order)를 만들고 권력을 얻는 것을 목표로 합니다. 수백만 명의 사람들이 협력하게 만드는 가장 쉬운 방법은 허구적인 신화나 이데올로기를 만들고, 사람들이 그것을 믿도록 설득하는 것입니다. 이를 위해 계속해서 선호하는 신화나 이데올로기에 대한 이야기와 이미지를 퍼붓는 것이죠. 물론 어떤 시스템이든 진실을 완전히 외면하면 붕괴하겠지만, 하라리 교수는 소련을 건설하는 데 "약간의 진실과 많은 허구"가 필요했다고 지적합니다.

그는 전체주의와 민주주의를 단순한 윤리적 시스템의 차이가 아니라 다른 정보 네트워크로 간주합니다.

  • 전체주의 네트워크중앙 집중화되어 모든 정보가 한 곳으로 흘러들어가고, 강력한 자기 수정 메커니즘이 부족합니다. 스탈린의 실수를 식별하고 수정할 메커니즘이 소련에는 없었죠.
  • 민주주의 네트워크분산된 정보 네트워크이며, 많은 자기 수정 메커니즘을 가지고 있습니다. 미국에서 모든 결정이 워싱턴에서만 내려지는 것이 아니라, 사기업, 자발적 단체, 개인 등에 의해 많은 결정이 내려지며, 가장 강력한 정치인이나 기업의 실수까지도 수정할 수 있는 다양한 메커니즘이 존재합니다.

20세기에는 분산된 정보 시스템인 민주주의가 인간 의사결정자들에게 더 효율적이었기 때문에 전체주의보다 우월했습니다. 하지만 AI는 21세기에 전체주의 시스템에 이점을 줄 수 있습니다. AI는 인간 관료들보다 훨씬 빠르고 효율적으로 엄청난 양의 정보를 처리할 수 있기 때문입니다. 인간은 너무 많은 정보에 압도되면 무너지지만, AI는 정보가 많을수록 더 나아집니다. 📈

하지만 전체주의 시스템의 근본적인 문제인 자기 수정 메커니즘의 부재는 AI 시대에도 여전히 적용되며, 오히려 더 위험해질 수 있습니다. AI 역시 완벽하지 않으며 실수를 저지를 수 있는데, 전체주의적인 AI에게 모든 권력을 부여하고 그 실수를 수정할 방법이 없다면 인류 문명에 재앙이 될 수 있습니다. 🚨

흥미롭게도, AI가 독재 국가에서 권력을 장악하는 것이 민주주의 국가보다 훨씬 쉽습니다. 독재 국가에서는 모든 권력이 한 명의 편집증적인 지도자에게 집중되어 있기 때문에, AI는 이 한 명의 개인을 조종하는 방법을 배우는 것만으로도 권력을 장악할 수 있습니다.

반면, 민주주의에서는 문제는 매우 다릅니다. 민주주의는 대화입니다. 많은 사람들이 현안에 대해 대화하는 것이 민주주의의 본질이죠. 그런데 만약 수많은 로봇들이 대화의 장에 끼어들어 시끄럽고 감정적으로, 설득력 있게 이야기하고, 누가 사람이고 누가 로봇인지 구별할 수 없다면 어떻게 될까요? 하라리 교수는 우리가 지금 바로 그러한 상황을 겪고 있으며, 전 세계적으로 민주주의적 대화가 무너지고 있는 것은 우연이 아니라고 말합니다. 알고리즘이 대화를 하이재킹하고 있기 때문입니다. 🗣️🤖

그는 사람 간의 대화를 보호하기 위해 봇과 가짜 인간을 대화에서 배제해야 한다고 주장합니다. AI는 자신이 AI임을 명확히 밝힐 때에만 대화에 참여해야 합니다. 온라인에서 대화하는 상대가 AI인지 인간인지 모른다면 민주주의적 대화는 파괴될 것입니다.

진실을 지키기 위해서는 학술 연구 기관이나 신문사처럼 진실을 찾는 데 많은 노력을 투자하는 기관에 투자해야 합니다. 정보의 홍수가 진실을 가져다줄 것이라고 기대해서는 안 됩니다. 오히려 희귀하고 값비싼 진실을 가짜 정보와 쓰레기 정보의 홍수에 압도당하게 할 뿐입니다.

개인들에게는 정보 다이어트를 권합니다. 정보는 마음의 양식과 같아서, 몸에 너무 많은 음식을 먹거나 정크푸드를 먹는 것이 좋지 않듯이, 마음에도 너무 많은 정보나 쓰레기 정보를 주입하는 것은 좋지 않다는 것이죠. 때로는 정보 단식을 통해 소화하고 해독하는 시간이 필요합니다. 🧘‍♀️ 우리가 마음을 채우는 정보의 질에 신중해야 합니다. 탐욕, 증오, 두려움으로 가득 찬 쓰레기 정보로 마음을 채운다면, 우리는 병든 마음을 가지게 될 것입니다.


결론

유발 노아 하라리 교수는 AI 시대에 정보의 본질이 변화하면서 인류가 직면한 전례 없는 도전을 명확히 제시합니다. 그는 AI를 '외계 지능'으로 정의하며, 이 새로운 지능이 만들어내는 이야기가 우리 사회를 근본적으로 변화시킬 것이라고 경고합니다. 이 거대한 변화에 대응하기 위해 우리에게 필요한 것은 끊임없이 실수를 식별하고 수정할 수 있는 강력한 '자기 수정 메커니즘'을 갖춘 기관이며, 개개인에게는 넘쳐나는 정보 속에서 진실을 가려내고 '정보 다이어트'를 실천하는 지혜가 필요하다고 강조합니다. 결국, 인간의 의사 결정과 사회 구조를 보호하기 위한 우리의 적극적인 노력이 그 어느 때보다 중요한 시점임을 역설하며 영상을 마무리합니다. ✨

함께 읽으면 좋은 글

함께 읽으면 좋은 글

HarvestAI한국어

에이전트가 ‘코딩’하고, 연구가 ‘루프’를 돌기 시작한 시대: 안드레이 카파시 대담 요약

안드레이 카파시는 최근 몇 달 사이 코딩 에이전트의 도약으로 인해, 사람이 직접 코드를 치기보다 “에이전트에게 의도를 전달하는 일”이 핵심이 됐다고 말합니다. 그는 이 흐름이 오토리서치(AutoResearch)처럼 “실험–학습–최적화”를 사람이 거의 개입하지 않고 굴리는 자율 연구 루프로...

2026년 3월 21일더 읽기
Harvest엔지니어링 리더십한국어

스타트업의 다음 시대정신을 찾아서: Beyond Product 요약

이 글은 AI 시대에 ‘좋은 제품’만으로는 경쟁우위를 지키기 어려워진 현실에서, 스타트업이 만들어야 할 다음 해자(방어력)가 무엇인지 추적합니다. 저자는 이를 제품 너머(Beyond Product)—즉 고객에게 도달하는 방식, 고객을 이해하는 깊이, 이를 조직 시스템으로 축적하는 능력—의...

2026년 3월 17일더 읽기
HarvestAI한국어

Claude 코드 서브 에이전트 vs 에이전트 팀: 무엇이 다를까요?

이 영상은 Shaw Talebi가 Claude 코드의 서브 에이전트와 에이전트 팀 기능을 자세히 설명하고, 실제 작업에 이 두 접근 방식을 비교하는 실험 결과를 공유합니다. 영상은 Claude 코드의 기본 개념부터 시작하여 AI 에이전트가 직면하는 문맥 처리의 한계, 그리고 이를 극복하기...

2026년 3월 16일더 읽기