이 영상은 저명한 AI 전문가이자 탐사 저널리스트인 카렌 하오(Karen Hao)가 스티븐 바틀렛(Steven Bartlett)과의 대담을 통해 자신의 책 『EMPIRE OF AI: Inside the Reckless Race For Total Domination』에 담긴 인공지능(AI) 산업의 어두운 면을 폭로하는 내용입니다. 하오는 AI 기업들이 단순히 이윤 추구를 넘어 "제국주의적 의제"를 가지고 대중을 기만하고 있다고 주장하며, AI 발전이 가져올 수 있는 사회적, 환경적 폐해와 이에 대한 안전한 AI 개발 방향을 제시합니다.


1. AI 산업의 불편한 진실: 이윤과 통제의 제국

AI 산업은 겉으로는 인류의 발전과 번영을 약속하지만, 실제로는 이윤 추구통제력 강화라는 이면의 동기로 움직이고 있다고 카렌 하오는 지적합니다. AI 기업들은 인류에게 잠재적인 위협이 될 수 있다는 점을 역설하면서도, 이를 오직 자신들만이 안전하게 개발할 수 있는 유일한 주체인 것처럼 포장하고 있다는 것이죠.

하오는 AI 산업이 인용합니다.

"오늘날 AI 산업에서 벌어지는 많은 일들은 극도로 비인도적입니다."

AI 기업들은 자신들의 모델 훈련을 위해 예술가, 작가, 창작자들의 지적 재산권을 침해하고, 막대한 양의 노동력을 착취하며, 심지어 해고된 직원들이 자신들이 해고된 바로 그 업무를 AI 모델에 가르치는 모순적인 상황을 만들어내고 있습니다. 이로 인해 많은 사람이 일자리를 잃거나, 새로 만들어지는 일자리조차 이전보다 훨씬 열악한 경우가 많다고 합니다. 또한, 이러한 AI 기술의 개발은 환경 및 공중 보건 위기를 야기하며, 기업들은 자신들의 이익을 위해 수억 달러를 들여 관련 법안을 저지하고, 비판적인 연구자들을 억압하는 등 제국주의적인 방식으로 운영되고 있습니다.


2. 카렌 하오의 AI 연구 여정: MIT에서 월스트리트 저널까지

카렌 하오는 MIT에서 기계 공학을 전공한 뒤 실리콘 밸리의 한 스타트업에 합류하면서 기술 산업에 발을 들였다고 합니다. 하지만 기후 변화 문제 해결을 목표로 했던 회사가 수익성 부족으로 CEO를 해고하는 것을 보며, 기술 혁신이 과연 공익을 위한 것인지, 아니면 단지 이윤 추구를 위한 것인지 근본적인 의문을 품게 되었다고 합니다.

"만약 이 허브(실리콘 밸리)가 궁극적으로 수익성 있는 기술을 만드는 데 중점을 두고 있고, 제가 해결되어야 한다고 생각하는 세상의 많은 문제들, 예를 들어 기후 변화 같은 문제들이 수익성이 없는 문제라면, 우리는 여기서 도대체 무엇을 하고 있는 걸까요? 혁신이 반드시 공익을 위해 작동하지 않고 때로는 이윤 추구를 위해 공익을 훼손하는 지경에 이르렀을까요?"

이후 글쓰기에 대한 관심으로 저널리즘으로 전향한 그녀는 MIT 테크놀로지 리뷰에서 AI 전문 기자로 일하며, 기술 개발의 주체, 자본과 이데올로기가 기술 생산에 미치는 영향, 그리고 혁신 생태계를 재구상하여 전 세계 모든 사람에게 이익이 되도록 하는 방법을 탐구하게 됩니다. 그녀의 책 『EMPIRE OF AI』는 이러한 8년간의 심층적인 취재와 250명이 넘는 인터뷰를 통해 탄생했는데, 특히 OpenAI의 현직 및 전직 직원 90명 이상과의 인터뷰를 통해 OpenAI의 내부 이야기를 심도 깊게 다루고 있다고 합니다. 😮


3. AGI 신화: 모호한 정의와 샘 올트먼의 전략

AI의 역사는 1956년 다트머스 대학교에서 존 매카시(John McCarthy) 교수가 "인공지능(Artificial Intelligence)"이라는 용어를 사용하며 시작되었습니다. 당시부터 AI는 인간 지능의 재현을 목표로 했지만, 인간 지능에 대한 명확한 과학적 합의가 없다는 문제가 있었다고 합니다. 카렌 하오는 이러한 모호성을 지적하며, AI 기업들이 AGI(인공 일반 지능)라는 개념을 마케팅 도구로 활용하고 있다고 주장합니다.

"이 분야에는 목표 지점이 없고, 궁극적으로 인간만큼 똑똑한 AI 시스템을 재현하려 한다고 말할 때 업계에도 목표 지점이 없습니다. 우리는 그게 무엇을 의미하는지 어떻게 정의할까요? 그리고 목적지를 정의할 줄 모른다면 언제쯤 거기에 도달할까요? 그리고 그것이 의미하는 바는 사실상 이 회사들이 AGI라는 용어를 마음대로 사용할 수 있다는 것입니다."

샘 올트먼은 AGI의 정의를 상황에 따라 다르게 사용했습니다. 의회 앞에서는 "암을 치료하고, 기후 변화를 해결하며, 빈곤을 없앨 시스템"이라고 말했고, 소비자들에게는 "최고의 디지털 비서"로 홍보했으며, 마이크로소프트와의 투자 협상에서는 "수천억 달러의 수익을 창출할 시스템"이라고 정의했습니다. OpenAI 웹사이트에서는 "대부분의 경제적으로 가치 있는 작업에서 인간보다 뛰어난 고도로 자율적인 시스템"이라고 설명하기도 했습니다. 이러한 정의의 모호함은 AI 기업들이 규제를 피하고, 더 많은 자본과 소비자 참여를 유도하기 위한 전략으로 사용되었다는 것이 하오의 설명입니다.

특히, 샘 올트먼은 2015년 OpenAI 설립 이전 블로그 게시물에서 AI가 인류의 가장 큰 위협 중 하나라고 언급하며 일론 머스크의 AI에 대한 불안감을 자극했습니다. 당시 머스크는 AI를 "악마를 소환하는 것"에 비유하며 AI의 위험성을 경고하고 있었는데, 올트먼은 이러한 머스크의 주장에 동조하는 듯한 언어를 사용하며 그를 OpenAI의 공동 창립자로 끌어들였다는 분석입니다. 머스크는 결국 OpenAI에 막대한 자금을 기부했지만, 후에 올트먼이 자신의 언어를 조작하여 자신을 설득하고, 심지어 자신을 OpenAI에서 축출하기 위해 노력했다고 느끼며 깊은 배신감을 느꼈다고 합니다.


4. 샘 올트먼 축출 시도와 OpenAI의 내부 갈등

OpenAI의 공동 창립자 중 한 명인 일리아 수츠케버(Ilya Sutskever)는 샘 올트먼의 행동과 리더십에 깊은 우려를 표하며, 그가 "AGI의 버튼을 눌러서는 안 되는 사람"이라고 생각했다고 합니다. 수츠케버는 올트먼이 회사 내부에 극도의 혼란을 야기하고, 팀들을 서로 경쟁시키며, 직원들 간의 불신을 조장하고 있다고 판단했습니다. 특히, 올트먼이 외부에는 AGI를 인류를 위한 기술로 포장하면서도, 내부적으로는 AGI 개발이라는 목표와 안전성을 동시에 훼손하고 있다고 느꼈다고 하네요.

결국 수츠케버는 독립 이사회 이사였던 헬렌 토너(Helen Toner)에게 올트먼에 대한 우려를 전달했고, 다른 임원들과의 협력으로 올트먼을 해고하려는 시도가 있었습니다. 그들은 OpenAI가 일반 기업이 아닌, "세계를 만들거나 망가뜨릴 수 있는" 기술을 개발하고 있다는 점에서 올트먼의 혼란스러운 리더십이 용납될 수 없다고 판단했습니다. 특히 올트먼이 OpenAI 스타트업 펀드를 자신의 개인 펀드처럼 운영하는 등, 그의 행동과 대외적인 발언 사이에 일관성이 없다는 점도 해고 결정에 영향을 미쳤다고 합니다.

이사회는 올트먼의 설득력을 두려워해 아무에게도 알리지 않고 그를 해고했지만, 이는 마이크로소프트를 포함한 투자자들과 나머지 임직원들의 거센 반발을 불러일으켰고, 결국 올트먼은 며칠 만에 CEO로 복귀했습니다. 이 과정에서 올트먼에 반대했던 수츠케버와 미라 무라티(Mira Murati)는 결국 회사를 떠나게 됩니다.

카렌 하오는 이러한 내부 갈등을 통해, OpenAI의 초기 멤버들이 각자 자신만의 AI 비전을 가지고 있었으며, 올트먼과의 의견 충돌 이후 각자의 회사를 설립하는 계기가 되었다고 설명합니다. 일론 머스크는 XAI를, 다리오 아메데이(Dario Amodei)는 Anthropic을, 일리아 수츠케버는 Safe Super Intelligence를 설립했습니다. 이는 AI 개발에 대한 통제권을 확보하려는 개인의 욕망과 비전의 충돌을 보여주는 사례라고 합니다.


5. AI 기업의 기만적인 담론: "악마 소환"의 이중성

AI 기업들은 종종 "악마를 소환한다"는 표현을 사용하여 AI의 위험성을 경고합니다. 하지만 카렌 하오는 이러한 담론이 대중을 기만하고 권력을 공고히 하기 위한 전략이라고 분석합니다.

"나는 그들이 악마를 소환하고 있다는 것을 알고 있는가? 음, 그들은 고의적으로 대중에게 그러한 감정을 불러일으키려 노력하고 있습니다. 왜냐하면 그것이 그들의 힘의 중요한 부분이기 때문입니다."

AI 기업들은 한편으로는 "만약 우리가 하지 않으면 중국이 할 것이다"라고 말하고, 다른 한편으로는 "다른 사람이 하면 재앙이 될 것이다"라고 말하며, 결국 오직 자신들만이 AI 개발을 통제해야 한다는 논리를 펼칩니다. 이러한 주장은 일반적인 예측이 아니라, 대중에게 더 많은 권력과 자원을 자신들에게 위임하도록 설득하기 위한 전략적인 언어 행위라는 것이 하오의 주장입니다. 그녀는 이러한 담론을 영화 『듄(Dune)』의 신화 만들기에 비유하며, AI 리더들이 스스로 만들어낸 신화에 결국 자신들도 빠져든다고 설명합니다.

"AI 세계에서 무슨 일이 일어나는지 생각합니다. 한편으로는 이러한 임원들이 신화를 적극적으로 만들고 있습니다. 왜냐하면 그들은 기술의 눈부신 시연을 보여주고, 정말 좋은 소리를 낼 사명을 만들고, 사람들이 회사에 더 많은 관용을 베풀도록 유도하는 방법을 아주 잘 알고 있기 때문입니다. 그들은 신화를 만들고 있다는 것을 알고 있습니다. 그리고 저는 그들 중 많은 사람들이 그 신화에 빠져든다고 생각합니다."

하오는 또한 AI 기술의 발전 속도가 매우 빠르다는 점을 인정하지만, AI가 인간처럼 스스로 학습하고 모든 영역에서 지능을 확장하는 것은 아니라고 강조합니다. AI는 특정 목적을 위해 데이터를 학습하고 훈련될 때만 해당 기능을 수행할 수 있으며, 이는 기업들이 이윤이 되는 특정 산업(금융, 법률, 의료, 상업 등)에 집중적으로 투자하여 모델을 훈련시킨 결과라고 합니다.


6. AI 시대의 일자리: 양극화와 인간성 상실

카렌 하오는 AI가 일자리에 미치는 영향에 대해 단순한 자동화 이상의 복잡한 문제라고 말합니다. AI 모델의 기술적 역량뿐만 아니라, 기업 경영진의 의사결정과 대중을 향한 수사(rhetoric)가 중요한 역할을 한다는 것입니다. 그녀는 AI로 인해 일자리가 대량으로 사라지거나, 새로 생겨나는 일자리조차 이전보다 훨씬 열악해지는 노동 시장의 양극화 현상을 우려합니다.

클라나(Klarna) CEO 세바스찬 시미아트코프스키(Sebastian Siemiątkowski)의 사례를 인용하며, AI가 고객 서비스 업무의 70%를 처리하게 되면서 직원의 절반 이상이 줄어든 이야기를 나눕니다. 이러한 변화는 소프트웨어 생산 비용을 거의 제로로 만들고, 수작업으로 이루어지던 코딩 작업이 기계 생산으로 대체되는 등 산업 전반에 걸쳐 일어나고 있다고 합니다. 하지만 시미아트코프스키는 동시에 인간과의 연결을 원하는 사람들을 위해 "탁월하게 준비된 인간적인 경험"을 제공하는 것의 중요성도 강조합니다. 🧑‍💻

하오는 이러한 변화 속에서 기업의 리더들은 AI를 활용하여 더욱 인간적인 삶을 영위할 수 있게 되는 반면, 해고된 노동자들은 "데이터 주석(Data Annotation)"과 같은 열악한 일자리로 내몰리게 된다고 설명합니다. 데이터 주석은 AI 모델을 훈련시키기 위해 사람이 일일이 데이터를 분류하고 레이블링하는 작업인데, 이러한 작업은 매우 반복적이고 낮은 임금을 받으며, 심지어 고학력자들도 생계를 위해 이 일에 뛰어들고 있다고 합니다.

"마케터는 해고되고, 데이터 주석 회사에서 일하며, 자신이 해고된 바로 그 업무를 모델에 훈련시킵니다. 그러면 그 모델이 해당 기술을 개발하면 더 많은 해고가 영구화됩니다."

이러한 상황은 노동자들의 인간성을 박탈하고, 자율성과 존엄성을 훼손하며, 불안감과 스트레스를 가중시킨다고 하오는 강력히 비판합니다. 그녀는 AI가 가져오는 변화의 속도가 너무 빨라서 사회가 적절하게 대응하기 어렵고, 이는 결국 사회적 불평등을 더욱 심화시킬 것이라고 경고합니다.


7. AI의 환경 파괴와 불평등 심화

AI 기술의 개발은 단순히 일자리에만 영향을 미치는 것이 아니라, 환경과 공중 보건에도 심각한 위협을 가하고 있습니다. AI 모델 훈련에 필요한 막대한 컴퓨팅 자원은 엄청난 양의 전력을 소비하고, 이는 곧 탄소 배출 증가로 이어집니다. OpenAI의 대규모 데이터 센터가 건설되는 텍사스 애빌린(Abilene)의 사례나, 일론 머스크가 그록(Grok) 훈련을 위해 멤피스에 건설한 슈퍼컴퓨터 콜로서스(Colossus)의 사례는 이러한 환경 문제의 심각성을 잘 보여줍니다.

"이 시설은 완공되면 1기가와트 이상의 전력을 소비하게 되는데, 이는 뉴욕시 전력의 20% 이상입니다."

특히, 이러한 데이터 센터는 주로 취약한 지역사회에 건설되어, 해당 지역 주민들의 전력 비용을 증가시키고, 전력망 안정성을 저하시키며, 심지어 깨끗한 물 자원마저 고갈시키는 결과를 초래합니다. 멤피스의 콜로서스 사례에서는 메탄가스 터빈이 가동되면서 지역 주민들이 유독성 물질에 노출되어 호흡기 질환과 암 발병률이 증가하는 등 심각한 공중 보건 문제가 발생했다고 합니다. 😥

하오는 AI가 현재와 같은 방식으로 발전하면 "가진 자와 가지지 못한 자"의 격차가 더욱 극심해질 것이라고 경고합니다. 부유한 기업 경영자들은 AI 덕분에 더 많은 부와 자유를 누리며 "더 인간적인" 삶을 살 수 있지만, 대부분의 사람들은 AI를 위한 노동에 종사하며 인간성을 상실하고, 환경 파괴와 삶의 질 저하에 시달리게 될 것이라는 거죠.


8. AI 제국의 해체와 새로운 개발 방향 모색

카렌 하오는 AI가 가져올 수 있는 이러한 문제들을 해결하기 위해 "AI 제국을 해체하고 대안을 개발해야 한다"고 강력히 주장합니다. 그녀는 AI를 "교통수단"에 비유하며, 로켓과 같은 대규모 AI 모델(GPT-4 등)만이 아니라, 자전거와 같이 효율적이고 친환경적인 AI 모델도 충분히 개발될 수 있다고 말합니다.

예를 들어, 딥마인드의 알파폴드(AlphaFold)는 아미노산 서열을 기반으로 단백질 접힘을 예측하는 AI 시스템으로, 약물 개발 및 질병 연구에 엄청난 공헌을 했지만, 대규모 언어 모델처럼 방대한 데이터를 필요로 하지 않아 적은 자원으로도 큰 이점을 제공하는 "AI의 자전거"라고 할 수 있습니다. 알파폴드는 2024년 노벨 화학상을 수상하며 그 가치를 인정받았죠. 🚴‍♀️

하오는 대중이 AI 기업의 "데이터 기여자"임을 인지하고, 필요하다면 데이터 제공을 거부하는 등의 방식으로 압력을 행사해야 한다고 강조합니다. 또한, 데이터 센터 건설에 대한 지역 사회의 저항과 예술가 및 작가들의 지적 재산권 소송은 AI 기업들이 제국주의적인 방식으로 사업을 운영하지 못하도록 막는 중요한 움직임이라고 설명합니다.

"우리는 제국을 해체하고 대안을 개발해야 합니다. 그리고 우리는 이미 엄청난 양의 압력을 가하고 있는 놀라운 풀뿌리 운동의 번성을 목격하고 있습니다."

그녀는 현재 미국인의 80%가 AI 산업에 대한 규제가 필요하다고 생각하며, 전 세계적으로 데이터 센터 건설에 반대하는 시위가 벌어지는 등 변화의 조짐이 나타나고 있다고 희망을 이야기합니다. 중요한 것은 AI 기술 자체를 부정하는 것이 아니라, 기술 개발 방식의 문제점을 인식하고, 공정하고 지속 가능한 방식으로 AI를 발전시켜야 한다는 것입니다. 이는 기업의 이윤 추구가 아닌, 인류 전체의 복지와 공익을 최우선으로 하는 새로운 AI 개발 철학을 요구합니다.


결론

카렌 하오와의 대담은 AI 기술이 가져올 미래에 대한 균형 잡힌 시각과 비판적인 성찰의 중요성을 다시금 일깨워주었습니다. AI는 분명 엄청난 잠재력을 가진 도구이지만, 현재와 같은 이윤 중심적이고 제국주의적인 개발 방식은 사회적 불평등 심화, 환경 파괴, 그리고 인간성 상실과 같은 심각한 부작용을 낳을 수 있다는 경고입니다. 우리는 AI의 혜택을 누리면서도, 그 이면에 숨겨진 어두운 그림자를 간과해서는 안 될 것입니다. 기술 발전의 방향을 단순히 기업이나 소수의 전문가에게만 맡기는 것이 아니라, 시민 사회 전체가 참여하여 인류를 위한 AI를 만들어나가야 할 때입니다. 🤝

함께 읽으면 좋은 글

Harvest엔지니어링 리더십 · 데이터와 판단한국어

성과로 이어지는 AX 로드맵 요약: 개인 효율을 조직 생산성으로 연결하는 법

이 웨비나는 “AI를 많이 쓰면 생산성이 오른다”는 감각이 왜 조직의 성과로는 잘 이어지지 않는지, 그 구조적 이유를 먼저 짚습니다. 그리고 플렉스팀이 직접 실험하며 겪은 실패(측정·순서·조직 적용의 함정)를 바탕으로, 라스트마일과 병목부터 푸는 AX 설계 전략(SSOT·평가환경·검증·권한...

2026년 3월 28일더 읽기
HarvestAI한국어

에이전트가 ‘코딩’하고, 연구가 ‘루프’를 돌기 시작한 시대: 안드레이 카파시 대담 요약

안드레이 카파시는 최근 몇 달 사이 코딩 에이전트의 도약으로 인해, 사람이 직접 코드를 치기보다 “에이전트에게 의도를 전달하는 일”이 핵심이 됐다고 말합니다. 그는 이 흐름이 오토리서치(AutoResearch)처럼 “실험–학습–최적화”를 사람이 거의 개입하지 않고 굴리는 자율 연구 루프로...

2026년 3월 22일더 읽기
Harvest엔지니어링 리더십 · AI한국어

Software 3.0 시대, 조직의 생산성을 끌어올리는 AI 하네스 구축하기

이 글은 개발팀 내에서 개인의 역량에 크게 의존하고 있는 AI(LLM) 활용 방식을 조직 전체의 체계적인 시스템으로 발전시켜야 한다는 핵심적인 메시지를 담고 있습니다. 특히 Claude Code의 플러그인과 마켓플레이스 생태계를 단순한 확장 도구가 아닌, 팀의 업무 방식과 지식을 코드로 만...

2026년 3월 8일더 읽기