2023년 11월, 세계에서 가장 주목받는 AI 기업 OpenAI에서 전례 없는 사건이 발생했다. 이사회가 갑작스럽게 샘 알트먼 최고경영자(CEO)를 해고한 것이다. 이 결정은 실리콘밸리에 거대한 충격파를 던졌고, 직원들의 집단 반발과 마이크로소프트를 포함한 주요 투자자들의 강력한 압박으로 이어졌다. 불과 5일 만에 알트먼은 CEO로 화려하게 복귀했고, 이사회는 전면 개편되었다. 이 짧고 극적인 사건은 단순히 한 기업의 내부 권력 다툼을 넘어, AI라는 막강한 기술을 누가, 어떻게 통제해야 하는지에 대한 근본적인 질문을 전 세계에 던졌다.
AI 기술 저널리스트이자 작가인 캐런 하오(Karen Hao)는 자신의 저서와 강연을 통해 OpenAI를 중심으로 한 AI 개발의 이면을 깊이 파고들며, 이들을 ‘AI 제국(Empires of AI)’이라 명명하고 그 위험성을 경고한다. 그의 분석은 OpenAI의 설립부터 알트먼의 해고 사태에 이르기까지, 비영리라는 이상과 무한한 수익 창출이라는 현실 사이에서 벌어진 이념적, 구조적 갈등을 낱낱이 보여준다.
이상과 현실의 충돌: 비영리 단체의 탄생과 변질
OpenAI는 2015년, 샘 알트먼과 일론 머스크의 주도로 비영리 연구소로 출범했다. 당시 그들의 목표는 명확했다. 구글과 같은 거대 영리 기업이 AI 기술을 독점하는 것을 막고, 인류 전체에 이익이 되는 방향으로 AI를 개발하자는 것이었다. 머스크는 “AI가 인류를 파괴할 수 있다”고 경고하며, 영리적 동기에서 벗어난 AI 개발의 필요성을 역설했다. 이러한 비전은 많은 최고 수준의 AI 연구자들을 끌어모으는 동력이 되었다.
하지만 원대한 이상은 막대한 자본의 현실 앞에서 흔들리기 시작했다. OpenAI는 당시의 모든 기술을 동원해 전례 없는 규모로 데이터를 투입하고, 거대한 슈퍼컴퓨터를 활용해 신경망을 훈련시키는 ‘스케일링(scaling)’ 전략을 채택했다. AI 개발 경쟁에서 1위를 차지하기 위한 이 접근법은 인재 확보에서 자본 확보로 무게 중심을 옮겨 놓았다. 수십억 달러에 달하는 자금을 조달하기 위해 비영리 구조는 한계에 부딪혔고, 결국 OpenAI는 비영리 단체 내부에 영리 자회사를 두는 독특한 ‘제한된 영리(capped-profit)’ 구조를 도입했다.
초기 투자자에게는 투자금의 최대 100배까지만 수익을 보장하는 방식이었지만, 이는 OpenAI가 순수한 비영리 이상에서 벗어나 영리적 추구로 방향을 틀었음을 보여주는 명백한 신호였다.
제국의 서막: 알트먼과 머스크의 결별
영리 법인으로의 전환 과정에서 CEO 자리를 두고 샘 알트먼과 일론 머스크 사이에 심각한 갈등이 불거졌다. 두 사람 모두 새로운 영리 법인의 통제권을 원했지만, 합의점을 찾지 못했다. 공동 창업자였던 그렉 브록만(당시 CTO)과 일리야 수츠케버(당시 수석 과학자)는 처음에는 더 큰 영향력과 명성을 가진 머스크를 지지했다. 그러나 알트먼은 브록만과의 개인적 관계에 호소하며 “머스크를 신뢰할 수 있는가?”라고 설득했고, 결국 브록만과 수츠케버의 마음을 돌리는 데 성공했다. 자신이 CEO가 될 수 없음을 깨달은 머스크는 이사회 공동의장직에서 사임하며 OpenAI를 떠났다. 이 사건은 OpenAI의 미래 방향을 결정지은 중요한 분기점이었으며, 이후 알트먼 중심의 체제가 공고해지는 계기가 되었다.
‘AI 제국’의 네 가지 특징
캐런 하오는 OpenAI와 같은 거대 AI 기업들이 과거의 제국과 놀랍도록 유사한 특징을 보인다며 ‘AI 제국’이라는 개념을 제시한다.
- 자원의 무단 점유: 제국이 타국의 영토를 차지하듯, AI 제국들은 인터넷상의 방대한 데이터를 ‘공개된 정보’라는 명분으로 무단 수집하여 모델 훈련에 사용한다. 데이터를 생성한 원작자들은 자신의 창작물이 미래의 경제적 기회를 제한할 수 있는 AI 모델 개발에 사용될 것이라는 사실에 대해 충분한 정보를 제공받거나 동의한 적이 없다.
- 노동력 착취: AI 개발의 공급망 전반에 걸쳐 노동 착취가 발생한다. OpenAI는 데이터 라벨링이나 유해 콘텐츠 필터링과 같은 작업을 위해 제3세계 노동자들에게 시간당 2달러 수준의 저임금을 지급하며 극심한 정신적 고통을 동반하는 업무를 맡겼다. 또한, OpenAI가 정의하는 인공일반지능(AGI)은 “대부분의 경제적으로 가치 있는 일에서 인간을 능가하는 고도로 자율적인 시스템”으로, 그 목표 자체가 노동 자동화, 즉 노동력의 대체에 맞춰져 있다.
- 지식 생산의 독점: 막대한 자본력을 바탕으로 전 세계 최고의 AI 연구자들을 흡수하면서, 학계나 독립 연구 기관에서 이루어지던 AI 연구가 소수의 거대 기업으로 집중되었다. 이로 인해 AI 기술에 대한 대중의 이해와 한계에 대한 논의는 기업의 이익에 부합하는 방향으로 걸러지고 통제될 위험에 처했다.
- ‘선한 제국’ 서사: 제국주의는 항상 ‘문명화의 사명’과 같은 명분을 내세운다. AI 제국들도 마찬가지로, 자신들을 인류를 진보로 이끌 ‘선한 제국’으로 포장하며, 경쟁 상대를 ‘악한 제국'(예: 중국)으로 규정한다. 이러한 서사는 자원 약탈과 노동 착취와 같은 제국적 행위를 정당화하는 수단으로 사용된다.
“인류에게 이익을”: 모호한 사명의 이면
OpenAI의 공식적인 사명은 “AGI가 모든 인류에게 이익이 되도록 보장하는 것”이다. 이는 매우 고상하게 들리지만, 하오는 이 사명이 극도로 모호하여 사실상 아무 의미도 갖지 못한다고 비판한다. OpenAI 내부에서조차 ‘보장한다’는 것의 의미, ‘AGI’의 정의, ‘모든 인류에게 이익이 된다’는 것이 무엇인지에 대한 합의가 없다. 결국 이 사명은 조직 내 모든 구성원이 자신의 행동을 “인류를 위한 것”이라고 사후 합리화하는 거울과 같은 역할을 할 뿐이다.
이러한 이념적 모호성은 OpenAI 내부의 두 파벌, 즉 ‘부머(Boomers)’와 ‘두머(Doomers)’ 간의 갈등을 심화시켰다. AGI가 유토피아를 가져올 것이라 믿는 ‘부머’와 인류를 멸망시킬 것이라 믿는 ‘두머’는 AGI가 문명사적 변혁을 가져올 것이라는 믿음을 공유하며, 그렇기 때문에 자신들이 기술 개발을 통제해야 한다고 주장한다. 알트먼 해고 당시, 이사회는 ‘두머’ 성향이 강했고, 알트먼과 회사는 ‘부머’에 가까운 행보를 보이고 있었다.
이사회의 쿠데타와 알트먼의 귀환
알트먼 해고의 직접적인 원인은 ‘진실과의 느슨한 관계(a loose relationship with the truth)’로 표현되는 그의 행동과 리더십에 대한 이사회의 불신이었다. 이사회는 알트먼이 여러 중요한 사안에 대해 솔직하지 않다고 판단했다. 예를 들어, OpenAI의 스타트업 펀드가 실제로는 알트먼 개인 소유였다는 점, 그리고 그가 회사의 안전 절차를 지속적으로 무시하거나 건너뛰려 했다는 점 등이 문제로 지적되었다.
이러한 우려는 이사회뿐만 아니라, 수석 과학자였던 일리야 수츠케버와 CTO 미라 무라티 같은 핵심 임원들에게서도 제기되었다. 특히 ‘두머’ 성향이 강했던 수츠케버는 알트먼의 행동이 심각한 위험을 초래할 수 있다고 경고하며, 알트먼의 해임을 이사회에 강력히 권고했다. 결국 이사회는 이 권고를 받아들여 알트먼을 해고했다.
하지만 이 결정은 즉각적인 역풍을 맞았다. 860억 달러 가치의 주식 매각(tender offer)을 앞두고 있던 직원들은 자신들의 경제적 이익과 알트먼의 리더십을 동일시하며 집단행동에 나섰고, 거액을 투자했지만 의결권이 없던 마이크로소프트 등 투자자들도 강력하게 반발했다. 이들의 압력에 굴복한 이사회는 결국 해체를 결정했고, 알트먼은 승자로서 복귀했다. 이 사태 이후, 투자자들은 비영리 이사회가 아닌, 주주의 이익에 법적 책임을 지는 전통적인 영리 기업 이사회 구조로의 전환을 지속적으로 요구하고 있다.
‘모든 비용을 감수한 스케일링’의 대가
하오는 실리콘밸리의 AI 개발 방식, 특히 ‘모든 비용을 감수한 스케일링(scaling at all costs)’ 패러다임이 이미 심각한 문제를 낳고 있다고 경고한다. 맥킨지 보고서에 따르면, 향후 5년간 AI 데이터센터가 필요로 하는 전력량은 캘리포니아주 전체 전력 수요의 2배에서 6배에 달할 것으로 예측된다. 알트먼 스스로도 이 수요를 감당하기 위해 화석 연료, 특히 천연가스 사용이 불가피할 것이라고 인정했다. 실제로 데이터센터 확장은 폐쇄 예정이었던 석탄 발전소의 수명을 연장시키고 있으며, 일부 지역에서는 허가받지 않은 메탄 가스 발전소 수십 개가 가동되어 심각한 대기오염을 유발하고 있다. 이는 인류의 미래를 위한다는 AI 개발이 역설적으로 현재의 환경을 파괴하고 있음을 보여주는 사례이다.
민주적 AI를 향한 길: 참여와 저항
그렇다면 대안은 무엇일까? 하오는 ‘참여형 AI 개발(participatory AI development)’을 강조한다. AI 개발에 필요한 데이터, 자원, 그리고 AI가 배포되는 공간은 모두 사회 구성원의 ‘공동 소유’라는 인식이 필요하다는 것이다. 그는 칠레의 물 운동가들이 지역의 공공 수자원을 독차지하려던 구글 데이터센터 건설 계획에 맞서 5년간 저항하며 결국 계획을 막아낸 사례를 제시한다. 이들은 “우리의 자원을 가져가는 대가로 무엇을 줄 것인가?”라고 물으며, 지역 사회와의 대화와 합의를 강제했다. 이는 공동체가 기술 개발의 방향에 적극적으로 개입하고 소유권을 주장할 때 어떤 변화를 만들 수 있는지를 보여주는 강력한 증거이다.
또한, 하오는 ‘오픈소스’의 중요성을 역설한다. 현재와 같이 소수 기업이 모델과 데이터를 독점하는 ‘폐쇄형’ 구조에서는 모델의 성능이나 한계를 독립적으로 검증하는 것이 불가능하다. 훈련 데이터와 평가 데이터가 분리되어야 한다는 딥러닝의 기본 원칙조차 지켜지는지 확인할 수 없다. 모델을 더 개방하여 독립적인 연구자들이 검증할 수 있도록 할 때, 비로소 AI 제국의 ‘지식 독점’을 깨고 기술에 대한 더 건강하고 객관적인 이해가 가능해질 것이다.
캐런 하오가 그리는 AI의 미래는 두 갈래로 나뉜다. 가장 큰 두려움은 ‘민주주의의 침식’이다. 소수의 기술 권위주의자들이 통제하는 거대 AI 제국 앞에서 대다수의 사람들이 자신의 미래를 결정할 힘을 잃었다고 느끼며 무력감에 빠질 때, 민주주의의 근간은 흔들리게 된다. 투표조차 무의미하게 느껴지고, 변화를 포기하는 순간 민주주의는 죽음을 맞이한다.
하지만 동시에 가장 큰 희망도 존재한다. 그 어느 때보다 많은 사람들이 AI에 대해 이야기하고 생각하기 시작했다는 점이다. 작가들이 자신의 저작권 침해에 대해 소송을 제기하고, 활동가들이 데이터센터에 저항하며, 교사와 학생들이 AI의 비판적 활용법을 고민하는 모든 행위가 기술의 방향을 바꿀 수 있는 힘이 된다.
결국 AI의 미래는 기술 자체에 의해 결정되는 것이 아니라, 그 기술을 어떻게 만들고 사용할 것인지에 대한 우리 사회의 집단적 선택에 달려 있다. OpenAI의 거버넌스 사태는 우리에게 AI라는 거대한 힘을 소수의 ‘제국’에 맡겨둘 것인지, 아니면 민주적 참여와 통제를 통해 인류 전체를 위한 도구로 만들어갈 것인지에 대한 중대한 질문을 던지고 있다. 그 해답을 찾아가는 여정은 이미 시작되었으며, 그 중심에는 우리 모두의 역할이 있다.
관련참고기사:Empire of AI: Dreams and Nightmares in Sam Altman’s OpenAI