문학 축제, AI의 계시
몇 주 전, 인도의 활기 넘치는 자이푸르 문학 축제(JLF)는 인공지능의 미래에 대한 중요한 논의를 위한 예상치 못한 포럼이 되었다. 제국의 유산에 초점을 맞춘 패널 토론 도중, 대화는 급격하게 전환되었다. Pankaj Mishra의 ‘From the Ruins of Empire: The Revolt Against the West and the Remaking of Asia’에 매료된 청중들은 문학이 아닌 중국의 새로운 생성형 AI 모델인 DeepSeek에 대한 일련의 날카로운 질문을 던졌다.
우리는 어떻게 여기에 도달했는가? AI의 미래를 위한 최선의 경로는 무엇인가? AI 개발에서 오픈소스가 중요한 이유는 무엇인가? 와 같은 질문들은 축제 현장을 넘어 멀리까지 울려 퍼졌다. 이는 뿌리 깊은 역사적 경쟁, 자립에 대한 열망, 그리고 AI 개발에 대한 보다 개방적이고 협력적인 접근 방식을 옹호하는 성장하는 글로벌 운동을 건드렸다.
DeepSeek 수용의 역사적 뿌리
DeepSeek가 문학 축제에서 등장한 것은 특이해 보일 수 있다. 그러나 그 중요성은 역사적 사건, 특히 아시아와 서구 간의 오랜 경쟁과 깊이 얽혀 있다. 유럽 AI 연구소들이 오픈소스 혁신으로 찬사를 받는 동안, 아시아에서 DeepSeek의 수용은 훨씬 더 심오한 역사적 공명을 지닌다.
DeepSeek의 출시는 언론의 집중적인 보도를 받았다. JLF에서의 수용은 AI 성능에 대한 단순한 논의를 초월하는 정서를 드러냈다. 종종 중국에 비판적인 인도 작가와 언론인들은 미국 AI 기업(AIC)의 지배에 맞서는 공동의 투쟁으로 연대하게 되었다. 아시아 전역에서 DeepSeek에 대한 이러한 열정은 식민지 역사와, 더 최근에는 도발적인 기업 발표에 뿌리를 두고 있다.
AI: 자립을 위한 현대적 투쟁
‘Imperial Twilight: The Opium War and The End of China’s Last Golden Age’의 저자 Stephen Platt에게 중국의 기술적 야망은 역사적 상처와 분리할 수 없다. 아편 전쟁(1839-1860)은 영국의 기술 및 군사적 우월성이 중국을 어떻게 굴욕시켰는지 보여주는 강력한 상징이다. 이 ‘굴욕의 세기’는 중국의 현재 자립 추진, AI, 반도체 및 기타 중요 기술에 대한 공격적인 투자를 부채질한다. 이는 서구 기술에 대한 의존을 피하려는 결의이며, 국가적 의식에 새겨진 교훈이다.
JLF의 인도 패널리스트들은 이 서사에서 공통점을 발견했다. 중국과 마찬가지로 인도는 동인도 회사의 영향력이라는 어두운 흔적을 지니고 있다. 더욱이 영국 언론인 Anita Anand는 OpenAI CEO Sam Altman이 인도가 기반 모델 훈련에서 AIC와 경쟁할 가능성을 일축하며 “완전히 희망이 없다”고 말한 논란이 된 비디오를 강조했다. 이러한 발언은 이 지역에서 자립에 대한 결의를 더욱 강화시켰을 뿐이다.
오픈소스 AI: 저항의 상징
DeepSeek와 그 이전에 등장한 유럽 연구소들은 AI 경쟁에서 희망의 등불을 제공했다. 오픈소스를 수용하기로 한 그들의 선택은 독점적인 AI 모델의 지배에 대한 저항의 강력한 상징이 되었다.
DeepSeek R1의 출시는 특히 미국과의 뿌리 깊은 경쟁 관계 속에서 이해되어야 한다. 이 경쟁은 너무나 심오해서 유럽은 종종 미국 기술과의 경쟁 논의에서 간과된다.
AIC의 지배는 심지어 서구에서 식민주의와의 비교를 촉발했다. 2024년 8월 ‘기술 식민주의의 부상’이라는 제목의 논평에서 유럽 혁신 위원회(European Innovation Council) 위원인 Hermann Hauser와 University College London(UCL)의 선임 연구원인 Hazem Danny Nakib은 다음과 같이 썼다. “과거의 식민주의와 달리 기술 식민주의는 영토를 점령하는 것이 아니라 세계 경제와 우리의 일상 생활을 뒷받침하는 기술을 통제하는 것이다. 이를 달성하기 위해 미국과 중국은 점점 더 글로벌 공급망의 가장 혁신적이고 복잡한 부분을 국내로 이전하여 전략적 요충지를 만들고 있다.”
Mistral, kyutai, Meta의 FAIR Paris 팀과 같은 유럽 AI 연구소와 이제 DeepSeek의 선구적인 오픈소스 접근 방식은 AIC의 독점적인 AI 모델 전략에 대한 매력적인 대안을 제시했다. 이러한 오픈소스 기여는 전 세계적으로 반향을 일으키고 있으며 미국 AI 지배에 대한 저항의 상징으로서 오픈소스 AI의 수용을 더욱 공고히 했다.
오픈소스의 사례: 역사는 반복된다
기술 협력은 에너지와 속도에 의해 번성하며, 이는 소프트웨어 코드 진화에 내재된 것이다.
프랑스 노벨 경제학상 수상자 Jean Tirole은 처음에 오픈소스의 등장에 당황하여 2000년 Josh Lerner와의 논문 ‘The Simple Economics of Open Source’에서 다음과 같이 질문했다. “왜 수천 명의 최고 수준의 프로그래머들이 공공재 제공에 자유롭게 기여해야 하는가? 이타주의에 기반한 어떤 설명도 한계가 있다.”
당시에는 이해할 수 있지만, 최근 몇 년 동안 AI의 발전, 특히 DeepSeek R1 출시 이후를 따라온 사람이라면 그 답이 자명하다는 것을 알 수 있을 것이다. Meta의 Llama 오픈소스화에서 FAIR Paris의 영향, Mistral과 그 설립자들의 7B 언어 학습 모델(LLM) 오픈소스를 통한 급부상, 그리고 DeepSeek R1은 이러한 프로그래머와 과학자들이 오픈소스에 헌신하는 설득력 있는 이유를 보여준다.
또한 Sam Altman과 그의 공동 창립자들이 인재를 유치하기 위해 ‘OpenAI’라는 이름을 선택한 이유를 명확히 한다. 이러한 프론티어 연구소들이 독점적인 접근 방식을 선택했다면 그토록 큰 명성을 얻고 AI 커뮤니티 내에서 강력한 개인 브랜드를 구축할 수 있었을까? 대답은 단호한 ‘아니오’이다.
1999년에 프로그래머 Richard Stallman과 개발자 Eric Raymond가 각각 한 두 개의 강력한 인용문은 논문 시작 부분에 포함되어 있으며, JLF에서 DeepSeek의 수용을 조명하고 더 깊은 이념적 힘을 강조한다.
“독점 소프트웨어 사회 시스템, 즉 소프트웨어를 공유하거나 변경할 수 없다는 시스템은 비사회적이고 비윤리적이며 단순히 잘못된 것이라는 생각은 일부 사람들에게 놀라움으로 다가올 수 있다. 그러나 대중을 분열시키고 사용자를 무력하게 만드는 시스템에 대해 달리 무엇을 말할 수 있겠는가?” - Richard Stallman
“Linux 해커들이 극대화하는 효용 함수는 고전적인 경제학이 아니라 다른 해커들 사이에서 자신의 자아 만족과 명성이라는 무형의 것이다. … 이러한 방식으로 작동하는 자발적인 문화는 실제로 드물지 않다. 내가 오랫동안 참여해 온 또 다른 문화는 해커덤과 달리 명성을 명시적으로 인정하는 공상 과학 팬덤이다.” - Eric Raymond
1970년대와 1980년대 Unix의 궤적은 현재 AI 상태에 대한 설득력 있는 비유를 제공한다. AT&T의 초기 홍보와 학계 내 무료 배포는 혁신과 채택을 촉진했다. 그러나 AT&T가 1970년대 후반에 독점 라이선스를 부과했을 때, 이는 필연적으로 버클리 대학이 개방형 대안인 BSD Unix를 출시하고 궁극적으로 Linus Torvalds가 Linux를 만들도록 이끌었다. Torvalds의 유럽에서의 Linux 개발은 오픈소스 소프트웨어의 중심지를 미국에서 멀어지게 했다.
AI의 진화와 함께 지리적으로도 유사점이 두드러진다. 그러나 이번에는 새로운 지역이 등장했다. Falcon Models를 보유한 아부다비의 TII, 중국의 DeepSeek, Alibaba의 Qwen, 그리고 더 최근에는 Indic 언어를 위한 오픈소스 모델을 보유한 인도의 Krutrim AI Lab이 있다.
Meta FAIR Paris 팀은 선도적인 유럽 AI 연구소 및 새로운 프론티어 연구소(DeepSeek, Falcon, Qwen, Krutrim)와 함께 AI 혁신을 크게 가속화했다. 연구 논문과 코드를 공개적으로 공유함으로써 그들은 다음을 수행했다.
- 최첨단 AI 기술에서 새로운 세대의 AI 엔지니어와 연구원을 교육했다.
- 개방형 협업 생태계를 조성하여 독점적인 AI 연구소 외부에서 빠른 발전을 가능하게 했다.
- 대체 AI 모델을 제공하여 AI가 미국 AI 기업에 의해 독점되지 않도록 했다.
이 네 가지 생태계(유럽, 인도, 아부다비, 중국)는 여전히 독점적인 AI 사고방식으로 운영되는 지배적인 AIC에 도전하기 위해 강력한 오픈소스 AI 동맹을 구축할 수 있다.
DeepSeek R1 출시 이후 2025년 1월 31일 Ask Me Anything(AMA) 설문에서 Altman은 독점적인 AI 모델 접근 방식이 역사의 잘못된 편에 있었다는 것을 인정했다.
시간이 지나면 전 세계 AI 연구소들이 이 동맹에 합류하여 이 분야를 공동으로 발전시킬 수 있다. 이는 과학 분야가 비영리 이니셔티브를 통해 경계와 정치적 이념을 초월하는 첫 번째 사례가 아닐 것이다. 이는 글로벌 사우스에서 종종 표현되는 반식민지적 불만을 유발하지 않고 경쟁하는 방식을 제공한다.
역사적 선례: AI 모델로서의 인간 게놈 프로젝트
생물학자로서 나는 특히 인간 게놈 프로젝트(HGP)의 업적과 그것이 궁극적으로 Celera Genomics의 영리 이니셔티브를 능가하여 이 분야와 인류 전체에 이익을 가져다준 방식에 대해 잘 알고 있다.
HGP는 전체 인간 게놈을 매핑하고 시퀀싱한 획기적인 국제 연구 이니셔티브였다. 13년간의 협력 끝에 2003년에 완료된 이 프로젝트는 2011년 보고서(2013년 업데이트)에 따르면 30억 달러 투자로 거의 8,000억 달러의 경제적 영향을 창출했다(미국 경제에 대한 투자 수익률은 141대 1 – 연방 HGP 투자 1달러당 경제에서 141달러가 창출됨). 이는 맞춤형 의학, 질병 예방 및 유전체 연구의 발전을 가능하게 하여 의학, 생명 공학 및 유전학에 혁명을 일으켰다. 시퀀싱 작업과 연구는 미국, 영국, 프랑스, 독일, 일본, 중국의 6개국 20개 연구소에서 수행되었다.
Celera Genomics가 이익을 위해 유전체 서열을 시퀀싱하려고 시도했지만 HGP는 1996년 2월 버뮤다에서 열린 인간 게놈 시퀀싱에 관한 국제 전략 회의에서 제정된 버뮤다 원칙에 명시된 대로 개방형 데이터 공유를 우선시했다. 이 원칙은 HGP의 데이터 공유 정책을 형성하는 데 결정적인 역할을 했으며 전 세계적으로 유전체 연구 관행에 지속적인 영향을 미쳤다. 주요 내용은 다음과 같다.
- 즉각적인 데이터 공개: HGP에서 생성된 모든 인간 유전체 서열 데이터는 생성 후 24시간 이내에 공개 데이터베이스에 공개되어야 한다. 이러한 신속한 배포는 과학적 발견을 가속화하고 사회적 이익을 극대화하는 것을 목표로 했다.
- 자유롭고 무제한적인 접근: 데이터는 연구 또는 개발 목적으로 사용에 대한 제한 없이 전 세계 과학계와 대중에게 무료로 제공되어야 했다.
- 지적 재산권 주장 방지: 참가자들은 1차 유전체 서열 데이터에 대해 지적 재산권이 주장되지 않을 것이라는 데 동의하여 개방형 과학 정신을 장려하고 특허로 인한 연구 방해 가능성을 방지했다.
거버넌스 측면에서 HGP는 독립적인 조직이나 기업이 아닌 협력적이고 조정된 과학 이니셔티브였다. 이는 다양한 연구 기관에 정부 보조금과 계약을 통해 자금을 지원받는 분산된 노력이었다. 예산의 일부(3-5%)는 인간 게놈 시퀀싱과 관련된 윤리적, 법적, 사회적 문제를 연구하고 해결하는 데 사용되었다.
AI 안전과 오픈소스 AI 연결
오픈소스 AI의 또 다른 중요한 이점은 AI 안전 연구에서의 역할이다.
2024년 AI 서울 정상회의는 AIC가 전 세계 나머지 국가보다 상당한 우위를 점하고 있던 시기에 실존적 위험에만 초점을 맞췄다. 2024년 5월까지만 해도 전 Google CEO Eric Schmidt는 미국이 AI에서 중국보다 2-3년 앞서 있으며 유럽은 규제에 너무 몰두하여 관련성이 없다고 주장했다. 정상회의가 성공했다면 AI 안전 결정에 대한 통제권을 사실상 이들 기업에 양도했을 것이다. 다행히도 그렇지 않았다.
이제 오픈소스 AI가 기술 격차를 해소함에 따라 안전 논의는 더 이상 소수의 지배적인 플레이어에 의해 좌우되지 않을 것이다. 대신 유럽, 인도, 중국, 아부다비의 연구원, 정책 입안자, AI 연구소를 포함한 더 광범위하고 다양한 이해 관계자들이 AIC와 함께 논의를 형성할 기회를 갖게 되었다.
또한 오픈소스 AI는 글로벌 억제 능력을 향상시켜 어떤 단일 행위자도 책임 없이 고급 AI 시스템을 독점하거나 오용할 수 없도록 한다. AI 안전에 대한 이러한 분산된 접근 방식은 기능과 감독을 모두 글로벌 AI 생태계에 보다 공평하게 분배함으로써 잠재적인 실존적 위협을 완화하는 데 도움이 될 것이다.
파리 원칙을 가진 휴먼 AI 프로젝트
다음 주 파리에서 열리는 AI Action Summit은 AI의 미래를 형성하는 데 어떤 역할을 할 수 있을까?
이는 인간 게놈 프로젝트를 모델로 한 휴먼 AI 프로젝트를 수립하여 전 세계적으로 오픈소스 AI 개발을 발전시키고 지원할 수 있는 중요한 기회를 제공한다. 선구적인 유럽 AI 연구소에서 DeepSeek에 이르기까지 현재의 오픈소스 기여는 이미 이 분야를 가속화하고 AIC와의 격차를 해소하는 데 도움이 되고 있다.
AI의 기능은 수천 개의 성숙한 프로젝트, 전용 거버넌스 모델, 기업, 학계 및 정부와의 긴밀한 통합을 갖춘 일반 오픈소스 생태계의 성숙도에 의해 크게 향상된다.
AI 오픈소스 생태계는 또한 Github 및 Gitlab과 같은 플랫폼의 이점을 누리고 있다. 더 최근에는 세 명의 프랑스 기업가가 공동 설립한 미국 기업인 Hugging Face와 같이 오픈소스 AI 전용 플랫폼이 커뮤니티를 위한 배포 플랫폼으로서 중요한 역할을 하기 시작했다.
1990년대 초반의 인간 게놈 시퀀싱에 비해 오픈소스 AI 생태계의 상대적 성숙도를 고려할 때, 오픈소스 AI는 휴먼 AI 프로젝트로부터 어떤 이점을 얻을 수 있을까?
우선, 유럽 연합은 종종 AIC와 자체 프론티어 AI 연구소로부터 오픈소스 규제에 대해 비판을 받는다. 휴먼 AI 프로젝트는 참여 국가 및 지역 간의 규제 조정 및 표준 개발을 위한 공동 노력을 기울일 수 있다. 유럽, 인도, 아부다비, 중국의 초기 기여를 통한 조정된 접근 방식은 이 공유 규제 지역(오픈소스를 위한 일종의 자유 무역 지역)에서 오픈소스 모델의 보급을 촉진할 수 있다.
확실하게 입증되지는 않았지만 JLF에서 DeepSeek에 대한 반응을 형성한 경쟁 중심 역학과 유사점이 있다. 마찬가지로 AI 규제는 AIC의 발전을 방해하거나 격차를 해소하기 위해 노력하는 자국 AI 챔피언을 방해하는 잠재적 메커니즘으로 작용하기보다는 혁신을 촉진하고 기업과 소비자 모두에게 공익을 극대화하는 데 중점을 두고 만들어질 수 있다.
이 프로젝트는 또한 인재 교류를 촉진하고 오픈소스 AI를 위한 공유 컴퓨팅 인프라(에너지 인프라에 연결됨)에 자금을 지원할 수 있다. 아래 차트에서 알 수 있듯이 세계 일부 지역의 재능 있는 STEM 졸업생은 현재 자국에 부족한 세계적 수준의 AI 인프라에 접근하는 데 어려움을 겪을 수 있다.
또 다른 협력 분야는 가중치, 코드 및 문서를 포함하는 모델 및 데이터 세트에 대한 개방형 액세스 표준에 대한 모범 사례를 수립하는 것이다.
이 프로젝트는 또한 AI 안전 연구에 대한 글로벌 협력을 촉진할 수 있다. 정렬 문제를 해결하기 위해 비밀리에 경쟁하는 대신 파리에서 베이징, 방갈로르에 이르기까지 연구원들은 모델을 평가하고 위험을 완화하기 위해 협력할 수 있다. 모든 안전 결과(예: 유해한 출력을 줄이는 방법 또는 해석 가능성을 위한 도구)는 공개 도메인에서 즉시 공유될 수 있다.
이 원칙은 AI 안전이 글로벌 공공재라는 것을 인식할 것이다. 한 연구소의 획기적인 발전(예: AI 추론을 투명하게 만드는 새로운 알고리즘)은 독점적으로 유지되는 것이 아니라 모두에게 이익이 되어야 한다. 공동 안전 벤치마크 및 챌린지 이벤트를 조직하여 집단적 책임 문화를 장려할 수 있다. 안전 연구를 풀링함으로써 이 프로젝트는 잠재적인 AI 오용 또는 사고를 방지하고 강력한 AI 시스템이 주의 깊게 관리되고 있음을 대중에게 안심시키는 것을 목표로 할 것이다.
2023년 Bletchley Park에서 열린 영국 AI 안전 정상회의에서 핵 확산 비유를 지나치게 강조하여 실존적 위험에 초점을 맞춘 것은 안전이 공공재로 간주되는 다른 분야(사이버 보안, 항생제 및 면역학(Covid-19 이후 몇 가지 흥미로운 이니셔티브 포함), 항공 안전)를 검토할 기회를 놓쳤다.
이 프로젝트는 또한 안전하고 진보된 AI 시스템 개발을 촉진하기 위해 현재 민간 ARC Prize Foundation에서 수행하는 작업을 파트너십하고 발전시킬 수 있다. Keras 오픈소스 라이브러리 제작자인 François Chollet와 Zapier 소프트웨어 회사의 공동 설립자인 Mike Knoop이 공동 설립한 ARC Prize는 인공 일반 지능(AGI) 연구를 발전시키기 위해 공개 대회를 주최하는 비영리 단체이다. 그들의 대표적인 이벤트인 ARC Prize 대회는 ARC-AGI 벤치마크(AI 시스템이 새로운 기술을 효율적으로 일반화하고 습득하는 능력을 평가하도록 설계된 테스트)에 대한 솔루션을 개발하고 오픈소스화할 수 있는 참가자에게 100만 달러 이상을 제공한다.
ARC Prize Foundation의 오픈소스 솔루션 및 공개 대회에 대한 강조는 ARC Prize Foundation 웹사이트의 ‘AGI’ 아래에 명시된 대로 AI 개발에서 국제 협력과 투명성을 촉진하려는 휴먼 AI 프로젝트의 목표와 완벽하게 일치한다.
“LLM은 상상할 수 없을 정도로 방대한 양의 데이터로 훈련되지만 훈련되지 않은 간단한 문제에 적응하거나 아무리 기본적인 것이라도 새로운 발명을 할 수 없다. 강력한 시장 인센티브는 프론티어 AI 연구를 비공개 소스로 추진했다. 연구 관심과 자원이 막다른 골목으로 쏠리고 있다. ARC Prize는 연구자들이 개방형 AGI 발전을 추진하는 새로운 기술적 접근 방식을 발견하도록 영감을 주기 위해 고안되었다.”
HGP와 마찬가지로 휴먼 AI 프로젝트는 자금의 일부를 윤리적 거버넌스 및 감독에 할당할 것이다. 여기에는 저작권에 대한 논의가 포함될 것이다. 이 프로젝트는 사회가 무료로 훈련을 위한 최상의 정보 소스에 접근하는 동시에 그 위에 독점 모델을 개발하는 윤리를 고려하는 데 도움이 될 수 있다. 생물학 분야에서는 Google DeepMind의 AlphaFold 모델이 단백질 구조를 예측하는 데 중요한 Protein Data Bank가 50년 동안 100억 달러에 해당하는 자금이 필요했을 가능성이 높다는 것이 잘 알려져 있다. 이 프로젝트는 AI 개발 자금을 계속 지원하는 방법이나 독점적인 AIC가 원작자와 수익을 공유해야 하는 방법에 대해 생각하는 데 도움이 될 수 있다.
이러한 파리 원칙과 휴먼 AI 프로젝트는 함께 AI를 보다 개방적이고 협력적이며 윤리적인 방식으로 전 세계적으로 발전시키는 데 도움이 될 것이다. 이는 기존 오픈소스 소프트웨어 및 AI 관련 프레임워크와 플랫폼 내에서 유럽에서 중동, 인도, 그리고 이제 중국에 이르기까지 선도적인 오픈소스 기여자들의 업적을 기반으로 할 것이다.
역사는 AI와 함께 반복된다
우리 앞에 놓인 기회는 엄청나다. Mistral AI, kyutai, BFL, Stability, 그리고 더 최근에는 DeepSeek는 협력이 독점적인 AIC와 경쟁하거나 심지어 능가하는 미래가 가능하다는 희망을 대중에게 주었다.
우리는 여전히 이 기술 혁신의 초기 단계에 있다. 우리는 AIC가 이 분야에 기여한 바에 감사해야 한다. AI Action Summit은 전례 없는 규모로 협력적 혁신을 촉진하고 가능한 한 많은 플레이어를 역사의 올바른 편으로 이끌 수 있는 기회가 되어야 한다.
다시 1789년이다. 우리는 기술 주권을 위한 싸움, 권력의 분산화, 그리고 공공재로서의 AI에 대한 요구를 목격하고 있다. 그리고 1789년과 마찬가지로 이 혁명은 억제되지 않을 것이다.