AI 지출 이야기 재고: 수요가 효율성 증대를 압도하다

초기의 충격: DeepSeek과 효율성 신기루

올해 초 중국의 DeepSeek AI의 등장은 기술 투자 환경에 큰 충격을 주었습니다. 겉보기에는 획기적인 접근 방식으로, 훨씬 낮은 컴퓨팅 오버헤드로 강력한 인공 지능을 약속하면서 즉각적인 추측을 불러일으켰습니다. 특수 칩과 시스템의 대규모 구매로 특징지어지는 AI 인프라의 끊임없고 비용이 많이 드는 확장이 곧 둔화될 것이라는 이야기가 빠르게 형성되었습니다. 시장은 비용 효율적인 AI의 새로운 시대가 예상되는 지출 붐을 극적으로 억제할 수 있다는 믿음을 반영하며 반응했습니다.

그러나 최근 업계 전문가들의 고위급 모임에서 얻은 통찰력은 완전히 다른 그림을 그립니다. Bloomberg Intelligence가 뉴욕에서 개최한 생성형 AI 컨퍼런스는 잠재적인 비용 절감에만 초점을 맞춘 초기 해석이 더 큰 그림을 놓쳤음을 시사했습니다. 이 행사는 지출 둔화를 시사하기는커녕, 더 큰 AI 용량에 대한 거의 만족할 줄 모르는 갈망을 강조했습니다. 컨센서스는 비용 절감에 관한 것이 아니라, 메뉴가 덜 비싸기를 간절히 바라면서도 기하급수적으로 증가하는 지능형 시스템에 대한 수요를 어떻게 충족시킬 것인가에 관한 것이었습니다.

현장의 목소리: 채워지지 않는 용량 갈증

개발자, 전략가, 투자자들이 모인 하루 종일 진행된 행사에서의 논의는 기념비적인 투자를 견인하는 수요 증가라는 주제로 일관되게 되돌아갔습니다. Bloomberg Intelligence의 수석 기술 분석가이자 행사 주최자 중 한 명인 Mandeep Singh은 지배적인 정서를 간결하게 포착했습니다. 수많은 패널과 전문가 토론을 되돌아보며 그는 보편적인 후렴구를 언급했습니다: 관련된 누구도 충분한 AI 용량을 보유하고 있다고 느끼지 못했습니다. 압도적인 느낌은 너무 많다는 것이 아니라 더 많이 필요하다는 것이었습니다.

결정적으로 Singh은 빠르게 확장되는 기술 부문에서 흔한 두려움인 ‘인프라 버블’의 망령이 대화에서 눈에 띄게 부재했다고 덧붙였습니다. 초점은 전체 산업이 직면한 근본적인 도전에 확고하게 남아 있었습니다. Singh의 동료이자 Bloomberg Intelligence의 IT 서비스 및 소프트웨어 수석 분석가인 Anurag Rana는 이를 가장 중요한 질문으로 규정했습니다: “우리는 그 [AI 인프라 구축] 사이클의 어디에 있는가?”

이 대규모 구축의 정확한 단계를 정확히 파악하는 것은 여전히 어렵다는 점을 인정하면서도(“아무도 확실히 모른다”고 Rana는 인정했습니다), DeepSeek 현상은 의심할 여지 없이 관점을 바꾸었습니다. 상당한 AI 워크로드를 잠재적으로 더 경제적으로 처리할 수 있다는 강력한 희망을 불어넣었습니다. “DeepSeek은 많은 사람들을 흔들었습니다,”라고 Rana는 관찰했습니다. 그 의미는 분명했습니다: 만약 정교한 AI 모델이 실제로 덜 까다로운 하드웨어에서 효율적으로 실행될 수 있다면, 주요 기술 기업들이 참여하는 컨소시엄에 의해 계획되고 있다고 소문난 수천억 달러 규모의 프로젝트와 같은 거대한 프로젝트들이 재평가되거나 다르게 확장될 수 있을 것입니다.

Rana에 따르면 업계 전반에 걸쳐 메아리치는 꿈은 AI 운영 비용, 특히 inference(훈련된 모델이 예측이나 콘텐츠를 생성하는 단계) 비용이 지난 10년간 클라우드 컴퓨팅 스토리지에서 목격된 극적인 하향 궤적을 따르는 것입니다. 그는 Amazon Web Services (AWS)와 같은 플랫폼에 방대한 양의 데이터를 저장하는 경제성이 약 8년 동안 극적으로 개선된 것을 회상했습니다. “그 비용 곡선의 하락… 경제성이 좋았습니다,”라고 그는 말했습니다. “그리고 그것이 모두가 바라는 것입니다. inference 측면에서… 만약 곡선이 그 수준까지 떨어진다면, 오 세상에, AI의 채택률은… 굉장할 것입니다.” Singh은 DeepSeek의 등장이 근본적으로 “효율성 달성에 대한 모든 사람의 사고방식을 바꾸었다”고 동의했습니다.

효율성에 대한 이러한 갈망은 컨퍼런스 세션 내내 뚜렷하게 느껴졌습니다. 수많은 패널이 기업 AI 프로젝트를 개념 단계에서 실제 운영 단계로 옮기는 실질적인 측면을 탐구하는 동안, 병행된 논의는 이러한 AI 모델을 배포하고 실행하는 데 드는 비용을 절감해야 할 중요한 필요성을 끊임없이 강조했습니다. 목표는 분명합니다: 더 넓은 범위의 애플리케이션과 사용자가 AI를 경제적으로 이용할 수 있도록 하여 접근성을 민주화하는 것입니다. Bloomberg의 최고 기술 책임자인 Shawn Edwards는 DeepSeek이 반드시 완전한 놀라움은 아니었지만, 보편적인 열망을 강력하게 보여주는 사례라고 제안했습니다. “그것이 저에게 생각하게 만든 것은, 마법 지팡이를 흔들어 이 모델들이 믿을 수 없을 정도로 효율적으로 실행될 수 있다면 좋을 것이라는 점이었습니다,”라고 그는 말하며, 특정 돌파구 하나만이 아니라 전체 AI 모델 스펙트럼에 대한 소망을 확장했습니다.

확산 원칙: 컴퓨팅 수요 촉진

효율성 추구에도 불구하고 전문가들이 AI 인프라에 대한 지속적이고 상당한 투자를 예상하는 주된 이유 중 하나는 순전히 AI 모델의 확산에 있습니다. 뉴욕 컨퍼런스 내내 반복된 주제는 모든 작업을 처리할 수 있는 단일하고 거대한 AI 모델이라는 개념에서 결정적으로 벗어나는 움직임이었습니다.

  • 모델 가족: Bloomberg의 Edwards가 말했듯이, “우리는 모델 가족을 사용합니다. 최고의 모델이란 존재하지 않습니다.” 이는 언어 생성, 데이터 분석, 이미지 인식, 코드 완성 등 다양한 AI 아키텍처가 서로 다른 작업에 뛰어나다는 이해가 커지고 있음을 반영합니다.
  • 기업 맞춤화: 패널리스트들은 대규모 범용 ‘기반’ 또는 ‘프론티어’ 모델이 주요 AI 연구소에서 계속 개발되고 개선될 것이라는 데 널리 동의했지만, 기업 내 실제 활동은 잠재적으로 수백 또는 수천 개의 특화된 AI 모델을 배포하는 것을 포함합니다.
  • Fine-Tuning과 독점 데이터: 이러한 기업 모델 중 다수는 fine-tuning이라는 프로세스를 통해 기본 모델에서 조정될 것입니다. 이는 사전 훈련된 신경망을 회사의 특정하고 종종 독점적인 데이터에 대해 재훈련하는 것을 포함합니다. 이를 통해 AI는 고유한 비즈니스 컨텍스트, 용어 및 고객 상호 작용을 이해하여 일반 모델보다 훨씬 더 관련성 있고 가치 있는 결과를 제공할 수 있습니다.
  • 개발 민주화: 데이터 과학 플랫폼 Dataiku를 대표하는 Jed Dougherty는 기업 AI 에이전트를 위한 “모델 간의 선택 가능성”의 필요성을 강조했습니다. 그는 기업에게 AI 도구에 대한 통제권, 생성 능력 및 auditability(감사 가능성)를 제공하는 것의 중요성을 강조했습니다. “우리는 이러한 것들을 만드는 도구를 사람들의 손에 쥐어주고 싶습니다,”라고 Dougherty는 주장했습니다. “우리는 10명의 박사 학위 소지자가 모든 에이전트를 만들기를 원하지 않습니다.” 개발 자체의 광범위한 접근성을 향한 이러한 추진은 이러한 분산된 생성 노력을 지원하기 위해 더 많은 기본 인프라가 필요함을 의미합니다.
  • 브랜드별 AI: 창조 산업은 대표적인 예를 제공합니다. Adobe에서 새로운 비즈니스 벤처를 이끌고 있는 Hannah Elsakr는 맞춤형 모델을 핵심 차별화 요소로 삼는 전략을 설명했습니다. “우리는 새로운 광고 캠페인에 도움이 될 수 있는 귀하의 브랜드를 위한 맞춤형 모델 확장을 훈련할 수 있습니다,”라고 그녀는 AI가 특정 브랜드 미학과 메시지를 유지하도록 맞춤화될 수 있는 방법을 보여주며 설명했습니다.

모델의 다양화 외에도 기업 워크플로우 내에서 AI 에이전트의 배포 증가는 처리 수요의 또 다른 중요한 동인입니다. 이러한 에이전트는 수동적인 도구일 뿐만 아니라 다단계 작업을 실행할 수 있는 능동적인 참여자로 구상됩니다.

Microsoft의 Copilot Studio 에이전트 및 자동화 노력을 이끄는 Ray Smith는 사용자가 Copilot과 같은 통합 인터페이스를 통해 잠재적으로 수백 개의 특화된 에이전트와 상호 작용하는 미래를 예측했습니다. “전체 프로세스를 하나의 에이전트에 쑤셔 넣지 않고, 여러 부분으로 나눌 것입니다,”라고 그는 설명했습니다. 이러한 에이전트는 본질적으로 프로그래밍의 “새로운 세계의 앱”이라고 그는 제안했습니다. 비전은 사용자가 단순히 목표를 명시하고(“우리가 달성하고자 하는 것을 말해주면”) 에이전트가 필요한 단계를 조율하는 것입니다. “에이전트 앱은 단지 워크플로우의 새로운 방식일 뿐입니다,”라고 Smith는 말하며, 이 비전을 실현하는 것은 기술적 가능성의 문제(“모든 것이 기술적으로 가능합니다”)라기보다는 “우리가 그것을 구축하는 속도”의 문제라고 강조했습니다.

AI 에이전트를 일상적인 조직 프로세스에 더 깊이 내장하려는 이러한 추진은 비용 절감 및 효율적인 배포에 대한 압력을 더욱 강화합니다. 마이크로프로세서 거대 기업인 ARM Holdings의 제품 관리 책임자인 James McNiven은 접근성 측면에서 이 과제를 규정했습니다. “어떻게 하면 점점 더 많은 장치에서 접근성을 제공할 수 있을까요?”라고 그는 숙고했습니다. 특정 작업에서 거의 “박사 수준”의 능력을 달성하는 모델을 관찰하면서, 그는 몇 년 전 개발도상국에 모바일 결제 시스템을 도입한 변혁적 영향과 유사점을 그렸습니다. 핵심 질문은 여전히 남아 있습니다: “어떻게 그 [AI 능력]을 그 능력을 사용할 수 있는 사람들에게 전달할 수 있을까요?” 정교한 AI 에이전트를 광범위한 인력에게 보조자로 쉽게 사용할 수 있게 하려면 영리한 소프트웨어뿐만 아니라 효율적인 하드웨어와 필연적으로 더 많은 기본 인프라 투자가 필요하며, 이는 계산당 효율성이 향상되더라도 마찬가지입니다.

확장 장애물: 실리콘, 전력, 그리고 클라우드 거인들

가장 널리 사용되는 일반적인 기반 모델조차도 놀라운 속도로 증식하고 있어 기존 인프라에 엄청난 부담을 주고 있습니다. Amazon Web Services (AWS)의 컴퓨팅 및 네트워킹을 감독하는 Dave Brown은 자사 플랫폼만으로도 고객에게 약 1,800개의 서로 다른 AI 모델에 대한 액세스를 제공한다고 밝혔습니다. 그는 이러한 강력한 도구를 실행하는 “비용을 낮추기 위해 많은 노력을 기울이고 있다”는 AWS의 강렬한 초점을 강조했습니다.

AWS와 같은 클라우드 제공업체의 핵심 전략 중 하나는 자체 맞춤형 실리콘을 개발하는 것입니다. Brown은 AI 훈련에 최적화된 Trainium 프로세서와 같은 AWS 설계 칩의 사용 증가를 강조하며, “AWS는 다른 회사의 프로세서보다 자체 프로세서를 더 많이 사용하고 있습니다”라고 말했습니다. 특화된 자체 하드웨어로의 이러한 전환은 성능과 비용에 대한 통제권을 확보하고 Nvidia, AMD, Intel과 같은 범용 칩 공급업체에 대한 의존도를 줄이는 것을 목표로 합니다. 이러한 노력에도 불구하고 Brown은 근본적인 현실을 솔직하게 인정했습니다: “비용이 더 낮았다면 고객들은 더 많은 것을 했을 것입니다.” 수요 상한선은 현재 잠재적 애플리케이션 부족보다는 예산 제약에 의해 더 많이 정의됩니다.

선도적인 AI 개발자가 요구하는 자원의 규모는 엄청납니다. Brown은 AWS가 정교한 Claude 언어 모델 제품군의 제작자인 Anthropic과 매일 협력하고 있다고 언급했습니다. Brown과 함께 연설한 Anthropic의 애플리케이션 프로그래밍 인터페이스 책임자인 Michael Gerstenhaber는 현대 AI, 특히 복잡한 추론 또는 “사고”를 위해 설계된 모델의 계산 집약도를 지적했습니다. 이러한 모델은 종종 답변에 대한 상세한 단계별 설명을 생성하여 상당한 처리 능력을 소비합니다. “사고 모델은 많은 용량을 사용하게 만듭니다,”라고 Gerstenhaber는 말했습니다.

Anthropic은 “prompt caching”(이전 상호 작용의 계산을 저장하고 재사용하여 리소스를 절약하는 것)과 같은 최적화 기술에 대해 AWS와 적극적으로 협력하고 있지만, 근본적인 하드웨어 요구 사항은 여전히 막대합니다. Gerstenhaber는 Anthropic이 현재 모델 제품군을 실행하기 위해 “수십만 개의 가속기” - 특수 AI 칩 - 가 “많은 데이터 센터에 분산”되어야 한다고 단호하게 말했습니다. 이는 단 하나의 주요 AI 플레이어를 뒷받침하는 컴퓨팅 자원의 순수한 규모에 대한 구체적인 감각을 제공합니다.

방대한 실리콘 집단을 조달하고 관리하는 과제를 복잡하게 만드는 것은 AI와 관련된 급증하는 에너지 소비입니다. Brown은 이것을 중요하고 빠르게 증가하는 우려 사항으로 강조했습니다. 집약적인 AI 워크로드를 지원하는 현재 데이터 센터는 이미 수백 메가와트 단위로 측정되는 전력을 소비하고 있습니다. 예측에 따르면 미래 요구 사항은 필연적으로 기가와트 범위(대형 발전소의 출력)로 상승할 것입니다. “그것이 소비하는 전력은,” Brown은 AI를 언급하며 경고했습니다, “크고, 많은 데이터 센터에서 그 발자국이 큽니다.” 이렇게 증가하는 에너지 수요는 막대한 운영 비용뿐만 아니라 차세대 AI 인프라를 배치하고 전력을 공급하는 데 상당한 환경 및 물류 문제를 야기합니다.

경제적 변수: 성장 계획에 드리운 그림자

기술 발전과 급증하는 사용 사례에 힘입은 낙관적인 전망에도 불구하고, AI 투자에 대한 모든 예측에는 광범위한 경제 환경이라는 중요한 변수가 드리워져 있습니다. Bloomberg Intelligence 컨퍼런스가 마무리될 무렵, 참석자들은 예상보다 광범위하다고 인식되는 새로 발표된 글로벌 관세 패키지로 인한 시장 불안을 이미 관찰하고 있었습니다.

이는 야심찬 기술 로드맵이 거시 경제적 역풍에 의해 신속하게 중단될 수 있다는 강력한 알림 역할을 합니다. Bloomberg의 Rana는 AI 지출이 처음에는 다소 보호받을 수 있지만, AI와 관련 없는 서버 및 스토리지와 같은 기업 IT 투자의 전통적인 영역이 경제 위축의 첫 번째 희생자가 될 수 있다고 경고했습니다. “우리가 집중하고 있는 또 다른 큰 것은 비 AI 기술 지출입니다,”라고 그는 말하며, AI 예산을 구체적으로 고려하기 전에도 실적 시즌을 앞둔 주요 기술 서비스 제공업체에 대한 잠재적 영향에 대한 우려를 표명했습니다.

그러나 AI가 독특하게 탄력적일 수 있다는 지배적인 이론이 있습니다. Rana는 경제 불확실성이나 심지어 경기 침체로 인해 예산 제약에 직면한 주요 기업의 최고 재무 책임자(CFO)가 AI 이니셔티브를 우선시할 수 있다고 제안했습니다. 그들은 미래 경쟁력에 중요하다고 인식되는 전략적 AI 투자를 보호하기 위해 덜 중요한 영역에서 자금을 전환할 수 있습니다.

그러나 이러한 낙관적인 견해는 결코 보장되지 않습니다. Rana에 따르면 궁극적인 시험은 대기업들이 증가하는 경제적 불확실성 속에서도 특히 AI 데이터 센터 구축을 위한 공격적인 자본 지출 목표를 유지할 것인지 여부입니다. 중요한 질문은 여전히 남아 있습니다: “그들이 ‘알다시피? 너무 불확실해’라고 말할 것인가?” 그 대답은 AI 인프라 지출 뒤에 있는 멈출 수 없어 보이는 추진력이 끊임없는 상승을 계속할 것인지, 아니면 글로벌 경제 현실에 의해 예기치 않은 중단을 맞이할 것인지를 결정할 것입니다.