แรงสั่นสะเทือนระลอกแรก: DeepSeek และภาพลวงตาแห่งประสิทธิภาพ
การปรากฏตัวของ DeepSeek AI จากประเทศจีนเมื่อต้นปีนี้ได้ส่งแรงสั่นสะเทือนไปทั่ววงการการลงทุนด้านเทคโนโลยี แนวทางที่ดูเหมือนจะปฏิวัติวงการ ซึ่งให้คำมั่นสัญญาถึงปัญญาประดิษฐ์ที่ทรงพลังแต่ใช้ทรัพยากรในการประมวลผลน้อยลงอย่างมีนัยสำคัญ ได้จุดประกายการคาดการณ์ในทันที เรื่องเล่าก่อตัวขึ้นอย่างรวดเร็ว: บางทีการขยายโครงสร้างพื้นฐาน AI อย่างไม่หยุดยั้งและมีค่าใช้จ่ายสูง ซึ่งมีลักษณะเฉพาะคือการซื้อชิปและระบบเฉพาะทางจำนวนมหาศาล อาจกำลังจะชะลอตัวลง ตลาดตอบสนอง สะท้อนความเชื่อที่ว่ายุคใหม่ของ AI ที่คุ้มค่าอาจจำกัดการเติบโตของการใช้จ่ายที่คาดการณ์ไว้อย่างมาก
อย่างไรก็ตาม ข้อมูลเชิงลึกจากการรวมตัวระดับสูงของนักคิดในอุตสาหกรรมเมื่อเร็วๆ นี้ กลับวาดภาพที่แตกต่างออกไปอย่างสิ้นเชิง การประชุม generative AI ที่จัดขึ้นในนิวยอร์กโดย Bloomberg Intelligence ชี้ให้เห็นว่าการตีความเบื้องต้น ซึ่งมุ่งเน้นไปที่การประหยัดต้นทุนที่อาจเกิดขึ้นเพียงอย่างเดียว ได้พลาดประเด็นที่ใหญ่กว่าไป แทนที่จะส่งสัญญาณถึงการชะลอตัวของการใช้จ่าย งานนี้กลับเน้นย้ำถึง ความต้องการความจุ AI ที่มากขึ้น อย่างแทบไม่รู้จักพอ ความเห็นพ้องต้องกันไม่ได้เกี่ยวกับการลดทอน แต่เป็นการหาวิธีตอบสนองความต้องการที่เพิ่มขึ้นอย่างทวีคูณสำหรับระบบอัจฉริยะ แม้จะปรารถนาอย่างยิ่งให้ต้นทุนถูกลงก็ตาม
เสียงจากแนวหน้า: ความกระหายที่ไม่รู้จักพอสำหรับความจุ
การอภิปรายตลอดทั้งวันของงาน ซึ่งรวบรวมนักพัฒนา นักยุทธศาสตร์ และนักลงทุน ต่างวนเวียนอยู่กับประเด็นของความต้องการที่เพิ่มสูงขึ้นซึ่งขับเคลื่อนการลงทุนมหาศาล Mandeep Singh นักวิเคราะห์เทคโนโลยีอาวุโสของ Bloomberg Intelligence และหนึ่งในผู้จัดงาน ได้สรุปความรู้สึกที่แพร่หลายไว้อย่างกระชับ เมื่อพิจารณาจากการเสวนาและผู้เชี่ยวชาญหลายคน เขาสังเกตเห็นเสียงสะท้อนที่เป็นสากล: ไม่มีใครที่เกี่ยวข้องรู้สึกว่าตนเองมีความจุ AI เพียงพอ ความรู้สึกท่วมท้นคือความต้องการ มากขึ้น ไม่ใช่มีมากเกินไป
ที่สำคัญ Singh กล่าวเสริมว่า ภาพหลอนของ ‘ฟองสบู่โครงสร้างพื้นฐาน’ ซึ่งเป็นความกลัวทั่วไปในภาคเทคโนโลยีที่ขยายตัวอย่างรวดเร็ว กลับไม่ปรากฏในการสนทนาเลย จุดสนใจยังคงอยู่ที่ความท้าทายพื้นฐานที่อุตสาหกรรมทั้งหมดกำลังเผชิญอยู่ Anurag Rana เพื่อนร่วมงานของ Singh และนักวิเคราะห์อาวุโสของ Bloomberg Intelligence ด้านบริการไอทีและซอฟต์แวร์ มองว่าเป็นคำถามที่สำคัญที่สุด: ‘เราอยู่ในจุดไหนของวงจร [การสร้างโครงสร้างพื้นฐาน AI] นั้น?’
แม้จะยอมรับว่าการระบุระยะที่แน่นอนของการสร้างขนาดใหญ่นี้ยังคงเป็นเรื่องยาก (‘ไม่มีใครรู้’ อย่างแน่นอน Rana ยอมรับ) แต่ปรากฏการณ์ DeepSeek ก็ได้เปลี่ยนมุมมองไปอย่างปฏิเสธไม่ได้ มันได้ฉีดความหวังอันทรงพลังว่าภาระงาน AI ที่สำคัญอาจสามารถจัดการได้อย่างประหยัดมากขึ้น ‘DeepSeek เขย่าคนจำนวนมาก’ Rana กล่าว ความหมายนั้นชัดเจน: หากโมเดล AI ที่ซับซ้อนสามารถทำงานได้อย่างมีประสิทธิภาพบนฮาร์ดแวร์ที่ไม่ต้องการทรัพยากรมากนัก บางทีโครงการขนาดมหึมา เช่น โครงการริเริ่มมูลค่าหลายแสนล้านดอลลาร์ที่ลือกันว่าวางแผนโดยกลุ่มความร่วมมือที่เกี่ยวข้องกับผู้เล่นเทคโนโลยีรายใหญ่อาจถูกประเมินใหม่หรือปรับขนาดแตกต่างออกไป
ความฝัน ซึ่งสะท้อนไปทั่วทั้งอุตสาหกรรมตามคำกล่าวของ Rana คือการให้ต้นทุนการดำเนินงาน AI โดยเฉพาะอย่างยิ่งสำหรับ การอนุมาน (inference) (ขั้นตอนที่โมเดลที่ฝึกแล้วสร้างการคาดการณ์หรือเนื้อหา) เป็นไปตามเส้นทางขาลงอย่างรวดเร็วเหมือนที่เห็นในการจัดเก็บข้อมูลบนคลาวด์คอมพิวติ้งในช่วงทศวรรษที่ผ่านมา เขาระลึกถึงเศรษฐศาสตร์ของการจัดเก็บข้อมูลจำนวนมหาศาลบนแพลตฟอร์มอย่าง Amazon Web Services (AWS) ที่ปรับปรุงดีขึ้นอย่างมากในช่วงประมาณแปดปี ‘การลดลงของเส้นโค้งต้นทุนนั้น… เศรษฐศาสตร์มันดี’ เขากล่าว ‘และนั่นคือสิ่งที่ทุกคนหวังว่า ในด้านการอนุมาน… หากเส้นโค้งลดลงถึงระดับนั้น โอ้พระเจ้า อัตราการนำ AI ไปใช้… จะน่าทึ่งมาก’ Singh เห็นด้วย โดยสังเกตว่าการมาถึงของ DeepSeek ได้ ‘เปลี่ยนความคิดของทุกคนเกี่ยวกับการบรรลุประสิทธิภาพ’ โดยพื้นฐาน
ความปรารถนาในประสิทธิภาพนี้เห็นได้ชัดเจนตลอดการประชุม ในขณะที่การเสวนาจำนวนมากเจาะลึกถึงการปฏิบัติจริงในการย้ายโครงการ AI ขององค์กรจากขั้นตอนแนวคิดไปสู่การผลิตจริง การอภิปรายคู่ขนานก็เน้นย้ำอยู่เสมอถึงความจำเป็นที่สำคัญในการลดต้นทุนที่เกี่ยวข้องกับการปรับใช้และการรันโมเดล AI เหล่านี้ เป้าหมายชัดเจน: ทำให้เข้าถึงได้ในวงกว้าง (democratize access) โดยทำให้ AI มีความคุ้มค่าทางเศรษฐกิจสำหรับการใช้งานและผู้ใช้ที่หลากหลายขึ้น Shawn Edwards หัวหน้าฝ่ายเทคโนโลยีของ Bloomberg เอง แนะนำว่า DeepSeek ไม่จำเป็นต้องเป็นเรื่องน่าประหลาดใจทั้งหมด แต่เป็นภาพประกอบที่ทรงพลังของความปรารถนาที่เป็นสากล ‘สิ่งที่ทำให้ผมคิดคือ มันคงจะดีมากถ้าคุณสามารถโบกไม้กายสิทธิ์และทำให้โมเดลเหล่านี้ทำงานได้อย่างมีประสิทธิภาพอย่างไม่น่าเชื่อ’ เขากล่าว พร้อมขยายความปรารถนานี้ไปยังโมเดล AI ทั้งหมด ไม่ใช่แค่ความก้าวหน้าเฉพาะอย่างใดอย่างหนึ่ง
หลักการแพร่กระจาย: เติมเชื้อเพลิงให้กับความต้องการการประมวลผล
หนึ่งในเหตุผลหลักที่ผู้เชี่ยวชาญคาดการณ์ว่าจะมีการลงทุนอย่างต่อเนื่องและมหาศาลในโครงสร้างพื้นฐาน AI แม้จะมีการแสวงหาประสิทธิภาพก็ตาม อยู่ที่ การแพร่กระจายอย่างแท้จริงของโมเดล AI ประเด็นที่เกิดขึ้นซ้ำๆ ตลอดการประชุมที่นิวยอร์กคือการเคลื่อนไหวอย่างเด็ดขาดออกจากแนวคิดเรื่องโมเดล AI แบบเสาหินเดียวที่สามารถจัดการงานทั้งหมดได้
- ครอบครัวของโมเดล: ดังที่ Edwards จาก Bloomberg กล่าวไว้ ‘เราใช้ครอบครัวของโมเดล ไม่มีสิ่งที่เรียกว่าโมเดลที่ดีที่สุด’ สิ่งนี้สะท้อนให้เห็นถึงความเข้าใจที่เพิ่มขึ้นว่าสถาปัตยกรรม AI ที่แตกต่างกันนั้นเก่งในงานที่แตกต่างกัน – การสร้างภาษา การวิเคราะห์ข้อมูล การจดจำภาพ การเติมโค้ด และอื่นๆ
- การปรับแต่งสำหรับองค์กร: ผู้ร่วมเสวนาเห็นพ้องกันอย่างกว้างขวางว่า ในขณะที่โมเดล ‘พื้นฐาน’ (foundation) หรือ ‘แนวหน้า’ (frontier) ขนาดใหญ่ที่ใช้งานทั่วไปจะยังคงได้รับการพัฒนาและปรับปรุงโดยห้องปฏิบัติการ AI รายใหญ่ แต่การดำเนินการที่แท้จริงภายในธุรกิจเกี่ยวข้องกับการปรับใช้โมเดล AI เฉพาะทาง ที่อาจมีจำนวนหลายร้อยหรือหลายพันโมเดล
- การปรับละเอียด (Fine-Tuning) และข้อมูลที่เป็นกรรมสิทธิ์: โมเดลองค์กรจำนวนมากเหล่านี้จะถูกดัดแปลงจากโมเดลพื้นฐานผ่านกระบวนการที่เรียกว่า การปรับละเอียด (fine-tuning) สิ่งนี้เกี่ยวข้องกับการฝึกโครงข่ายประสาทเทียมที่ฝึกไว้ล่วงหน้าซ้ำบนข้อมูลเฉพาะของบริษัท ซึ่งมักจะเป็นข้อมูลที่เป็นกรรมสิทธิ์ สิ่งนี้ช่วยให้ AI เข้าใจบริบททางธุรกิจ คำศัพท์เฉพาะทาง และปฏิสัมพันธ์กับลูกค้าที่ไม่เหมือนใคร ทำให้ได้ผลลัพธ์ที่เกี่ยวข้องและมีค่ามากกว่าที่โมเดลทั่วไปจะทำได้
- การทำให้การพัฒนาเข้าถึงได้ง่ายขึ้น: Jed Dougherty ซึ่งเป็นตัวแทนของแพลตฟอร์มวิทยาศาสตร์ข้อมูล Dataiku เน้นย้ำถึงความต้องการ ‘ทางเลือกในหมู่โมเดล’ สำหรับเอเจนต์ AI ขององค์กร เขาเน้นย้ำถึงความสำคัญของการให้บริษัทต่างๆ สามารถควบคุม สร้าง และ ตรวจสอบได้ (auditability) เหนือเครื่องมือ AI ของตน ‘เราต้องการนำเครื่องมือในการสร้างสิ่งเหล่านี้ไปไว้ในมือของผู้คน’ Dougherty ยืนยัน ‘เราไม่ต้องการให้ PhD สิบคนสร้างเอเจนต์ทั้งหมด’ แรงผลักดันสู่การเข้าถึงที่กว้างขึ้นในการพัฒนาเองนี้บ่งบอกถึงความต้องการโครงสร้างพื้นฐานพื้นฐานเพิ่มเติมเพื่อสนับสนุนความพยายามในการสร้างแบบกระจายเหล่านี้
- AI เฉพาะแบรนด์: อุตสาหกรรมสร้างสรรค์เป็นตัวอย่างที่สำคัญ Hannah Elsakr ผู้นำธุรกิจใหม่ที่ Adobe อธิบายกลยุทธ์ของพวกเขาที่เดิมพันกับโมเดลที่กำหนดเองว่าเป็นตัวสร้างความแตกต่างที่สำคัญ ‘เราสามารถฝึกส่วนขยายโมเดลที่กำหนดเองสำหรับแบรนด์ของคุณซึ่งสามารถช่วยในแคมเปญโฆษณาใหม่ได้’ เธอแสดงให้เห็นว่า AI สามารถปรับแต่งให้รักษาความสวยงามและข้อความเฉพาะของแบรนด์ได้อย่างไร
นอกเหนือจากการกระจายความหลากหลายของโมเดลแล้ว การปรับใช้ เอเจนต์ AI (AI agents) ที่เพิ่มขึ้นภายในเวิร์กโฟลว์ขององค์กรก็เป็นอีกหนึ่งตัวขับเคลื่อนที่สำคัญของความต้องการในการประมวลผล เอเจนต์เหล่านี้ไม่ได้ถูกมองว่าเป็นเพียงเครื่องมือแบบพาสซีฟ แต่เป็นผู้เข้าร่วมที่กระตือรือร้นซึ่งสามารถดำเนินงานหลายขั้นตอนได้
Ray Smith หัวหน้าฝ่ายเอเจนต์และระบบอัตโนมัติของ Microsoft Copilot Studio คาดการณ์อนาคตที่ผู้ใช้โต้ตอบกับเอเจนต์เฉพาะทางหลายร้อยตัวผ่านอินเทอร์เฟซแบบครบวงจรเช่น Copilot ‘คุณจะไม่ยัดกระบวนการทั้งหมดลงในเอเจนต์เดียว คุณจะแบ่งมันออกเป็นส่วนๆ’ เขาอธิบาย เอเจนต์เหล่านี้ เขากล่าวว่า โดยพื้นฐานแล้วคือ ‘แอปในโลกใหม่’ ของการเขียนโปรแกรม วิสัยทัศน์คือการที่ผู้ใช้เพียงแค่ระบุเป้าหมายของตน – ‘บอกสิ่งที่เราต้องการทำให้สำเร็จ’ – และเอเจนต์จะประสานงานขั้นตอนที่จำเป็น ‘แอปแบบเอเจนต์เป็นเพียงวิธีใหม่ของเวิร์กโฟลว์’ Smith กล่าว โดยเน้นว่าการทำให้วิสัยทัศน์นี้เป็นจริงนั้นเป็นเรื่องของ ‘ความเร็วที่เราสร้างมันขึ้นมา’ มากกว่าความเป็นไปได้ทางเทคโนโลยี (‘ทั้งหมดเป็นไปได้ทางเทคโนโลยี’)
แรงผลักดันในการฝังเอเจนต์ AI ให้ลึกซึ้งยิ่งขึ้นในกระบวนการประจำวันขององค์กรนี้ยิ่งเพิ่มแรงกดดันในการลดต้นทุนและการปรับใช้ที่มีประสิทธิภาพ James McNiven หัวหน้าฝ่ายจัดการผลิตภัณฑ์ของ ARM Holdings ยักษ์ใหญ่ด้านไมโครโปรเซสเซอร์ มองความท้าทายในแง่ของการเข้าถึง ‘เราจะให้การเข้าถึงบนอุปกรณ์ต่างๆ มากขึ้นได้อย่างไร?’ เขาครุ่นคิด เมื่อสังเกตเห็นโมเดลที่บรรลุความสามารถระดับ ‘PhD’ ในงานเฉพาะ เขาได้เปรียบเทียบกับผลกระทบที่เปลี่ยนแปลงไปของการนำระบบชำระเงินผ่านมือถือไปยังประเทศกำลังพัฒนาเมื่อหลายปีก่อน คำถามหลักยังคงอยู่: ‘เราจะนำ [ความสามารถ AI] นั้นไปสู่ผู้ที่สามารถใช้ความสามารถนั้นได้อย่างไร?’ การทำให้เอเจนต์ AI ที่ซับซ้อนพร้อมใช้งานในฐานะผู้ช่วยสำหรับพนักงานในวงกว้างนั้น ไม่เพียงแต่ต้องการซอฟต์แวร์ที่ชาญฉลาดเท่านั้น แต่ยังต้องการฮาร์ดแวร์ที่มีประสิทธิภาพ และหลีกเลี่ยงไม่ได้ที่จะต้องมีการลงทุนในโครงสร้างพื้นฐานพื้นฐานมากขึ้น แม้ว่าประสิทธิภาพต่อการคำนวณจะดีขึ้นก็ตาม
อุปสรรคในการขยายขนาด: ซิลิคอน พลังงาน และยักษ์ใหญ่คลาวด์
แม้แต่โมเดลพื้นฐานทั่วไปที่ใช้กันอย่างแพร่หลายที่สุดก็ยังทวีคูณในอัตราที่น่าตกใจ ทำให้เกิดภาระอย่างมากต่อโครงสร้างพื้นฐานที่มีอยู่ Dave Brown ผู้ดูแลการประมวลผลและเครือข่ายสำหรับ Amazon Web Services (AWS) เปิดเผยว่าแพลตฟอร์มของพวกเขาเพียงอย่างเดียวให้ลูกค้าเข้าถึง โมเดล AI ที่แตกต่างกันประมาณ 1,800 โมเดล เขาเน้นย้ำถึงการมุ่งเน้นอย่างเข้มข้นของ AWS ในการ ‘ทำ многоеเพื่อลดต้นทุน’ ของการรันเครื่องมืออันทรงพลังเหล่านี้
กลยุทธ์สำคัญสำหรับผู้ให้บริการคลาวด์เช่น AWS เกี่ยวข้องกับการพัฒนา ซิลิคอนแบบกำหนดเอง (custom silicon) ของตนเอง Brown เน้นย้ำถึงการใช้ชิปที่ออกแบบโดย AWS ที่เพิ่มขึ้น เช่น โปรเซสเซอร์ Trainium ที่ปรับให้เหมาะสมสำหรับการฝึก AI โดยระบุว่า ‘AWS ใช้โปรเซสเซอร์ของเราเองมากกว่าโปรเซสเซอร์ของบริษัทอื่น’ การเคลื่อนไหวไปสู่ฮาร์ดแวร์เฉพาะทางที่พัฒนาขึ้นเองนี้มีจุดมุ่งหมายเพื่อควบคุมประสิทธิภาพและต้นทุน ลดการพึ่งพาซัพพลายเออร์ชิปเอนกประสงค์เช่น Nvidia, AMD และ Intel แม้จะมีความพยายามเหล่านี้ Brown ก็ยอมรับความจริงพื้นฐานอย่างตรงไปตรงมา: ‘ลูกค้าจะทำมากขึ้นหากต้นทุนต่ำลง’ เพดานความต้องการในปัจจุบันถูกกำหนดโดยข้อจำกัดด้านงบประมาณมากกว่าการขาดแอปพลิเคชันที่มีศักยภาพ
ขนาดของทรัพยากรที่ต้องการโดยนักพัฒนา AI ชั้นนำนั้นมหาศาล Brown ตั้งข้อสังเกตถึงความร่วมมือรายวันของ AWS กับ Anthropic ผู้สร้างตระกูลโมเดลภาษา Claude ที่ซับซ้อน Michael Gerstenhaber หัวหน้าฝ่ายอินเทอร์เฟซการเขียนโปรแกรมแอปพลิเคชันของ Anthropic ซึ่งพูดร่วมกับ Brown ชี้ให้เห็นถึงความเข้มข้นในการคำนวณของ AI สมัยใหม่ โดยเฉพาะโมเดลที่ออกแบบมาสำหรับการให้เหตุผลที่ซับซ้อนหรือ ‘การคิด’ โมเดลเหล่านี้มักจะสร้างคำอธิบายทีละขั้นตอนโดยละเอียดสำหรับคำตอบ ซึ่งใช้พลังการประมวลผลจำนวนมาก ‘โมเดลการคิดทำให้ต้องใช้ความจุจำนวนมาก’ Gerstenhaber กล่าว
ในขณะที่ Anthropic ทำงานอย่างแข็งขันกับ AWS ในเทคนิคการเพิ่มประสิทธิภาพ เช่น ‘การแคชพรอมต์’ (prompt caching) (การจัดเก็บและนำการคำนวณจากการโต้ตอบก่อนหน้านี้มาใช้ซ้ำเพื่อประหยัดทรัพยากร) ความต้องการฮาร์ดแวร์พื้นฐานยังคงมหาศาล Gerstenhaber กล่าวอย่างตรงไปตรงมาว่า Anthropic ต้องการ ‘ตัวเร่งประมวลผล (accelerators) หลายแสนตัว’ – ชิป AI เฉพาะทาง – ที่กระจายอยู่ ‘ทั่วศูนย์ข้อมูลหลายแห่ง’ เพียงเพื่อรันชุดโมเดลปัจจุบันของตน สิ่งนี้ให้ความรู้สึกที่เป็นรูปธรรมเกี่ยวกับขนาดของทรัพยากรการประมวลผลที่สนับสนุนผู้เล่น AI รายใหญ่เพียงรายเดียว
สิ่งที่ซ้ำเติมความท้าทายในการจัดหาและจัดการกองทัพซิลิคอนขนาดใหญ่คือ การใช้พลังงานที่เพิ่มสูงขึ้น ที่เกี่ยวข้องกับ AI Brown เน้นย้ำว่านี่เป็นข้อกังวลที่สำคัญและทวีความรุนแรงขึ้นอย่างรวดเร็ว ศูนย์ข้อมูลปัจจุบันที่รองรับภาระงาน AI ที่เข้มข้นกำลังใช้พลังงานที่วัดได้เป็นร้อยเมกะวัตต์แล้ว การคาดการณ์ชี้ให้เห็นว่าความต้องการในอนาคตจะไต่ระดับขึ้นสู่ช่วงกิกะวัตต์อย่างหลีกเลี่ยงไม่ได้ – ซึ่งเทียบเท่ากับผลผลิตของโรงไฟฟ้าขนาดใหญ่ ‘พลังงานที่มันใช้’ Brown เตือน โดยอ้างถึง AI ‘มีขนาดใหญ่ และรอยเท้าก็ใหญ่ในศูนย์ข้อมูลหลายแห่ง’ ความต้องการพลังงานที่เพิ่มสูงขึ้นนี้นำเสนอไม่เพียงแต่ต้นทุนการดำเนินงานมหาศาลเท่านั้น แต่ยังรวมถึงความท้าทายด้านสิ่งแวดล้อมและโลจิสติกส์ที่สำคัญสำหรับการจัดหาที่ตั้งและการจ่ายพลังงานให้กับโครงสร้างพื้นฐาน AI รุ่นต่อไป
ตัวแปรทางเศรษฐกิจ: เงาเหนือแผนการเติบโต
แม้จะมีแนวโน้มเชิงบวกที่ขับเคลื่อนโดยความก้าวหน้าทางเทคโนโลยีและกรณีการใช้งานที่เฟื่องฟู แต่ตัวแปรสำคัญก็ปรากฏอยู่เหนือการคาดการณ์ทั้งหมดสำหรับการลงทุน AI: สภาพภูมิอากาศทางเศรษฐกิจ ในวงกว้าง เมื่อการประชุม Bloomberg Intelligence สิ้นสุดลง ผู้เข้าร่วมประชุมได้สังเกตเห็นความผันผวนของตลาดที่เกิดจากมาตรการภาษีศุลกากรทั่วโลกที่ประกาศใหม่ ซึ่งถูกมองว่ากว้างขวางกว่าที่คาดการณ์ไว้
สิ่งนี้ทำหน้าที่เป็นเครื่องเตือนใจอันทรงพลังว่าแผนงานทางเทคโนโลยีที่ทะเยอทะยานสามารถถูกขัดขวางได้อย่างรวดเร็วโดยอุปสรรคทางเศรษฐกิจมหภาค Rana จาก Bloomberg เตือนว่าในขณะที่การใช้จ่ายด้าน AI อาจได้รับการปกป้องบ้างในตอนแรก แต่ส่วนดั้งเดิมของการลงทุนด้านไอทีขององค์กร เช่น เซิร์ฟเวอร์และที่เก็บข้อมูลที่ไม่เกี่ยวข้องกับ AI อาจเป็นเหยื่อรายแรกในการหดตัวทางเศรษฐกิจ ‘สิ่งสำคัญอีกอย่างที่เรามุ่งเน้นคือการใช้จ่ายด้านเทคโนโลยีที่ไม่ใช่ AI’ เขากล่าว พร้อมแสดงความกังวลเกี่ยวกับผลกระทบที่อาจเกิดขึ้นกับผู้ให้บริการเทคโนโลยีรายใหญ่ในช่วงฤดูประกาศผลประกอบการ แม้กระทั่งก่อนที่จะพิจารณางบประมาณ AI โดยเฉพาะ
อย่างไรก็ตาม มีทฤษฎีที่แพร่หลายว่า AI อาจพิสูจน์ได้ว่ามีความยืดหยุ่นเป็นพิเศษ Rana แนะนำว่าประธานเจ้าหน้าที่ฝ่ายการเงิน (CFOs) ของบริษัทขนาดใหญ่ ที่เผชิญกับข้อจำกัดด้านงบประมาณเนื่องจากความไม่แน่นอนทางเศรษฐกิจหรือแม้แต่ภาวะถดถอย อาจเลือกที่จะ จัดลำดับความสำคัญของโครงการริเริ่ม AI พวกเขาอาจโยกย้ายเงินทุนจากส่วนที่มีความสำคัญน้อยกว่าเพื่อปกป้องการลงทุน AI เชิงกลยุทธ์ที่ถูกมองว่ามีความสำคัญต่อความสามารถในการแข่งขันในอนาคต
ทว่า มุมมองในแง่ดีนี้ยังห่างไกลจากการรับประกัน การทดสอบขั้นสุดท้าย ตามคำกล่าวของ Rana คือการที่บริษัทขนาดใหญ่จะยังคงรักษาเป้าหมายการใช้จ่ายด้านทุนที่ก้าวร้าว โดยเฉพาะอย่างยิ่งสำหรับการสร้างศูนย์ข้อมูล AI หรือไม่ เมื่อเผชิญกับความไม่แน่นอนทางเศรษฐกิจที่เพิ่มสูงขึ้น คำถามสำคัญยังคงอยู่: ‘พวกเขาจะพูดว่า ‘คุณรู้อะไรไหม? มันไม่แน่นอนเกินไป’ หรือไม่’ คำตอบจะเป็นตัวกำหนดว่าแรงผลักดันที่ดูเหมือนจะหยุดไม่ได้เบื้องหลังการใช้จ่ายโครงสร้างพื้นฐาน AI จะยังคงไต่ระดับขึ้นอย่างไม่หยุดยั้ง หรือเผชิญกับการหยุดชะงักที่ไม่คาดคิดซึ่งกำหนดโดยความเป็นจริงทางเศรษฐกิจโลก