DeepSeek의 R1과 같은 정교한 인공지능 모델의 등장은 서구 기술 환경 전반에 파문을 일으켰으며, AI 개발 전략, 특히 비용 효율성과 최첨단 기능이라는 종종 상충하는 요구 사항에 대한 필요한 성찰을 촉발했습니다. 그러나 그 영향은 단순한 기술적 벤치마크나 경제적 효율성을 훨씬 뛰어넘습니다. DeepSeek이 강조하는 궤적은 더 심오하고 시급한 고려를 강요합니다. 특정 유형의 AI, 특히 비민주 국가가 주도하는 AI의 부상은 알고리즘에 의해 점점 더 형성되는 시대에 민주주의 자체의 미래 건강과 원칙에 무엇을 의미하는가?
이 도전의 핵심에는 오픈소스 AI라는 개념이 있습니다. 이는 기본 코드부터 훈련에 사용된 데이터셋에 이르기까지 기본적인 구성 요소가 공개적으로 접근 가능한 AI 시스템을 의미합니다. 이러한 투명성은 사용자가 도구를 활용할 뿐만 아니라 내부 작동 방식을 연구하고, 특정 목적에 맞게 수정하고, 혁신을 공유할 수 있게 합니다. 복잡한 AI 모델의 맥락에서 ‘오픈소스’의 정확한 정의는 여전히 논쟁 중이지만, 그 잠재력은 엄청납니다. 이는 AI 개발을 민주화하고, 개발자들이 협력하고 서로의 작업을 기반으로 구축할 수 있는 활기찬 생태계를 조성할 것을 약속합니다. 이러한 협력 정신은 개인, 연구자, 커뮤니티가 교육, 의료 서비스 제공, 금융 서비스와 같은 중요한 부문에 AI 솔루션을 맞춤화할 수 있도록 힘을 실어주어, 잠재적으로 상당한 혁신을 촉발하고 전반적인 경제 발전을 가속화할 수 있습니다.
그러나 이 유망한 기술적 길은 특히 거버넌스와 기본 가치와 관련하여 내재된 복잡성과 위험을 안고 있습니다. 예를 들어, DeepSeek R1 모델에 대한 보고서는 사용자로부터 정보를 검열하거나 선택적으로 보류하는 메커니즘을 통합할 수 있음을 시사합니다. 이 단일 사례는 더 큰 위험을 강조합니다. 민주주의 국가들은 우수한 AI 성능을 위한 기술 경쟁에서 뒤처질 위험에 처해 있을 뿐만 아니라, AI의 거버넌스를 형성하는 중요한 싸움에서 입지를 내줄 수 있는 동등하게 중요한 위험에 직면해 있습니다. 이는 잠재적으로 권위주의적 원칙이 내장된 시스템이 전 세계적으로 확산되어 표현의 자유와 정보 접근과 같은 민주적 규범을 지키도록 설계된 시스템을 압도하게 만들 수 있습니다.
따라서 현재 시점은 선제적이고 조율된 대응을 요구합니다. 미국이 민주주의 동맹국, 특히 유럽 연합(EU)과 강력한 파트너십을 구축하여 오픈소스 AI에 대한 글로벌 표준과 모범 사례를 구체적으로 수립하는 것이 필수적입니다. 기존 입법 프레임워크와 상당한 시장 영향력을 활용하여, 이 대서양 파트너들은 이 급성장하는 분야에 대한 강력한 거버넌스 구조 창설을 주도해야 합니다. 중요한 첫 단계는 규제 명확성과 효과성을 보장하기 위해 오픈소스 AI의 기능적 정의에 공식적으로 합의하는 것입니다. 이어서, 투명성, 공정성, 책임성, 기본권 존중과 같은 민주적 가치가 개발되고 홍보되는 오픈소스 AI 모델 내에 깊이 내장되도록 보장하기 위한 공동의 노력을 가속화해야 합니다. 이러한 전략적 추진은 교묘하게 독재적 통제에 의해 형성되는 미래가 아닌, 진정으로 개방적이고 투명하며 모두에게 힘을 실어주는 AI 미래를 위한 길을 닦는 데 필수적입니다.
중국의 계산된 개방성 포용
현재의 역학을 이해하려면 AI 영역에서 중국의 전략적 움직임을 이해해야 합니다. DeepSeek의 주목할 만한 성공의 일부는 단지 기술적 역량만이 아닙니다. 이는 중국 공산당(CCP)이 오픈소스 AI의 규범 설정을 법률 및 정책 구조에 직접 통합하려는 의도를 나타내는 점점 더 명확해지는 신호와 일치합니다. 중요한 지표는 2024년 4월 모델 AI 법 초안과 함께 도착했습니다. 이 문서는 국내 오픈소스 AI 생태계 육성에 대한 베이징의 지원을 명시적으로 표명합니다.
이 법 초안 제19조는 국가가 ‘오픈소스 생태계 건설을 촉진’하고 관련 기관이 ‘오픈소스 플랫폼, 오픈소스 커뮤니티, 오픈소스 프로젝트를 구축하거나 운영하는 것을 적극적으로 지원한다’고 선언합니다. 더 나아가 기업들이 ‘소프트웨어 소스 코드, 하드웨어 설계, 애플리케이션 서비스를 공개’하도록 장려하여, 표면적으로는 산업 전반의 공유와 협력적 혁신을 촉진하려는 것입니다. 아마도 가장 의미심장한 것은, 이 초안이 ‘국가 표준’을 준수하는 거버넌스 시스템을 구축하고 ‘상응하는 안전 조치’를 이행하는 것을 조건으로 오픈소스 AI 모델을 제공하는 기관에 대한 법적 책임을 줄이거나 심지어 면제할 것을 제안한다는 점입니다. 이는 종종 사용자 권리 보호를 더 명시적으로 강조했던 중국의 이전 AI 관련 법률에서 잠재적으로 중요한 변화를 나타냅니다. 여전히 초안이지만, 모델 AI 법 내의 특정 조항은 중국이 국내에서 오픈소스 AI를 어떻게 배포할 계획인지, 그리고 결정적으로 수출되는 AI 모델이 어떤 특성을 가질 수 있는지 보여주는 귀중한 청사진을 제공합니다.
이러한 전략적 방향을 더욱 강화하는 것은 AI 안전 거버넌스 프레임워크입니다. 이는 중국이 ‘글로벌 수준에서 AI 안전 거버넌스에 대한 국제 협력을 촉진’하기 위해 국제적으로 활용하려는 문서입니다. 이 프레임워크는 오픈소스 AI에 대한 중국의 커져가는 자기주장을 반영합니다. 중국 국가사이버보안기술위원회 260(National Technical Committee 260 on Cybersecurity) – 2024년 9월 CCP에 의해 사이버보안 지침이 공식적으로 채택된 강력한 중국 사이버스페이스 관리국(Cyberspace Administration of China)과 밀접하게 연관된 기관 – 이 초안을 작성한 이 프레임워크는 명확하게 명시합니다: ‘우리는 AI 지식 공유를 촉진하고, 오픈소스 조건 하에 AI 기술을 대중에게 제공하며, AI 칩, 프레임워크, 소프트웨어를 공동으로 개발해야 한다.’ 글로벌 청중을 대상으로 한 문서에 이러한 강력한 성명을 포함시킨 것은 중국이 오픈소스 AI 운동에 참여할 뿐만 아니라, 이 중요한 기술 영역에서 선도적인 옹호자이자 표준 설정자로서 자리매김하려는 야심을 분명히 보여줍니다. 그러나 이러한 계산된 ‘개방성’ 포용은 뚜렷하게 통제된 환경 내에서 작동하며, 국가 목표와의 일치를 유지하면서 오픈소스의 혁신적인 힘을 활용하는 것을 목표로 합니다.
미국의 망설임: 방향 설정보다 방어
태평양 건너편, 미국에서 오픈소스 AI를 둘러싼 이야기는 대조적인 연구를 제시합니다. 얼마 동안 기술 산업과 학계 내의 옹호자들은 오픈소스 접근 방식의 상당한 이점을 옹호해 왔습니다. 저명한 업계 인사들은 미국 정부에 오픈소스 AI 개발 육성에 더 큰 전략적 강조를 둘 것을 공개적으로 촉구했습니다. 주목할 만한 예는 Mark Zuckerberg가 오픈소스 모델 Llama 3.1을 출시하면서 오픈소스가 모든 사람에게 광범위한 ‘경제적 기회와 안보’를 창출할 ‘세계 최고의 기회’라고 주장한 것입니다.
영향력 있는 집단으로부터의 이러한 목소리 높은 옹호에도 불구하고, 미국은 오픈소스 AI의 개발을 촉진하거나 안내하기 위해 특별히 설계된 중요한 입법 프레임워크를 확립하는 데 눈에 띄게 실패했습니다. 한 미국 상원의원이 2023년에 오픈소스 소프트웨어 보안을 위한 프레임워크 구축을 목표로 하는 법안을 발의했지만, 이 법안은 의미 있는 진전 없이 지연되고 있습니다. 연방 기관들은 이 문제를 언급했지만, 종종 신중하거나 반응적인 자세를 취했습니다. 작년에 국가통신정보청(NTIA)은 ‘오픈 웨이트’를 가진 이중 용도 AI 기반 모델을 조사하는 보고서를 발표했습니다. ‘오픈 웨이트’는 일반적으로 모델의 매개변수를 사용할 수 있음을 의미하지만, 반드시 진정한 오픈소스(종종 훈련 데이터 및 코드에 대한 접근 포함)의 전체 기준을 충족하는 것은 아니라는 점에 유의하는 것이 중요합니다. NTIA 보고서는 정부가 적절한 제한을 결정하기 위해 이러한 오픈 웨이트 모델과 관련된 잠재적 위험에 대한 모니터링을 강화할 것을 권고했습니다. 이후, Biden 행정부의 최종 AI 규제 프레임워크는 오픈 모델에 대해 다소 완화된 입장을 채택하여, 가장 강력한 클로즈드 웨이트 모델에 대해 더 엄격한 요구 사항을 설정하면서 오픈 웨이트 모델은 이러한 특정 제약에서 대체로 제외했습니다.
그럼에도 불구하고, 민주적인 오픈소스 AI를 옹호하기 위한 명확하고 선제적인 국가 전략은 여전히 찾기 어렵습니다. 잠재적인 리더십 변화 하에서의 미래 방향은 또 다른 불확실성을 더합니다. 전 대통령 Donald Trump는 오픈소스 AI에 관한 구체적인 정책이나 지침을 명확히 밝히지 않았습니다. 그는 Biden 대통령의 초기 AI 행정 명령을 폐지했지만, 발표된 대체 명령은 오픈소스 AI의 개발을 육성하거나 조종하는 데 전념하는 구체적인 이니셔티브를 개괄하지 않았습니다.
전반적으로 미국의 접근 방식은 주로 방어적인 것으로 보입니다. 주요 초점은 종종 독점적인 고성능 AI 모델을 개발하는 동시에, 적, 특히 중국이 첨단 반도체 기술 및 AI 기능에 접근하는 것을 막기 위해 상당한 노력을 기울이는 데 있는 것 같습니다. 이러한 방어적 자세는 국가 안보 관점에서 이해할 수 있지만, 중요한 공격 전략, 즉 민주주의 원칙에 뿌리를 둔 오픈소스 AI의 글로벌 생태계를 적극적으로 육성하고 홍보하는 것을 소홀히 할 위험이 있습니다. 미국은 기술적 요새를 지키는 데 몰두하여, 개방적이고 권리를 존중하는 AI 대안의 선제적 보급을 통해 더 넓은 글로벌 환경을 형성할 기회를 놓치고 있는 것으로 보입니다.
유럽의 규제 역설: 권력과 마비
디지털 영역에서 단호한 규제 입장으로 유명한 유럽 연합(EU)은 오픈소스 AI와 관련하여 다른 종류의 도전을 제시합니다. 획기적인 일반 데이터 보호 규정(GDPR) 시행 이후, EU는 디지털 경제의 글로벌 표준 설정자로서 성공적으로 자리매김했습니다. 전 세계 국가와 다국적 기업들은 종종 EU 준수 프레임워크에 맞춰 관행을 조정하며, 이러한 추세는 포괄적인 EU AI 법의 등장과 함께 인공지능 영역으로 확장되고 있습니다. 이 법은 연합 전역의 AI 시스템에 대한 위험 기반 규제를 수립하는 것을 목표로 합니다.
그러나 구체적으로 오픈소스 AI를 다루는 데 있어서, EU의 강력한 규제 기구는 놀라울 정도로 주저하는 것처럼 보이며 그 노력은 다소 미흡합니다. AI 법 제2조에는 오픈소스 AI 모델에 대한 특정 규제 면제를 명시하는 간략한 언급이 포함되어 있습니다. 그러나 이 면제의 실제적인 영향은 제한적인 것으로 보이며, 특히 상업적 목적으로 배포되는 모델에는 일반적으로 적용되지 않습니다. 이 좁은 범위는 급성장하는 오픈소스 AI 환경에 대한 실제적인 효과를 상당히 축소시킵니다.
이러한 역설적인 상황 – 오픈소스를 인정하면서도 적극적으로 육성하지 못하는 것 – 은 다른 EU 지침 문서에서도 지속됩니다. 이 논의를 위해 가상으로 2025년 3월에 발표된 가장 최근의 범용 AI 실행 규범(General-Purpose AI Code of Practice)은 안전하고 인간 중심적이며 신뢰할 수 있는 AI 개발에 대한 오픈소스 모델의 긍정적인 기여를 인정할 수 있습니다. 그러나 이러한 문서는 종종 이러한 잠재적으로 유익한 오픈소스 AI 모델의 개발과 광범위한 채택을 적극적으로 촉진하기 위해 설계된 의미 있는 상세 설명이나 구체적인 조치가 부족합니다. AI와 같은 핵심 분야에서 과도한 규제를 해결하고 전략적 경쟁력을 강화하기 위해 표면적으로 설계된 EU 경쟁력 나침반(EU Competitiveness Compass)과 같은 전략적 프레임워크 내에서조차 ‘오픈소스’라는 용어는 눈에 띄게 부재하거나 최소한의 주목을 받습니다.
브뤼셀이 오픈소스 AI를 완전히 수용하고 규제하는 데 대해 보이는 이러한 신중하고 거의 과묵한 접근 방식은 여러 요인에서 비롯된 것으로 보입니다. 한 가지 중요한 장애물은 오픈소스 AI를 정확하게 정의하는 데 내재된 어려움입니다. 주로 소스 코드를 포함하는 전통적인 오픈소스 소프트웨어와 달리, 오픈소스 AI는 복잡한 사전 훈련된 모델, 방대한 데이터셋, 복잡한 아키텍처를 포함합니다. 오픈소스 이니셔티브(OSI)와 같은 조직의 노력에도 불구하고 보편적으로 인정되는 법적 정의가 부족하다는 점은 유럽 위원회(European Commission)와 같은 규제 기관이 일반적으로 불편하게 여기는 수준의 법적 불확실성을 야기합니다.
그러나 이러한 상대적인 비활동의 근본적인 동인은 더 깊을 수 있습니다. GDPR과 같은 광범위한 규제 체제를 확립하는 데 있어 EU의 성공 자체가 위원회가 AI처럼 강력하고 빠르게 진화하는 기술, 특히 그 오픈소스 변형이 다소 불분명하게 정의된 상태에서 광범위한 면제를 만드는 것을 경계하게 만들 수 있습니다. 완전히 확립된 안전 장치 없이 오픈소스 AI를 너무 쉽게 수용하면 EU가 힘들게 얻은 글로벌 규제 영향력을 의도치 않게 약화시킬 수 있다는 두려움이 있을 수 있습니다. 이는 전략적 도박 – 잠재적으로 더 역동적이지만 덜 예측 가능한 개방형 혁신 생태계를 육성하는 것보다 포괄적인 통제를 우선시하는 것 – 이며, 브뤼셀은 지금까지 결정적으로 감수할 의향을 거의 보이지 않았습니다. 이러한 규제 마비는 다른 이들이 쉽게 채우고 있는 공백을 남깁니다.
변화하는 AI의 지정학적 지형
중국의 오픈소스 AI에 대한 전략적 추진과 미국 및 유럽 연합의 상대적인 주저함의 결합은 인공지능의 지정학적 지형을 적극적으로 재편하고 있습니다. 기술 자립을 향한 중국의 단호한 추진 – 이제 오픈소스 AI 전략을 공고히 하는 것을 명확히 포함하는 캠페인 – 은 부분적으로 수년 전부터 미국의 국가 안보, 경제 경쟁력, 지적 재산권 보호 우려로 인해 시행된 첨단 컴퓨팅 하드웨어 및 반도체를 대상으로 한 지속적인 미국 수출 통제에 대한 대응으로 이해될 수 있습니다. 오픈소스 포용을 포함한 중국의 대응 조치는 두 글로벌 강대국 간의 기술 패권을 위한 더 광범위하고 심화되는 전략적 경쟁을 반영합니다. 한편, EU는 일반적으로 이 경쟁에서 동일한 규모의 직접적인 기술 경쟁을 통해서가 아니라, 기본권, 프라이버시, 공정성 및 알고리즘 책임성과 같은 민주적 가치 보호에 초점을 맞춘 글로벌 규범을 설정함으로써 영향력을 행사합니다. 이러한 표준은 실제로 주요 글로벌 기술 기업의 정책을 형성해 왔습니다.
그러나 오픈소스 AI의 리더이자 옹호자로서 공격적으로 자리매김함으로써, 중국은 특정 서구 기술에 대한 제한된 접근이라는 도전을 전략적 기회로 영리하게 전환하고 있습니다. 중국은 효과적으로 자체적인 독특한 버전의 AI 개방성을 만들어 글로벌 커뮤니티, 특히 접근 가능한 AI 도구를 찾는 개발도상국에 마케팅하고 있습니다. DeepSeek의 R1과 같은 유능한 중국 모델의 출현은 Alibaba와 같은 다른 국내 기술 대기업의 제품과 함께 글로벌 역학을 변화시키기 시작했습니다. 이는 잠재적으로 전 세계적으로 폐쇄적이고 독점적인 AI 모델에 대한 선호도를 감소시킬 수 있으며, 특히 개방형 대안이 더 접근하기 쉽거나 비용 효율적으로 보일 경우 더욱 그렇습니다. 예를 들어, DeepSeek은 처리 능력이 제한된 장치에 적합한 더 작고 계산 요구량이 적은 모델을 출시했습니다. AI 개발의 주요 허브인 Hugging Face와 같은 플랫폼은 자체 모델 개선을 위해 DeepSeek-R1의 훈련 방법 측면을 분석하고 복제하기 시작했다고 보고되었습니다. Microsoft, OpenAI, Meta와 같은 서구 기술 대기업조차도 부분적으로 DeepSeek 개발로 인해 두각을 나타낸 모델 증류와 같은 기술을 점점 더 탐색하고 있습니다.
이 진화하는 환경은 중국이 AI 개방성에 대한 글로벌 논의를 선제적으로 진전시키고 있음을 보여주며, 미국이 처음으로 이 담론에 반응하고 적응하도록 강요하고 있습니다. 동시에 EU는 오픈소스에 관한 법적 및 규제적 관성 상태에 다소 갇혀 있습니다. 이러한 비대칭성은 오픈소스 AI 거버넌스 및 확산이라는 중요한 영역 내에서 눈에 띄는 권력 불균형을 만듭니다.
결정적으로, 중국이 전파하는 오픈소스 AI 버전은 민주 사회에 상당한 우려를 안겨줍니다. CCP는 전략적으로 ‘투 트랙’ 시스템을 구현하는 것으로 보입니다. 즉, 혁신을 촉진하기 위해 AI 개발자와 기업 간의 상대적인 개방성과 협력을 장려하는 동시에, 정보 흐름과 표현의 자유를 제한하기 위해 대중을 향한 모델 내에 통제와 제한을 내장하는 것입니다. 이러한 ‘개방성’은 중국의 확립된 기술 통제 패턴에 의해 크게 조건 지어지며, 종종 모델 입력과 출력이 국가가 승인한 서사, CCP 가치와 일치하고 긍정적인 국가 이미지를 투영하도록 요구합니다. 중국 당국이 공개적으로 오픈소스 원칙을 수용하는 글로벌 지향적인 AI 안전 거버넌스 프레임워크 내에서조차, AI 생성 콘텐츠가 ‘이념적 안보’에 위협을 제기한다는 것에 대한 의미심장한 언어가 있습니다. 이는 사상과 언론의 자유에 대한 CCP의 내재적 한계를 명확히 보여주는 신호입니다.
민주주의 원칙과 기본 인권 보호에 기반한 강력한 대안적 프레임워크 없이는, 세계는 중국의 더 제한적인 오픈소스 AI 해석이 널리 복제되고 채택되는 것을 목격할 위험이 있습니다. 전 세계의 권위주의 정권과 잠재적으로 비국가 행위자조차도 이러한 모델을 기반으로 쉽게 구축하여 정교한 검열과 감시를 가능하게 하면서, 단지 기술 접근성을 촉진하고 있다고 오도할 수 있습니다. 따라서 중국의 기술적 성능을 따라잡는 데만 집중하는 것은 불충분합니다. 민주주의 국가들은 오픈소스 AI 시대를 위한 민주적 거버넌스를 수립하고 홍보하는 데 주도권을 잡음으로써 전략적으로 대응해야 합니다.
대서양 횡단 전진 경로 구축
현재 궤적은 세계 주요 민주주의 국가들 간의 결정적인 행동과 새로운 협력을 요구합니다. 미국과 유럽 연합은 오픈소스 외교 전략에 착수하는 것을 심각하게 고려해야 합니다. 이는 권위주의적 대안에 대한 균형추로서 전 세계적으로 유능하고 신뢰할 수 있으며 권리를 존중하는 AI 모델의 개발과 공유를 선제적으로 추진하는 것을 포함합니다. 이 노력의 핵심은 미국과 EU가 공동으로 개발한 오픈소스 AI를 위한 통합 거버넌스 프레임워크를 만드는 것입니다.
민주적인 AI 미래를 효과적으로 형성하기 위해, 오픈소스 AI에 관한 전담 대서양 횡단 실무 그룹을 설립하는 것이 중요한 다음 단계입니다. 이 그룹은 적절한 경우 인공지능에 관한 글로벌 파트너십(GPAI)과 같은 기존 구조를 활용해야 하지만, 프레임워크 개발 과정 전반에 걸쳐 대서양 양측의 선도적인 기술 기업, 학술 연구자, 시민 사회 전문가의 적극적인 참여와 의견을 결정적으로 보장해야 합니다. 이러한 포괄적인 접근 방식은 원칙적이면서도 실용적인 표준을 만드는 데 필수적입니다.
둘째, 미국과 EU 모두 이 비전 뒤에 실질적인 자원을 투입해야 합니다. 이는 민주적 가치와 명시적으로 일치하는 오픈소스 AI 모델 개발에 특별히 초점을 맞춘 학술 기관, 연구소, 혁신적인 스타트업에 전략적으로 자금을 지원하는 것을 의미합니다. 이러한 모델의 주요 특징은 다음과 같습니다:
- 설계 및 훈련 데이터의 투명성.
- 검열 및 조작에 대한 강력한 보호 장치.
- 책임성 및 편향 완화 메커니즘.
- 프라이버시 및 기본권에 대한 내장된 존중.
이러한 민주적 모델을 홍보하려면 워싱턴과 브뤼셀의 정책 입안자들이 이러한 원칙에 기반한 글로벌 생태계를 육성하는 장기적인 전략적 이점이 개방성과 관련된 인식된 단기적 위험보다 훨씬 크다는 명확한 인식이 필요합니다. 동시에 EU는 이 특정 영역에서 확립된 규제 역량을 더욱 결정적으로 활용해야 합니다. 높은 기준에 대한 약속을 유지하면서도, 브뤼셀은 오픈소스 AI의 법적 정의에 대한 주저함을 극복하고 명확한 지침과 인센티브를 신속하게 수립하여 글로벌 규범 형성에 있어 중국의 커져가는 추진력에 대응해야 합니다. 관리된 불확실성의 정도를 수용하는 것이 더 이상의 입지 상실을 피하기 위해 필요할 수 있습니다.
대서양 관계가 다양한 전선에서 주기적인 난기류에 직면할 수 있지만, 오픈소스 AI에서 중국의 부상이 제기하는 도전은 이 영역에서 경쟁보다는 미-EU 협력의 절대적인 필요성을 강조합니다. 이 중추적인 기술 분야에서 리더십을 되찾으려면 공동의, 미래 지향적인 대서양 횡단 이니셔티브가 필요합니다. 이 이니셔티브는 선제적인 정책 개발, 목표 연구 자금 지원, 혁신 지원을 통합해야 하며, 이 모든 것은 전 세계 사람들에게 진정으로 권리를 존중하고, 투명하며, 창의적이고, 힘을 실어주는 AI 미래를 위한 글로벌 표준을 설정하는 것을 목표로 해야 합니다. 주저하며 관찰할 시간은 끝났습니다. 결정적이고 통일된 행동을 위한 순간은 바로 지금입니다.