생성형 인공지능은 아마존의 Rufus 및 Amazon Seller Assistant와 같은 대화형 어시스턴트를 포함하여 다양한 애플리케이션을 통해 비즈니스 운영을 근본적으로 변화시키고 있습니다. 또한, 가장 영향력 있는 생성형 AI 애플리케이션 중 일부는 백그라운드에서 자율적으로 실행되어 기업이 운영, 데이터 처리 및 콘텐츠 생성을 대규모로 전환할 수 있게 하는 필수 기능입니다. 이러한 비대화형 구현은 일반적으로 대규모 언어 모델(LLM)에 의해 구동되는 에이전트 워크플로 형태로 나타나며 직접적인 사용자 상호 작용 없이도 특정 비즈니스 목표를 산업 전반에 걸쳐 수행할 수 있습니다.
실시간 사용자 피드백과 감독으로 이익을 얻는 대화형 애플리케이션과 달리 비대화형 애플리케이션은 더 높은 지연 시간 허용 오차, 일괄 처리 및 캐싱과 같은 고유한 이점을 제공하지만 автоном적인 특성상 더 강력한 보안 조치와 자세한 품질 보증이 필요합니다.
이 기사에서는 아마존의 4가지 다른 생성형 AI 적용 사례를 살펴봅니다.
- 아마존 상품 정보 생성 및 카탈로그 데이터 품질 개선 – LLM이 판매 파트너와 아마존이 더 높은 품질의 상품 정보를 대규모로 생성하는 데 어떻게 도움이 되는지 보여줍니다.
- 아마존 약국의 처방 처리 – 고도로 규제된 환경에서의 구현과 에이전트 워크플로를 위한 작업 분해를 보여줍니다.
- 리뷰 하이라이트 – 대규모 일괄 처리, 기존 머신 러닝(ML) 통합, 소형 LLM 사용 및 경제적인 솔루션을 설명합니다.
- 아마존 광고 크리에이티브 이미지 및 비디오 생성 – 크리에이티브 작업에서 다중 모드 생성형 AI 및 책임감 있는 AI 실천을 강조합니다.
각 사례 연구는 기술 아키텍처에서 운영 고려 사항에 이르기까지 비대화형 생성형 AI 애플리케이션 구현의 다양한 측면을 보여줍니다. 이러한 예제를 통해 Amazon Bedrock 및 Amazon SageMaker를 포함한 전체 AWS 서비스 세트가 성공의 핵심이 되는 방법을 이해할 수 있습니다. 마지막으로, 다양한 사용 사례에서 보편적으로 공유되는 핵심 경험을 나열합니다.
아마존에서 고품질 상품 정보 만들기
포괄적인 세부 정보를 포함한 고품질 상품 정보를 생성하면 고객이 정보에 입각한 구매 결정을 내리는 데 도움이 됩니다. 전통적으로 판매 파트너는 각 제품의 많은 속성을 수동으로 입력했습니다. 2024년에 출시된 새로운 생성형 AI 솔루션은 브랜드 웹사이트 및 기타 소스에서 제품 정보를 적극적으로 가져와 고객 경험을 개선하여 이 프로세스를 변화시켰습니다.
생성형 AI는 URL, 제품 이미지 또는 스프레드시트와 같은 다양한 형식으로 정보를 입력할 수 있게 하고 이를 필요한 구조 및 형식으로 자동 변환하여 판매 파트너의 경험을 간소화합니다. 900,000명 이상의 판매 파트너가 이를 사용했으며 생성된 상품 정보 초안의 거의 80%가 최소한의 편집만으로 수락되었습니다. AI가 생성한 콘텐츠는 포괄적인 제품 세부 정보를 제공하여 명확성과 정확성을 높이는 데 도움이 되므로 고객 검색에서 제품을 발견하는 데 도움이 됩니다.
새로운 상품 정보의 경우 워크플로는 판매 파트너가 초기 정보를 제공하는 것으로 시작됩니다. 그런 다음, 시스템은 제목, 설명 및 자세한 속성을 포함하여 여러 정보 소스를 사용하여 포괄적인 상품 정보를 생성합니다. 생성된 상품 정보는 승인 또는 편집을 위해 판매 파트너와 공유됩니다.
기존 상품 정보의 경우 시스템은 추가 데이터로 풍부하게 할 수 있는 제품을 식별합니다.
대량 출력을 위한 데이터 통합 및 처리
아마존 팀은 Amazon Bedrock 및 기타 AWS 서비스를 사용하여 LLM 친화적인 API를 위한 강력한 내부 및 외부 소스 커넥터를 구축하여 Amazon.com 백엔드 시스템에 원활하게 통합했습니다.
주요 과제는 텍스트 및 숫자를 포함하여 50개 이상의 속성에 걸쳐 다양한 데이터를 일관된 상품 정보로 통합하는 것입니다. LLM은 전자 상거래 개념을 정확하게 해석하기 위한 특정 제어 메커니즘과 지침이 필요합니다. LLM은 그렇게 복잡하고 다양한 데이터로 최적의 성능을 발휘할 수 없기 때문입니다. 예를 들어 LLM은 칼 블록의 “용량”을 슬롯 수가 아닌 크기로 잘못 인식하거나 “Fit Wear”를 브랜드 이름이 아닌 스타일 설명으로 잘못 인식할 수 있습니다. 이러한 경우를 해결하기 위해 프롬프트 엔지니어링과 미세 조정이 널리 사용되었습니다.
LLM을 사용한 생성 및 검증
생성된 상품 정보는 완전하고 정확해야 합니다. 이 목표를 달성하기 위해 솔루션은 LLM을 사용하여 속성을 생성하고 검증하는 다단계 워크플로를 구현합니다. 이러한 이중 LLM 접근 방식은 안전 문제나 기술 사양을 처리할 때 중요한 환각을 방지하는 데 도움이 됩니다. 팀은 생성 및 검증 프로세스가 효과적으로 상호 보완되도록 보장하기 위해 고급 자체 반성 기술을 개발했습니다.
인적 피드백이 포함된 다단계 품질 보증
인적 피드백은 솔루션 품질 보증의 핵심입니다. 이 프로세스에는 Amazon.com 전문가의 예비 평가와 수락 또는 편집을 위한 입력을 제공하는 판매 파트너가 포함됩니다. 이를 통해 고품질 출력을 제공하고 인공지능 모델을 지속적으로 개선할 수 있습니다.
품질 보증 프로세스에는 ML, 알고리즘 또는 LLM 기반 평가를 통합한 자동화된 테스트 방법이 포함됩니다. 실패한 상품 정보는 다시 생성되고 성공적인 상품 정보는 추가 테스트를 거칩니다. [인과 추론 모델]을 사용하여 상품 정보 성능에 영향을 미치는 기본 기능과 풍부하게 할 수 있는 기회를 식별합니다. 마지막으로 품질 검사를 통과하고 판매 파트너가 수락한 상품 정보는 게시되어 고객이 정확하고 포괄적인 제품 정보를 받을 수 있도록 보장합니다.
정확성과 비용을 위한 애플리케이션 수준 시스템 최적화
정확성과 완전성에 대한 높은 기준을 감안할 때 팀은 포괄적인 실험적 접근 방식을 채택하고 자동화된 최적화 시스템을 갖추었습니다. 이 시스템은 비용을 포함한 더 높은 비즈니스 지표를 개선하기 위해 LLM, 프롬프트, 스크립트, 워크플로 및 인공지능 도구의 다양한 조합을 탐색합니다. 지속적인 평가 및 자동화된 테스트를 통해 제품 상품 정보 생성기는 성능, 비용 및 효율성의 균형을 효과적으로 맞추는 동시에 새로운 인공지능 발전에 적응할 수 있습니다. 이러한 접근 방식은 고객이 고품질 제품 정보로부터 이익을 얻을 수 있음을 의미하며 판매 파트너는 효율적인 상품 정보 생성을 위한 최첨단 도구에 액세스할 수 있습니다.
아마존 약국에서 생성형 AI 기반 처방 처리
앞서 논의한 판매자 상품 정보 예제에서 인적-기계 혼합 워크플로를 기반으로 아마존 약국은 이러한 원칙을 건강 보험 이동성 및 책임법(HIPAA) 규제가 적용되는 산업에 적용하는 방법을 보여줍니다. [아마존 약국이 Amazon SageMaker를 사용하여 LLM 기반 챗봇을 구축하는 방법 이해] 기사에서 환자 치료 전문가를 위한 대화형 어시스턴트를 공유했으며 이제 자동화된 처방 처리에 중점을 둡니다.
아마존 약국에서 우리는 약사 기술자가 약물 지침을 보다 정확하고 효율적으로 처리하는 데 도움이 되도록 Amazon Bedrock 및 SageMaker를 기반으로 구축된 인공지능 시스템을 개발했습니다. 이 솔루션은 인간 전문가를 LLM과 통합하여 생성 및 검증 역할을 수행하여 환자 약물 지침의 정확성을 높입니다.
의료 정확성을 위한 위임된 워크플로 설계
처방 처리 시스템은 인간 전문 지식(데이터 입력원 및 약사)과 AI 지원을 결합하여 방향 제안 및 피드백을 제공합니다. 워크플로는 [Amazon DynamoDB]의 원시 처방 텍스트를 표준화하는 약국 지식 기반 전처리기로 시작한 다음, SageMaker의 미세 조정된 소형 언어 모델(SLM)을 사용하여 주요 구성 요소(복용량, 빈도)를 식별합니다.
이 시스템은 데이터 입력원 및 약사와 같은 전문가를 원활하게 통합하며 생성형 AI는 전체 워크플로를 보완하여 민첩성과 정확성을 높여 환자에게 더 나은 서비스를 제공합니다. 그런 다음, 보안 조치가 포함된 방향 어셈블리 시스템은 데이터 입력원에게 지침을 생성하여 제안 모듈을 통해 입력한 방향을 만듭니다. 태깅 모듈은 오류를 태그 지정하거나 수정하고 데이터 입력원에게 제공되는 피드백으로 추가 보안 조치를 시행합니다. 기술자는 약사에게 피드백을 제공하거나 다운스트림 서비스에 대한 방향을 실행하기 위해 매우 정확하고 안전하게 입력된 방향을 최종 결정합니다.
이 솔루션의 하이라이트 중 하나는 작업 분해의 사용입니다. 이를 통해 엔지니어와 과학자는 전체 프로세스를 여러 단계로 분해할 수 있습니다. 각 단계는 하위 단계로 구성된 개별 모듈을 포함합니다. 팀은 미세 조정된 SLM을 광범위하게 사용했습니다. 또한 이 프로세스는[명명된 엔터티 인식(NER)] 또는 [회귀 모델]을 사용하여 최종 신뢰도를 추정하는 것과 같은 기존 ML 프로그램을 사용했습니다. SLM과 기존 ML을 제어되고 명확하게 정의된 프로세스에서 사용하면 특정 단계에 적절한 보안 조치가 추가되어 엄격한 보안 표준을 유지하는 동시에 처리 속도를 크게 높일 수 있습니다.
이 시스템에는 여러 개의 명확하게 정의된 하위 단계가 포함되어 있으며 각 하위 프로세스는 전문 구성 요소로 작동하여 워크플로에서 반자동이지만 협업적인 방식으로 전반적인 목표를 향해 작동합니다. 이러한 분해 방법은 각 단계에 특정 검증이 있으며 엔드 투 엔드 솔루션보다 더 효과적이며 미세 조정된 SLM을 사용할 수 있음을 입증합니다. 팀은 현재 기존 백엔드 시스템에 통합되어 있기 때문에 워크플로를 조정하기 위해 [AWS Fargate]를 사용합니다.
팀의 제품 개발 프로세스에서 그들은 생성형 AI 애플리케이션에 맞게 조정된 사용하기 쉬운 기능을 갖춘 고성능 LLM을 제공하는 Amazon Bedrock으로 전환했습니다. SageMaker는 추가 LLM 선택, 더 심층적인 사용자 정의 및 기존 ML 방법을 지원합니다. 이 기술에 대한 자세한 내용은 [작업 분해 및 더 작은 LLM이 인공지능을 더 경제적으로 만드는 방법]을 참조하고 [아마존 약국 비즈니스 사례 연구]를 읽어보십시오.
보안 조치 및 HITL을 사용하여 신뢰할 수 있는 애플리케이션 구축
HIPAA 표준을 준수하고 환자 개인 정보를 제공하기 위해 엄격한 데이터 거버넌스 관행을 구현하는 동시에 [Amazon Bedrock Guardrails]를 사용하여 구축되고 인적-기계 루프(HITL) 감독으로 보완된 미세 조정된 LLM과 [Amazon OpenSearch Service]를 사용한[검색 증강 생성(RAG)] 조합하는 하이브리드 접근 방식을 채택했습니다. 이 조합은 특정 하위 작업에서 높은 정확도를 유지하면서 효율적인 지식 검색을 가능하게 합니다.
의료 분야에서 중요한 LLM 환각을 관리하려면 대규모 데이터 세트에서 미세 조정하는 것 이상이 필요합니다. 솔루션은 도메인별 보안 조치를 구현하고 HITL 감독으로 보완하여 시스템의 안정성을 높입니다.
아마존 약국 팀은 약사의 실시간 피드백과 확장된 처방 형식 기능을 통해 시스템을 계속 개선하고 있습니다. 혁신, 도메인 전문 지식, 고급 인공지능 서비스 및 인적 감독의 이러한 균형 잡힌 접근 방식은 운영 효율성뿐만 아니라 인공지능 시스템이 의료 전문가의 역량을 정확하게 강화하여 최적의 환자 치료를 제공할 수 있음을 의미합니다.
생성형 AI 기반 고객 리뷰 하이라이트
이전 예제에서는 아마존 약국이 처방 처리를 위해 LLM을 실시간 워크플로에 통합하는 방법을 보여주었지만 이 사용 사례에서는 유사한 기술(SLM, 기존 ML 및 신중한 워크플로 설계)을 대규모[오프라인 일괄 추론]에 적용하는 방법을 보여줍니다.
아마존은 연간 2억 건 이상의 제품 리뷰와 평가를 처리하기 위해 [AI 생성 고객 리뷰 중점 사항]을 출시했습니다. 이 기능을 사용하면 공유된 고객 의견을 간결한 단락으로 추출하여 제품 및 기능에 대한 긍정적, 중립 및 부정적인 피드백을 강조 표시할 수 있습니다. 쇼핑객은 관련 고객 리뷰에 대한 액세스를 제공하고 원본 리뷰를 보존하여 투명성을 유지하면서 합의를 빠르게 파악할 수 있습니다.
이 시스템은 고객이 특정 기능(예: 사진 품질, 원격 제어 기능 또는 Fire TV의 쉬운 설치)을 선택하여 리뷰 하이라이트를 탐색할 수 있는 인터페이스를 통해 쇼핑 결정을 향상시킵니다. 이러한 기능은 긍정적인 감정을 나타내는 녹색 확인 표시, 부정적인 감정을 나타내는 주황색 마이너스 기호, 중립을 나타내는 회색으로 나타납니다. 즉, 쇼핑객은 검증된 구매 리뷰를 기반으로 제품의 장단점을 빠르게 식별할 수 있습니다.
경제적인 방식으로 LLM을 사용하여 오프라인 사용 사례 처리
팀은 기존 ML 방법과 전문 SLM을 결합한 경제적인 하이브리드 아키텍처를 개발했습니다. 이러한 접근 방식은 감정 분석 및 키워드 추출을 기존 ML에 할당하는 동시에 복잡한 텍스트 생성 작업에 최적화된 SLM을 사용하여 정확성과 처리 효율성을 높입니다.
이 기능은 실시간 엔드포인트에 비해 비용을 크게 줄일 수 있는 [SageMaker 일괄 변환]을 사용하여 비동기식으로 처리합니다. 거의 제로 지연 시간을 제공하기 위해 솔루션은 추출된 통찰력과 기존 리뷰를 [캐시]하여 대기 시간을 줄이고 추가 계산 없이 여러 고객이 동시에 액세스할 수 있도록 합니다. 이 시스템은 새로운 리뷰를 점진적으로 처리하여 전체 데이터 세트를 다시 처리하지 않고 통찰력을 업데이트합니다. 최적의 성능과 비용 효율성을 위해 이 기능은 [Amazon Elastic Compute Cloud](Amazon EC2)[Inf2 인스턴스]를 사용하여 일괄 변환 작업을 수행합니다.[대안에 비해 최대 40% 더 높은 가격 대비 성능 제공].
이러한 포괄적인 접근 방식을 따르면 팀은 비용을 효율적으로 관리하면서 방대한 양의 리뷰와 제품을 처리하여 솔루션을 효율적이고 확장 가능하게 만들 수 있습니다.
아마존 광고 AI 기반 크리에이티브 이미지 및 비디오 생성
이전 예제에서는 주로 텍스트 중심 생성형 AI 적용을 살펴보았지만 이제[아마존 광고 스폰서 광고 크리에이티브 콘텐츠 생성]으로 다중 모드 생성형 AI로 전환합니다. 이 솔루션에는[이미지] 및[비디오] 생성 기능이 있으며 이번 섹션에서는 이러한 기능에 대한 자세한 정보를 공유합니다. 일반적으로 이 솔루션의 핵심은[아마존 Nova] 크리에이티브 콘텐츠 생성 모델을 사용합니다.
고객 요구 사항에 따라 아마존은 2023년 3월에 광고 활동 성공에 어려움을 겪는 광고주의 거의 75%가 크리에이티브 콘텐츠 생성을 주요 과제로 꼽았다는 설문 조사를 실시했습니다. 많은 광고주(특히 내부 기능이나 대행사 지원이 없는 광고주)는 고품질 시각 자료를 제작하는 전문 지식과 비용으로 인해 상당한 장벽에 직면해 있습니다. 아마존 광고 솔루션은 시각적 콘텐츠 생성을 민주화하여 다양한 규모의 광고주가 액세스하고 효율적으로 사용할 수 있도록 합니다. 그 영향은 엄청납니다. [스폰서 브랜드] 광고 캠페인에서 AI가 생성한 이미지를 사용하는 광고주는[클릭률(CTR)]이 거의 8%에 달하고 제출된 광고 캠페인이 비사용자보다 88% 더 많습니다.
작년에 AWS 머신 러닝 블로그에서[이미지 생성 솔루션에 대한 자세한 정보]를 게시했습니다. 그 이후로 아마존은 크리에이티브 이미지 생성을 위한 기반으로[Amazon Nova Canvas]를 채택했습니다. 문자 또는 이미지 프롬프트, 문자 기반 편집 기능, 색상 구성표 및 레이아웃 조정 제어를 활용하여 전문가 수준의 이미지를 만듭니다.
2024년 9월에 아마존 광고 팀은 제품 이미지에서[짧은 비디오 광고]를 만드는 기능을 추가했습니다. 이 기능은 자연어를 통해 시각 스타일, 리듬, 카메라 이동, 회전 및 확대/축소를 제어하여 고객에게 제어 기능을 제공하는[Amazon Bedrock에서 제공되는 기반 모델]을 사용합니다. 비디오 스토리보드를 먼저 설명한 다음 스토리를 생성하는 에이전트 워크플로를 사용합니다.
원래 기사에서 논의한 바와 같이[책임감 있는 AI]는 이 솔루션의 핵심이며 Amazon Nova 크리에이티브 모델에는 워터마크 및 콘텐츠 조정을 포함하여 안전하고 책임감 있는 AI 사용을 지원하는 내장 컨트롤이 있습니다.
이 솔루션은 [AWS Step Functions] 및 [AWS Lambda] 함수를 사용하여 이미지 및 비디오 생성 프로세스의 서버리스 조정을 조정합니다. 생성된 콘텐츠는 [Amazon Simple Storage Service](Amazon S3)에 저장되고 메타데이터는 DynamoDB에 저장되며 [Amazon API Gateway]는 생성 기능에 대한 고객 액세스를 제공합니다. 이 솔루션은 이제 추가 보안 검사를 위해 각 단계에서 [Amazon Rekognition] 및 [Amazon Comprehend] 통합을 유지하는 것 외에도 Amazon Bedrock Guardrails를 채택했습니다.
대규모로 고품질 광고 크리에이티브를 만드는 것은 복잡한 문제를 야기합니다. 생성형 AI 모델은 다양한 제품 카테고리 및 광고 환경에서 매력적이고 브랜드 적합한 이미지를 생성하는 동시에 모든 기술 수준의 광고주가 쉽게 액세스할 수 있도록 해야 합니다. 품질 보증 및 개선은 이미지 및 비디오 생성 기능의 기본입니다. 이 시스템은 [Amazon SageMaker Ground Truth]를 통해 구현되는 광범위한 HITL 프로세스를 통해 지속적으로 강화됩니다. 이러한 구현은 광고주의 제작 프로세스를 변화시킬 수 있는 강력한 도구를 제공하여 모든 제품 카테고리 및 환경에서 고품질 시각적 콘텐츠 제작이 더욱 용이하도록 합니다.
이것은 광고 목표에 맞는 콘텐츠를 만들어야 하는 광고주를 돕기 위해 아마존 광고가 생성형 AI를 사용하는 시작일 뿐입니다. 이 솔루션은 제작 장벽을 줄이면 책임감 있는 AI 사용에 대한 높은 기준을 유지하면서 광고 캠페인을 직접적으로 향상시킬 수 있음을 보여줍니다.
주요 기술 경험 및 토론
비대화형 애플리케이션은 더 높은 지연 시간 허용 오차로 이익을 얻어 일괄 처리 및 캐싱을 수행할 수 있지만 자율성으로 인해 강력한 검증 메커니즘과 더 강력한 보안 조치가 필요합니다. 이러한 통찰력은 비대화형 및 대화형 AI 구현에 적용됩니다.
- 작업 분해 및 에이전트 워크플로 – 복잡한 문제를 더 작은 구성 요소로 분해하는 것은 다양한 구현에서 가치가 있는 것으로 입증되었습니다. 도메인 전문가가 수행하는 이러한 신중한 분해는 특정 하위 작업에 대한 전문 모델을 만들 수 있게 합니다. 아마존 약국 처방 처리에서 미세 조정된 SLM이 복용량 식별과 같은 개별 작업을 처리할 수 있는 것처럼 말입니다. 이 전략을 통해 안정성을 높이고 유지 관리를 간소화하는 명확한 검증 단계가 있는 전용 에이전트를 만들 수 있습니다. 아마존 판매자 상품 정보 사용 사례는 별도의 생성 및 검증 프로세스가 있는 다단계 워크플로를 통해 이를 예시합니다. 또한 리뷰 중점 사용 사례는 사전 처리를 위한 기존 ML을 사용하거나 LLM 작업과 연결할 수 있는 부분을 수행하여 경제적이고 제어되는 LLM 사용을 보여줍니다.
- 하이브리드 아키텍처 및 모델 선택 – 순수 LLM 방법에 비해 기존 ML과 LLM을 결합하면 더 나은 제어 및 비용 효율성을 제공할 수 있습니다. 기존 ML은 감정 분석 및 정보 추출을 위해 리뷰 중점 시스템에 사용된 것처럼 명확하게 정의된 작업을 처리하는 데 능숙합니다. 아마존 팀은 요구 사항에 따라 대형 및 소형 언어 모델을 전략적으로 배포하고 아마존 약국의 구현과 같이 특정 도메인 애플리케이션에 효과적인 RAG와 미세 조정을 결합했습니다.
- 비용 최적화 전략 – 아마존 팀은 일괄 처리, 대용량 운영을 위한 캐싱 메커니즘,[AWS Inferentia] 및 [AWS Trainium]과 같은 전문 인스턴스 유형 및 최적화된 모델 선택을 통해 효율성을 달성했습니다. 리뷰 중점은 점진적인 처리가 계산 요구 사항을 줄이는 방법을 보여주고 아마존 광고는 Amazon Nova기반 모델을 사용하여 크리에이티브 콘텐츠를 경제적으로 생성합니다.
- 품질 보증 및 제어 메커니즘 – 품질 제어는 Amazon Bedrock Guardrails를 통한 특정 도메인 보안 조치와 자동화된 테스트와 인적 평가를 결합한 다단계 검증에 의존합니다. 생성 및 검증을 위한 이중 LLM 접근 방식은 아마존 판매자 상품 정보에서 환각을 방지하는 데 도움이 되고 자체 반성 기술은 정확도를 높입니다. Amazon Nova 크리에이티브 FM은 고유한 책임감 있는 AI 컨트롤을 제공하고 지속적인 A/B 테스트 및 성능 측정을 통해 보완됩니다.
- HITL 구현 – HITL 방법은 약사의 전문가 평가에서 판매 파트너의 최종 사용자 피드백에 이르기까지 여러 계층에 걸쳐 있습니다. 아마존 팀은 구조화된 개선 워크플로를 구축하여 특정 도메인 요구 사항 및 위험 프로필에 따라 자동화와 인적 감독의 균형을 맞춥니다.
- 책임감 있는 AI 및 규정 준수 – 책임감 있는 AI 실천에는 규제 대상 환경에 대한 콘텐츠 섭취 보안 조치와 HIPAA와 같은 규정 준수가 포함됩니다. 아마존 팀은 사용자 지향 애플리케이션에 대한 콘텐츠 조정 기능을 통합하고 소스 정보에 대한 액세스를 제공하여 리뷰 중점의 투명성을 유지하고 품질 및 규정 준수를 높이기 위해 모니터링이 포함된 데이터 거버넌스를 구현했습니다.
이러한 패턴을 통해 확장 가능하고 안정적이며 경제적인 생성형 AI 솔루션을 구현하는 동시에 품질 및 책임 기준을 유지할 수 있습니다. 이러한 구현은 효과적인 솔루션이 고급 모델뿐만 아니라 AWS 서비스와 확립된 실천에서 제공되는 아키텍처, 운영 및 거버넌스에 세심한 주의를 기울여야 함을 보여줍니다.
다음 단계
이 기사에서 공유한 아마존 예제는 생성형 AI가 기존 대화형 도우미를 넘어 어떻게 가치를 창출할 수 있는지 보여줍니다. 이러한 예제를 따르거나 고유한 솔루션을 만들어 생성형 AI가 비즈니스 또는 산업을 어떻게 재편할 수 있는지 알아보시기 바랍니다. [AWS 생성형 AI 사용 사례] 페이지를 방문하여 아이디어 구상 프로세스를 시작할 수 있습니다.
이러한 예제는 효과적인 생성형 AI 구현이 종종 다양한 유형의 모델과 워크플로를 결합하여 이익을 얻는다는 것을 보여줍니다. AWS 서비스가 지원하는 FM을 확인하려면 [Amazon Bedrock에서 지원되는 기반 모델] 및 [Amazon SageMaker JumpStart 기반 모델]을 참조하십시오. 워크플로 구축 경로를 간소화할 수 있는 [Amazon Bedrock Flows]를 탐색하는 것이 좋습니다. 또한 Trainium 및 Inferentia 가속기가 이러한 애플리케이션에서 중요한 비용 절감을 제공한다는 점을 상기시켜 드립니다.
우리가 설명한 예제에서 볼 수 있듯이 에이전트 워크플로는 특히 가치가 있는 것으로 입증되었습니다. [Amazon Bedrock Agents]를 탐색하여 에이전트 워크플로를 빠르게 구축하는 것이 좋습니다.
생성형 AI를 성공적으로 구현하는 것은 모델 선택 이상입니다. 실험에서 애플리케이션 모니터링에 이르기까지 포괄적인 소프트웨어 개발 프로세스를 나타냅니다. 이러한 기본 서비스 전반에 걸쳐 기반을 구축하려면 [Amazon QuickStart]를 탐색하는 것이 좋습니다.
아마존에서 인공지능을 사용하는 방법에 대한 자세한 내용은 아마존 뉴스에서 [인공지능]을 참조하십시오.