구글 제미니 2.5 프로, 안전 보고서 미비 논란

최근 구글의 제미니 2.5 프로 AI 모델 출시가 중요한 안전 보고서의 부재로 인해 논란을 불러일으키고 있습니다. 이러한 누락은 구글이 미국 정부와 국제 정상 회의에서 약속했던 내용과 상반되는 것으로 보이며, 회사의 투명성 및 책임 있는 AI 개발에 대한 의지에 대한 우려를 제기합니다. 전문가들은 현재 구글과 다른 주요 AI 연구소들이 AI 모델과 관련된 기능 및 잠재적 위험에 대해 대중에게 알리겠다는 약속을 철회하는 것인지 의문을 제기하고 있습니다.

깨진 약속과 지켜지지 않은 약속

구글이 제미니 2.5 프로 출시와 함께 안전 연구 보고서를 제공하지 않은 것은 이전 약속을 위반한 것으로 간주됩니다. 2023년 7월, 구글은 바이든 행정부가 소집한 백악관 회의에 참여하여 다른 주요 AI 기업들과 함께 일련의 서약에 서명했습니다. 주요 약속은 당시 최첨단 AI를 능가하는 모든 주요 공공 모델 출시에 대한 보고서를 발행하는 것이었습니다. 제미니 2.5 프로의 발전을 고려할 때, 거의 확실하게 이러한 백악관 약속의 범위에 포함될 것입니다.

당시 구글은 이러한 보고서가 다음 내용을 포함해야 한다고 동의했습니다.

  • 위험한 기능에 대한 평가를 포함하여 수행된 안전 평가.
  • 적절한 사용 사례에 영향을 미칠 수 있는 중요한 성능 제한.
  • 공정성 및 편향과 같은 사회적 위험에 대한 모델의 영향에 대한 논의.
  • 모델의 배포 적합성을 평가하기 위한 적대적 테스트 결과.

2023년 10월 일본 히로시마에서 열린 G7 회의에 이어 구글과 다른 기업들은 고급 AI 개발을 위한 자발적 행동 강령을 준수할 것을 약속했습니다. 이 G7 강령은 고급 AI 시스템의 기능, 제한 사항, 적합하고 부적합한 응용 프로그램을 공개적으로 보고하는 것의 중요성을 강조했습니다. 목표는 AI 분야의 투명성과 책임성을 강화하는 것이었습니다.

2024년 5월, 한국 서울에서 열린 AI 안전에 관한 국제 정상 회의에서 구글은 약속을 재확인했습니다. 회사는 모델 기능, 제한 사항, 적절하고 부적절한 사용 사례를 공개적으로 공개하고 위험 평가 및 결과에 대한 투명성을 제공할 것을 약속했습니다.

구글의 대응과 지연된 투명성

누락된 안전 보고서에 대한 문의에 대해 제미니 모델 개발을 담당하는 구글 딥마인드의 대변인은 최신 제미니가 사전 출시 테스트를 거쳤다고 밝혔습니다. 여기에는 모델 출시 전에 수행된 내부 개발 평가 및 보증 평가가 포함되었습니다. 대변인은 또한 추가 안전 정보와 모델 카드가 포함된 보고서가 ‘곧 나올 것’이라고 밝혔습니다. 그러나 4월 2일에 최초 성명이 발표되었음에도 불구하고 현재까지 모델 카드는 게시되지 않았습니다.

안전 보고 소홀 경향 확산

AI 안전에 대한 약속과 관련하여 비판에 직면한 것은 구글만이 아닙니다. 올해 초 OpenAI 또한 딥 리서치 모델에 대한 적시 모델 카드를 발표하지 못해 비판을 받았습니다. 대신 프로젝트 초기 출시 후 몇 주 후에 시스템 카드를 게시했습니다. 마찬가지로 메타의 최근 Llama 4에 대한 안전 보고서는 너무 간략하고 세부 사항이 부족하다는 비판을 받았습니다.

이러한 사례는 일부 주요 연구소에서 모델 릴리스에 맞춰 안전 보고를 우선시하지 않는 AI 업계 내 우려스러운 추세를 강조합니다. 이는 이러한 기업들이 미국 정부와 글로벌 커뮤니티에 이러한 보고서를 작성하겠다는 자발적인 약속을 했다는 점을 감안할 때 특히 문제가 됩니다. 이러한 약속은 원래 2023년에 바이든 행정부에 이루어졌으며 이후 히로시마 AI 정상 회의에서 G7 국가가 채택한 AI 행동 강령을 준수하겠다는 서약을 통해 강화되었습니다.

민주주의 및 기술 센터의 AI 거버넌스 고문인 Kevin Bankston은 이러한 실패가 관련된 기업의 신뢰성을 훼손하고 책임 있는 AI 개발에 대한 약속에 대한 의문을 제기한다고 말하며 실망감을 표했습니다.

답변되지 않은 질문과 외부 평가

구글 대변인의 성명은 또한 제미니 2.5 프로가 영국 AI 보안 연구소 또는 미국 AI 안전 연구소의 외부 평가를 위해 제출되었는지에 대한 구체적인 질문에 답하지 못했습니다. 이전에는 구글이 이전 세대의 제미니 모델을 영국 AI 안전 연구소에 평가를 위해 제공했습니다.

서울 안전 정상 회의에서 구글은 안전 평가 시행에 대한 공개 투명성을 제공하겠다는 서약을 포함하는 ‘프론티어 AI 안전 약속’에 서명했습니다. 유일한 예외는 그렇게 하는 것이 위험을 증가시키거나 사회적 이익에 비해 불균형적으로 민감한 상업 정보를 누설하는 경우였습니다. 이 서약은 또한 공개적으로 공유할 수 없는 더 자세한 정보는 회사가 있는 국가, 즉 구글의 경우 미국 정부와 공유해야 한다고 명시했습니다.

회사는 또한 정부, 시민 사회, 학계 및 대중과 같은 외부 행위자가 AI 모델의 위험을 평가하는 과정에 어떻게 참여하는지 설명하기로 약속했습니다. 구글이 제미니 2.5 프로를 미국 또는 영국 정부 평가자에게 제출했는지 여부에 대한 직접적인 질문에 답하지 못한 것은 이 약속을 위반할 가능성이 있습니다.

투명성보다 배포 우선시

안전 보고서가 없다는 것은 구글이 투명성과 철저한 안전 평가보다 빠른 배포를 우선시하고 있을 수 있다는 우려를 불러일으켰습니다. 옥스포드 인터넷 연구소의 교수이자 선임 연구원인 Sandra Wachter는 책임 있는 연구 및 혁신에서 투명성의 중요성을 강조했습니다. 그녀는 다른 산업과의 유사점을 제시하면서 ‘이것이 자동차나 비행기라면 가능한 한 빨리 시장에 출시하고 나중에 안전 측면을 조사할 것이라고 말하지 않을 것입니다.’ Wachter는 생성 AI 분야 내에서 ‘일단 출시하고 나중에 문제를 걱정하고 조사하고 해결하는’ 일반적인 태도가 있다는 우려를 표명했습니다.

정치적 변화와 경쟁 압력

최근의 정치적 변화와 빅테크 기업 간의 경쟁 심화가 기업들이 AI 모델 배포 경쟁을 벌이면서 이전 안전 약속에서 벗어나는 데 기여하고 있을 수 있습니다. Wachter는 ‘더 빠르고, 더 빠르고, 최고가 되고, 지배적이 되려는 이러한 기업의 압박감이 예전보다 더 만연해지고 있으며’ 업계 전반에서 안전 기준이 하락하고 있다고 덧붙였습니다.

이러한 기준 하락은 일부 기술 국가와 일부 정부가 AI 안전 절차가 혁신을 저해하고 있다는 우려가 커지면서 발생할 수 있습니다. 미국에서는 트럼프 행정부가 바이든 행정부에 비해 AI 규제에 대해 덜 엄격한 접근 방식을 채택할 의향을 밝혔습니다. 새 행정부는 이미 바이든 시대의 AI에 대한 행정 명령을 철회했으며 기술 리더들과 더 긴밀한 관계를 구축해 왔습니다. 최근 파리에서 열린 AI 정상 회의에서 JD Vance 미국 부통령은 ‘성장 친화적인 AI 정책’이 안전보다 우선시되어야 하며 AI는 ‘트럼프 행정부가 낭비하지 않을 기회’라고 말했습니다.

같은 정상 회의에서 영국과 미국은 모두 기술 개발에 대한 ‘개방적’, ‘포괄적’, ‘윤리적’ 접근 방식을 장려하는 인공 지능에 대한 국제 협약에 서명하지 않았습니다.

명확한 투명성 요구 사항의 필요성

Bankston은 ‘새로운 모델을 출시할 때 이러한 기업들이 가장 기본적인 안전 및 투명성 약속, 즉 그들이 자발적으로 한 약속조차 이행할 수 없다면 경쟁적인 경쟁에서 너무 빨리 모델을 출시하고 있는 것이 분명합니다’라고 강조했습니다. 그는 AI 개발자가 이러한 약속을 계속 이행하지 못하면 입법자들이 기업이 회피할 수 없는 명확한 투명성 요구 사항을 개발하고 시행해야 할 것이라고 덧붙였습니다.

AI 거버넌스에 대한 광범위한 의미

구글의 제미니 2.5 프로와 누락된 안전 보고서를 둘러싼 논란은 강력한 AI 거버넌스 프레임워크의 중요한 필요성을 강조합니다. 이러한 프레임워크는 다음과 같은 주요 문제를 해결해야 합니다.

  • 투명성: AI 개발자가 모델의 기능, 제한 사항 및 잠재적 위험에 대해 투명하도록 보장합니다.
  • 책임성: AI 시스템의 개발 및 배포에 대한 명확한 책임 라인을 설정합니다.
  • 안전: 피해 위험을 최소화하기 위해 엄격한 안전 테스트 및 평가 절차를 구현합니다.
  • 윤리적 고려 사항: 윤리적 원칙을 AI 시스템의 설계 및 개발에 통합합니다.
  • 대중 참여: AI와 그 의미에 대한 더 넓은 이해를 증진하기 위해 대중과 참여합니다.
  • 국제 협력: AI 거버넌스를 위한 공통 표준 및 모범 사례를 개발하기 위해 국제적으로 협력합니다.

제미니 2.5 프로를 둘러싼 투명성 부족은 AI 거버넌스의 이러한 중요한 측면을 소홀히 했을 때 발생할 수 있는 잠재적인 결과를 강조합니다. 적절한 투명성과 책임성이 없으면 AI 시스템의 진정한 영향을 평가하고 책임감 있고 윤리적인 방식으로 개발 및 배포되도록 보장하기가 어렵습니다.

미래를 향하여: 더 큰 책임에 대한 요구

AI 산업은 중요한 시점에 있습니다. AI 기술이 점점 더 강력해지고 보편화됨에 따라 개발자는 안전, 투명성 및 윤리적 고려 사항을 우선시해야 합니다. 제미니 2.5 프로를 둘러싼 논란은 자발적인 약속만으로는 충분하지 않다는 것을 상기시켜 줍니다. 정부와 규제 기관은 명확한 표준을 설정하고 준수를 시행하는 데 더 적극적인 역할을 해야 합니다.

또한 AI 개발자는 대중과 참여하고 AI와 그 의미에 대한 더 넓은 이해를 증진하는 것이 중요합니다. 여기에는 AI 시스템의 제한 사항과 잠재적 위험, 그리고 이러한 위험을 완화하기 위해 취하는 단계에 대해 투명하게 공개하는 것이 포함됩니다. AI 산업, 정부 및 대중이 함께 협력함으로써 AI 기술이 사회 전체에 이익이 되는 방식으로 개발 및 배포되도록 보장할 수 있습니다.