AI 거물들, 신규 백악관 협약 아래 알고리즘 외부 조사 허용을 약속하다

AI giants promise to allow external algorithm investigations under new White House agreement.

백악관은 아마존, 구글, 메타, 마이크로소프트 및 OpenAI와 같은 주요 AI 개발업체와 협정을 맺었으며, 이 협정은 해로운 AI 모델이 세상에 공개되는 것을 방지하기 위해 조치를 취하도록 약속하고 있습니다.

백악관이 “자발적인 약속”이라고 부르는 이 협정에 따라, 이러한 회사들은 공개적으로 공개되기 전에 새로운 AI 모델의 내부 테스트와 외부 테스트를 실시할 것을 약속하고 있습니다. 이 테스트는 편향된 또는 차별적인 결과, 사이버 보안 결함 및 더 넓은 사회적 피해의 위험과 같은 문제를 조사할 것입니다. OpenAI의 ChatGPT와 경쟁하는 주목할만한 대체품을 개발하는 Anthropic과 Inflection이 이 협정에도 참여했습니다.

“회사들은 제품을 공개하기 전에 AI 시스템의 안전성과 능력을 테스트하여 제품이 안전한지 보장할 의무가 있습니다.”라고 백악관 AI 특별 고문인 벤 부하넌은 어제 브리핑에서 기자들에게 말했습니다. 회사들이 주의해야 할 위험에는 개인정보 침해뿐만 아니라 생물학적 위협에 기여할 수도 있는 것들도 포함되어 있습니다. 회사들은 또한 시스템의 한계와 그들이 가질 수 있는 보안 및 사회적 위험을 공개적으로 보고하기로 약속했습니다.

이 협정에 따르면 회사들은 AI가 생성한 오디오와 이미지를 식별하기 쉽도록 워터마킹 시스템을 개발할 것입니다. OpenAI는 이미 Dall-E 이미지 생성기에서 이미지에 워터마크를 추가하고 있으며, 구글은 AI가 생성한 이미지에 대한 유사한 기술을 개발 중이라고 밝혔습니다. 어떤 것이 실제이고 어떤 것이 가짜인지를 구별하는 것은 2024년 미국 선거를 앞두고 정치 캠페인이 생성적 AI를 사용하기 시작하는 가운데 점점 더 중요한 문제가 되고 있습니다.

텍스트 또는 이미지를 생성할 수 있는 생성적 AI 시스템의 최근 발전은 웹 검색이나 추천 서신 작성과 같은 작업을 위해 이 기술을 적용하는 회사들 사이에서 새로운 AI 경쟁을 일으키고 있습니다. 그러나 새로운 알고리즘은 성별 차별이나 인종 차별과 같은 억압적인 사회 체계를 강화하거나 선거에 대한 거짓 정보를 증폭시키거나 사이버 범죄에 도구로 이용될 가능성에 대한 우려도 증폭시키고 있습니다. 이로 인해 워싱턴 D.C.를 포함한 세계 여러 국가의 규제 기관과 입법자들은 AI를 배치하기 전에 평가하는 요구 사항을 비롯한 새로운 규제에 대한 요구가 증가하고 있습니다.

이 협정이 주요 AI 기업들의 운영 방식에 어떤 변화를 가져올지는 분명하지 않습니다. 이미 기술의 잠재적인 단점에 대한 인식이 커져서 기술 회사들이 AI 정책 및 테스트에 관련된 인력을 고용하는 것은 일반적인 일이 되었습니다. 구글은 시스템을 테스트하는 팀을 보유하고 있으며, 특정 AI 모델에 대한 사용 사례와 윤리적 고려 사항과 같은 일부 정보를 공개합니다. 메타와 OpenAI는 때로는 외부 전문가들을 초청하여 모델을 테스트하는 접근 방식인 red-teaming을 시도하기도 합니다.

“안전성, 보안성 및 신뢰의 영구적인 원칙에 기반하여 자발적인 약속은 고급 AI 모델이 가지는 위험을 다루며, red-team 테스트 및 투명성 보고서의 공개와 같은 특정 관행의 채택을 촉진할 것입니다.”라고 마이크로소프트 회장인 브래드 스미스는 블로그 글에서 말했습니다.

이 협정이 회사들이 주의해야 할 사회적 위험에는 AI 모델의 교육에 따른 탄소 발자국은 포함되어 있지 않습니다. 이는 이제 AI 시스템의 영향에 대한 연구에서 일반적으로 언급되는 우려입니다. ChatGPT와 같은 시스템을 만드는 것은 긴 시간 동안 실행되는 수천 개의 고성능 컴퓨터 프로세서가 필요할 수 있습니다.

AI에 특화된 법률 사무소인 BNH의 매니징 파트너인 앤드류 버트는 생성적 AI 시스템의 잠재적인 위험은 이 기술과 관련된 모든 이해 관계자들에게 명확해지고 있다고 말합니다. 연방거래위원회는 지난 주에 OpenAI의 비즈니스 관행을 조사하기 시작했으며, 해당 회사가 “불공정하거나 속이는 개인정보 보호 또는 데이터 보안 관행”에 참여했다고 주장했습니다.

회사들이 기술에 대한 외부 평가를 의뢰해야 한다는 백악관 협정의 규정은 외부 감사가 “정부가 AI 시스템에 대한 감독을 가하는 중요한 방법”이 되고 있다는 증거에 추가됩니다. 앤드류 버트는 말합니다.

백악관은 작년에 발표한 자발적인 AI 권리 선언에서도 감사의 활용을 촉진하였으며, 다음 달에 개최되는 Defcon 보안 컨퍼런스에서 생성적 AI 모델을 중심으로 한 해킹 대회도 지원하고 있습니다. 감사는 현재 최종 조정 중인 EU의 포괄적인 AI 법안의 요구 사항이기도 합니다.

기업 및 정부를 대상으로 알고리즘을 감사하는 ORCAA의 최고 전략가인 제이콥 애플은 이 협정을 환영하지만 ChatGPT와 같은 대형 언어 모델의 일반적인 평가는 충분하지 않다고 말합니다. 의료 또는 법률 상담을 생성하기 위해 세밀하게 조정된 챗봇과 같은 AI의 특정하고 고위험 사용 사례는 자체 맞춤형 평가를 받아야 한다고 그는 말합니다. 또한 소규모 회사의 시스템도 검토가 필요합니다.

조 바이든 대통령은 오늘 백악관에서 새로운 AI 협정에 가입한 기업의 임원들과 만날 예정입니다. 이들에는 Anthropic CEO인 다리오 아모데이, 마이크로소프트 회장인 브래드 스미스, 그리고 Inflection AI CEO인 무스타파 술레이만이 포함됩니다. 그의 행정부는 또한 연방 기관에 의한 조치를 통해 AI의 사용을 규제하기 위한 행정 명령서를 개발 중이지만, 구체적인 공개 일정은 밝히지 않았습니다.

업데이트 날짜: 2023년 7월 21일 오후 2시 20분 EDT. 이 기사는 ORCAA의 Jacob Appel의 코멘트와 함께 업데이트되었습니다.