백악관, AI 안전성 전세계 정상회의에서 새로운 AI 이니셔티브 발표

미국 대통령이 주장한 AI 안전성, 전 세계 정상회의에서 새로운 이니셔티브 발표

부통령 카말라 해리스는 오늘 새로운 AI 이니셔티브를 개요화할 예정이다. 미국 정부의 기계 학습 기술의 안전하고 책임 있는 사용을 진전시키기 위한 계획을 밝히게 될 것이다. 우리는 그 중 많은 것을 이미 알고 있다.

백악관은 이번 주 초 AI 규제에 대한 행정 명령을 발표하고 미국 시민들을 이 기술이 일으킬 수 있는 잠재적인 피해로부터 보호하기 위한 의도였다. 이 명령에 대한 추가적인 조치를 취하면서, 미국은 국제적으로 AI가 공공의 이익을 위해 개발되고 사용되도록 보장하는 세계 지도자로 자리매김하고자 한다.

현재 런던에서 AI 안전 글로벌 정상회의에 참석하기 위해 있는 해리스는 오후 1시 35분 (GMT) / 오전 9시 35분 (ET) 경에 AI에 대한 미국의 접근에 대한 라이브 스트리밍 영상 연설을 진행할 예정이다.

전사적으로 AI는 큰 영향을 줄 수 있는 되도록 좋은 일을 할 수 있을 뿐 아니라 엄청난 피해를 입힐 수도 있는 잠재력을 가지고 있다. AI로 인한 싸이버 공격, 우리가 예전에 보았던 것을 뛰어넘는 규모의 싸이버 공격부터 백만 명의 생명을 위협할 수 있는 AI에 기반한 생물 무기까지 많은 위협들이 있다고 해리스는 준비된 연설에서 언급하고 있다. 이러한 위협들은 종종 ‘AI의 심연적인 위협’으로 언급되는데, 이는 인류의 존재 자체를 위협할 수 있는 위협들이기 때문이다.

“그러므로, 이 시점의 위급함은 우리에게 이 미래가 어떻게 될지에 대한 집단적인 비전을 만들도록 강제해야 한다. 인권과 인간의 존엄성을 발전시키기 위해 AI가 사용되는 미래; 개인정보 보호가 보장되고 모든 사람들이 기회에 공평하게 접근할 수 있는 미래; 민주주의를 강화하고 세계를 더 안전하게 만드는 미래. AI가 공공의 이익을 추구하는 미래.”

다음은 해리스가 발표할 새로운 발표와 정부 이니셔티브들이다.

1. 미국이 미국 AI 안전 연구소를 설립하고 있다.

미국 정부는 미국 AI 안전 연구소(US AISI)를 설립하고 있으며, 이는 미국 표준기술연구소(NIST)의 일부로 구성될 것이다. 미 국 AI 연구소는 미 상무부를 통해 설립되며, NIST의 AI 리스크 관리 프레임워크를 적용하고, AI의 위험을 완화하기 위한 기준, 최상의 사례 및 기술적 지침을 개발할 것이다. 이러한 지침은 규제 기관들이 규칙 개발이나 시행 시 사용될 것이다. 미국 AI 연구소는 또한 국제적으로 유사한 기관과 협력할 예정이다.

2. 미국 정부의 AI 사용을 위한 정책 가이드라인 초안이 공개용 의견 제출을 위해 제공된다.

미국 정부는 AI 사용에 대한 정책 가이드라인 초안을 공개하고 의견 제출을 위해 일반 대중을 초대한다. 예산관리청을 통해 발표된 이 정책은 미국의 책임 있는 AI 사용을 위한 구체적인 단계를 개요화하는 것을 목표로 하며, NIST의 AI 리스크 관리 프레임워크와 같은 이전의 지침을 바탕으로 한다. 이 정책은 보건, 경찰, 이민 등 다양한 부서에 적용되도록 목적으로 하고 있으며, 연방 부서들이 AI의 위험을 모니터링하고, 사용에 대한 공개적인 의견을 문의하며, 그로 인해 피해를 입은 사람들에게 항고의 기회를 제공하기를 요구한다.

여기에서 초안 정책을 읽고 의견을 제출할 수 있다.

3. 30개 국가가 인공지능과 자율성의 책임 있는 군사적 사용에 대한 정치 선언에 가입했다.

미국은 2월에 인공지능과 자율성의 책임 있는 사용에 대한 정치 선언을 내놓았다. 이 선언은 합법적이고 책임 있는 군사 AI의 사용 및 개발을 위한 표준을 정립하는 것을 목표로 하고, 국제 인도적 법을 준수해야 한다는 요구사항을 포함하고 있다. 흥미로운 점은 이 정치 선언의 특정 목표는 국가들의 ‘자위권’을 유지하고, 군사적으로 AI를 개발하고 사용할 수 있는 능력을 보존하는 것이다.

30개 국가가 또한 이 선언을 승인했습니다. 구체적으로 알바니아, 오스트레일리아, 벨기에, 불가리아, 체코 공화국, 덴마크, 에스토니아, 핀란드, 프랑스, 조지아, 독일, 헝가리, 아이슬란드, 아일랜드, 이탈리아, 일본, 코소보, 라트비아, 라이베리아, 말라위, 몬테네그로, 모로코, 북마케도니아, 포르투갈, 루마니아, 싱가포르, 슬로베니아, 스페인, 스웨덴 그리고 영국입니다.

4. 10개 재단이 공익 AI 이니셔티브에 2억 달러 이상 지원할 것을 약속했습니다

10개 재단이 함께 전 세계 대중의 최선을 위한 AI 프로젝트를 후원하기 위해 2억 달러 이상을 투자할 것을 약속했습니다. 이러한 재단들은 또한 국제 규정을 지원하기 위해 기부자 네트워크를 구성할 예정이며, 민주주의와 권리 보호, 대중의 이익을 위한 혁신 유도, AI로 인한 변화 속에서 노동자를 살림으로써 힘을 주는 일, 책임 제고 또는 국제 규정을 지원하는 AI 작업을 좀 더 효과적으로 지원할 계획입니다.

참여하는 10개 재단은 David and Lucile Packard 재단, 민주주의 기금, Ford 재단, Heising-Simons 재단, John D. and Catherine T. MacArthur 재단, Kapor 재단, Mozilla 재단, Omidyar Network, Open Society Foundations, 그리고 Wallace Global Fund입니다.

5. 미국 정부는 AI 로보콜 사기 문제의 해결책을 찾기 위해 핵톤을 개최할 것입니다

미국 정부는 가짜 AI 음성을 사용하는 로보콜과 로보텍스트를 감지하고 차단할 수 있는 AI 모델을 개발하기 위해 가상 핵톤을 주최할 예정입니다. 핵톤은 특히 AI 생성 음성을 사용하는 통화에 초점을 맞출 것입니다.

6. 미국은 디지털 정부 메시지에 대한 국제 인증 표준을 촉구하고 있습니다

미국은 전 세계 커뮤니티에게 정부가 생성한 디지털 및 AI 콘텐츠에 대한 국제 표준 개발을 지원하도록 요청하고 있습니다. 이러한 표준은 대중이 어떤 정부 메시지가 진짜인지 파악하는 데 도움을 주기 위해 디지털 서명 또는 워터마크와 같은 라벨링을 포함할 수 있습니다.

7. 미국은 AI의 책임 있는 사용을 약속하는 선언을 개발할 것입니다

마지막으로, 미국 정부는 AI의 개발과 실행에 책임 있는 관행을 통합하기 위해 자유 온라인 연합(Freedom Online Coalition, FOC)과 협력하여 선언을 개발할 예정입니다. FOC는 인터넷 자유와 전 세계적으로 인터넷 인권을 보호하기 위한 목적을 갖고 있는 38개 국가의 그룹입니다.