큰 인공지능은 워터마크로 선거 딥페이크를 막지 못할 것

큰 인공지능은 워터마크로 선거 딥페이크를 막지 못할 것' can be condensed to 큰 인공지능은 선거 딥페이크를 막을 수 없다.

5월에 트위터에서 펜타곤 근처 폭발 사진이 가짜로 확산되었습니다. 이후에 백악관 근처에서도 폭발 사진이 나타났습니다. 미스인포메이션 및 디스인포메이션 전문가들은 이 사진들이 인공지능에 의해 생성된 것으로 보여진다고 빠르게 지적했지만, 이미 주식 시장이 하락하기 시작한 이후였습니다.

이는 가짜 콘텐츠가 현실적인 영향을 미칠 수 있는 최신 사례에 불과했습니다. 생성적인 인공지능의 폭발적인 발전으로 인해, 가짜 이미지와 동영상을 만들고 납작한 텍스트를 대량으로 생산할 수 있는 도구들이 현재 자유롭게 사용 가능해졌습니다. 미정보 전문가들은 우리가 현실과 가짜를 구별하는 것이 점점 어려워지는 새로운 시대에 진입하고 있다고 말합니다.

지난 주, OpenAI, Google, Microsoft, Amazon을 포함한 주요 AI 기업들은 미국 정부에 자사의 기술로 인해 발생할 수 있는 피해를 완화하기 위해 노력할 것을 약속했습니다. 그러나 AI 생성 콘텐츠의 쇄도와 혼란은 막을 수 없을 것입니다.

백악관은 회사들의 “자발적인 약속”에는 “워터마킹 시스템과 같은 AI 생성 콘텐츠를 사용자가 알 수 있는 강력한 기술적 장치 개발”이 포함되어 있다고 밝혔으며, 이는 AI가 “사기와 속임수”에 사용되는 것을 방지하기 위한 노력의 일환입니다.

그러나 WIRED와 대화한 전문가들은 이러한 약속이 반

현재 악의적인 행위자가 실제 콘텐츠에 워터마크를 넣어 가짜로 보이게 하는 것을 막을 방법은 거의 없습니다. Farid는 워터마크를 위조하거나 변조하는 것에 대한 가장 좋은 방법 중 하나는 암호 서명을 통한 것이라고 말합니다. “OpenAI라면 암호화 키를 가져야 합니다. 그리고 워터마크에는 키를 가진 사람에게만 알려진 정보가 포함되어 있을 것입니다,” 그는 말합니다. 다른 워터마크는 픽셀 수준이나 AI가 학습한 훈련 데이터에도 있을 수 있습니다. Farid는 AI 기업이 채택하고 준수할 수 있는 표준인 콘텐츠, 출처 및 교육 연합을 언급합니다.

“우리는 빠르게 이런 시대에 접어들고 있습니다. 우리가 온라인에서 읽고 보고 듣는 것을 점점 더 믿기 어려워지고 있다는 것을 의미합니다,” Farid는 말합니다. “그리고 그것은 가짜인 것에 속는 것뿐만 아니라 진짜인 것에도 믿지 못하게 됩니다. 만약 트럼프의 ‘Access Hollywood’ 테이프가 오늘 공개되었다면, 그는 믿을만한 부인 가능성을 가질 것입니다,” Farid는 말합니다.