인공지능 유포 기계를 만드는 데에는 단지 400달러가 듭니다.

400달러로 인공지능 유포 기계를 만듭니다.

5월에, 러시아 국영 언론인 Sputnik International은 미국의 외교정책을 비판하고 바이든 행정부를 공격하는 일련의 트윗을 게시했습니다. 각각은 CounterCloud라는 계정으로부터 간결하고 잘 작성된 반박을 유발했는데, 때로는 관련 뉴스나 의견 기사의 링크를 포함하기도 했습니다. 이는 러시아 대사관과 미국을 비판하는 중국의 뉴스 매체의 트윗에 대해서도 유사한 반응을 일으켰습니다.

러시아의 미국 비판은 흔치 않지만, CounterCloud의 반박은 특이한 점이 있었습니다: 트윗, 기사, 심지어 기자와 뉴스 사이트까지 모두 인공지능 알고리즘에 의해 완전히 작성되었습니다. 이 프로젝트의 주인공인 Nea Paw라는 사람은 대량 생산된 AI 기 Desinformation의 위험성을 강조하기 위해 설계되었다고 말하며, CounterCloud의 트윗과 기사를 공개적으로 게시하지는 않았지만, 이를 ENBLE에 제공하고 프로젝트 개요를 담은 비디오도 제작했습니다.

Paw는 이 프로젝트를 무책임하다고 생각하는 사람들이 있을 수 있기 때문에 익명을 선호하는 사이버 보안 전문가라 주장합니다. CounterCloud의 러시아 메시지에 대항하는 캠페인은 ChatGPT와 비슷한 OpenAI의 텍스트 생성 기술과 사진 및 일러스트레이션 생성을 위한 다른 쉽게 접근 가능한 AI 도구를 사용하여 총 비용 약 400달러에 만들어졌다고 Paw는 말합니다.

Paw는 광범위하게 사용 가능한 생성 AI 도구가 국가 지원 프로파간다를 추진하는 정교한 정보 캠페인을 만드는 것을 훨씬 쉽게 만든다는 것을 이 프로젝트가 보여준다고 말합니다.

“나는 이에 대한 마법같은 해결책은 없다고 생각합니다. 마치 피싱 공격, 스팸 또는 사회공학 공격에 대한 마법같은 해결책이 없는 것처럼 말이죠,” Paw는 이메일에서 말합니다. 사용자가 조작적인 AI 생성 콘텐츠에 주의를 기울이도록 교육하거나, 생성 AI 시스템이 오남용을 차단하도록 하는 등의 완화책은 가능하지만, “하지만 이러한 것들은 정말로 우아하거나 저렴하거나 특히 효과적이지 않다고 생각합니다,” Paw는 말합니다.

최근 몇 년간 디스인포메이션 연구자들은 AI 언어 모델이 매우 개인화된 프로파간다 캠페인을 만들거나 소셜 미디어 계정을 운영하는 데 사용될 수 있다고 경고했습니다.

정보 캠페인을 추적하는 스탠포드 인터넷 연구소의 기술 연구 매니저 르네 디레스타는 CounterCloud 프로젝트의 일부로 생성된 기사와 기자 프로필이 꽤 그럴듯하다고 말합니다.

“정부 주체 외에도 소셜 미디어 관리 기관과 영역 작전 서비스를 제공하는 용병들은 확실히 이러한 도구들을 습득하여 그들의 작업 흐름에 통합할 것입니다,” 디레스타는 말합니다. 가짜 콘텐츠를 널리 유포하고 공유하는 것은 어렵지만, 영향력있는 사용자에게 공유하도록 돈을 주는 방식으로 할 수 있다고 그는 덧붙입니다.

AI 기반의 온라인 디스인포메이션 캠페인의 일부 증거가 이미 나타났습니다. 학계 연구원들은 최근 ChatGPT로 추정되는 조잡한 암호 홍보 봇넷을 발견했습니다. 이 팀은 이 발견이 챗봇 뒤에 있는 AI가 이미 더 정교한 정보 캠페인에 사용되고 있을 것이라고 말했습니다.

합법적인 정치 캠페인도 2024년 미국 대선을 앞두고 AI를 사용하려고 합니다. 4월에 공화당 국립위원회는 조 바이든을 공격하는 비디오를 만들었는데, 이 비디오에는 가짜 AI 생성 이미지가 포함되었습니다. 그리고 6월에 론 데산티스와 관련된 소셜 미디어 계정에도 AI 생성 이미지가 포함된 도널드 트럼프를 비하하는 비디오가 있었습니다. 연방선거위원회는 정치 광고에서 딥페이크 사용을 제한할 수도 있다고 밝혔습니다.

AI 언어 모델의 디스인포메이션 잠재력을 연구한 연구원인 마이카 머서는 주류 정치 캠페인이 언어 모델을 사용하여 홍보 콘텐츠, 기부 이메일 또는 공격 광고를 생성하려고 할 것으로 예상합니다. “현재는 어떤 규범이 있는지 정확하지 않은 불안정한 시기입니다,” 그는 말합니다.

머서에 따르면, 많은 양의 AI 생성 텍스트는 상당히 일반적이고 쉽게 발견할 수 있다고 합니다. 그러나 인간이 디스인포메이션을 추진하는 AI 생성 콘텐츠를 세련되게 다듬는다면, 자동화된 필터를 사용하여 그것을 멈추는 것은 거의 불가능할 것입니다.

OpenAI의 CEO인 Sam Altman은 지난달 Twitter에서 자사의 인공지능이 대규모로 맞춤형 자동화 디스인포메이션을 만드는 데 사용될 수 있다는 점에 대해 우려를 표명했습니다.

OpenAI가 처음으로 API를 통해 텍스트 생성 기술을 공개했을 때, 정치적 사용은 금지되었습니다. 그러나 이번 3월에 이 회사는 정해진 인구에 대한 메시징 대량 생산을 목적으로한 사용을 금지하도록 정책을 업데이트했습니다. 워싱턴 포스트의 최근 기사에 의하면 GPT 자체는 이러한 자료의 생성을 차단하지 않는다고 합니다.

OpenAI의 제품 정책 책임자인 킴 말파치니는 회사가 그들의 텍스트 생성 기술이 정치적 목적으로 사용되는 방식을 탐색하고 있다고 말합니다. 사람들은 아직 AI 생성 콘텐츠를 볼 때 그것이 AI로 생성된 것일 수도 있다는 가정을 하지 않는다고 그녀는 말합니다. “AI 도구의 사용은 다양한 산업 전반에서 계속해서 증가할 것이고, 사회는 그에 맞춰 업데이트될 것입니다,” 말파치니는 말합니다. “하지만 현재로서는 사람들이 여전히 업데이트 과정에 있다고 생각합니다.”

유사한 인공지능 도구들이 이제 널리 사용 가능하며, 몇 가지 제약 조건으로 구축할 수 있는 오픈 소스 모델들을 포함하여, 유권자들은 일찍이 정치에서 인공지능의 사용에 대해 알아야 할 것입니다.