이 정보 조작은 오로지 당신을 위한 것입니다

이 정보 조작은 당신을 위한 것입니다

지금은 인공지능 생성 모델이 인터넷 상에서의 잘못된 정보 확산을 증가시킬 것으로 잘 알려져 있습니다. 딥페이크, 가짜 뉴스 기사, 봇 등을 통해, 인공지능은 잘못된 정보뿐만 아니라 더 타당한 잘못된 정보를 생성할 것입니다. 하지만 사람들이 이제 시작하는 것은 잘못된 정보가 더욱 표적화되고 사람들과 상호작용하며 그들의 의견을 좌우하는 능력이 향상될 것이라는 것입니다.

러시아가 2016년 미국 대통령 선거에 영향을 미치려고 한 것은 해체된 인터넷 연구 기관(Internet Research Agency)이라는 조직에 의해 진행되었습니다. 이 작전은 종종 문화적 유창성이나 영어 능력이 부족한 인간에 의해 운영되어 그들이 표적으로 하는 그룹과 관련성을 형성하는 데 어려움을 겪었습니다. 그러나 생성 모델 기반의 인공지능 도구를 사용하면, 이러한 잘못된 정보 작전을 수행하는 사람들은 개인 및 그룹을 프로파일링하여 접근 방식을 세밀하게 조정할 수 있습니다. 이러한 작전 요원들은 수집한 데이터를 기반으로 개인에게 맞춤화된 잘못된 정보를 제작할 수 있습니다. 전문가들은 생성 모델 기반의 인공지능은 잘못된 정보를 생성하는 것을 훨씬 쉽게 만들어 인터넷 상에서 자유롭게 흐르는 잘못된 정보의 양을 증가시킬 것이라고 말합니다.

“생성 모델 기반의 인공지능은 특정 대상을 위해 콘텐츠를 맞춤화하는 데 있어서 재정적 장벽을 낮춥니다,”라고 워싱턴 대학교의 인간 중심 디자인 및 공학 부문 부교수인 케이트 스타버드는 말합니다. “특정 대상을 위해 맞춤화하고 해당 대상의 가치와 믿음에 부합하며 전략적인 측면을 갖는 내러티브를 구성할 수 있습니다.”

스타버드는 말합니다. “하루에 손가락에 꼽을 수 있는 기사 몇 개를 생산하는 대신, 한 기사를 작성하여 12개의 다른 대상에게 맞춤화할 수 있습니다. 각각에 대해 5분이 걸립니다.”

사람들이 소셜 미디어나 기타 플랫폼에 게시하는 콘텐츠의 양을 고려하면, 잘못된 정보 작전을 구축하기 위한 데이터 수집은 매우 쉽습니다. 작전 요원들은 국가 전역의 다양한 그룹을 프로파일링할 수 있게 되면, 사용하는 생성 모델 기반의 인공지능 시스템에게 그들의 목표를 고도로 정교한 방식으로 조작하는 콘텐츠를 생성할 수 있게 됩니다.

스탠포드 인터넷 연구소의 기술 연구 관리자인 르네 디레스타는 “조정 능력이 향상되고, 정밀도가 증가하며, 관련성이 증가할 것입니다,”라고 말합니다.

캘리포니아 대학 버클리 캠퍼스의 컴퓨터 과학 교수 한니 파리드는 이러한 맞춤형 잘못된 정보가 “어디에나” 나타날 것이라고 말합니다. 대규모 잘못된 정보 작전을 벌이는 악의적인 행위자들은 아마도 그룹별로 사람들을 대상으로 할 것이지만, 개인들을 대상으로도 생성 모델 기반의 인공지능을 사용할 수 있을 것입니다.

파리드는 말합니다. “이런 식으로 말할 수 있습니다. ‘이 사용자의 여러 트윗을 주세요. 그들에게 흥미로운 내용을 쓰도록 해주세요.’ 그것은 자동화될 것입니다. 어쩌면 그런 시대가 다가올 것입니다,”라고 파리드는 말합니다.

파리드는 악의적인 정보 작전 수행자들은 최상의 효과를 얻을 때까지 다양한 전술을 시도할 것이라고 말합니다. 그리고 이러한 잘못된 정보 작전의 많은 부분은 아마도 오랜 시간이 지난 후에야 완전히 이해될 것입니다. 게다가 그들의 목표를 달성하기 위해서는 어느 정도 효과만 얻으면 됩니다.

파리드는 말합니다. “잘못된 정보 작전을 시작하려면 99%의 실패를 겪을 수 있습니다. 항상 실패할 수 있지만, 그것은 중요하지 않습니다,”라고 파리드는 말합니다. “QAnon같은 것이 가끔씩 성공할 수 있습니다. 대부분의 작전은 실패할 수 있지만 성공한 작전은 큰 피해를 줄 수 있습니다.”

파리드는 페이스북과 같은 플랫폼의 추천 알고리즘이 사람들을 과격화시키고 잘못된 정보와 음모론을 확산하는 것을 2016년 선거 주기 동안 목격했다고 말합니다. 2024년 미국 대선을 앞두고, 페이스북의 알고리즘은 인공지능의 한 형태인 AI가 완전히 인간 작업자에 의해 작성된 콘텐츠만을 밀어주는 것이 아니라 일부 AI 생성 콘텐츠를 추천할 것으로 예상됩니다. 우리는 이제 다른 AI가 추천하는 잘못된 정보를 생성하기 위해 AI가 사용될 수 있는 지점에 도달했습니다.

“우리는 매우 저질의 콘텐츠에 속았습니다. 곧 우리는 보다 높은 품질의 잘못된 정보와 선전물을 경험하게 될 것입니다,”라고 스타버드는 말합니다. “특정 대상을 위해 맞춤화된 콘텐츠를 생성하는 것이 이전보다 훨씬 쉬워질 것입니다. 우리는 그 사실을 이제 알고 있어야 할 것 같습니다.”

이 문제에 대해 어떻게 대처할 수 있을까요? 불행히도, 많이 할 수 있는 것은 아닙니다. 디레스타는 사람들이 이러한 잠재적 위협에 대해 인식하고 소비하는 콘텐츠에 대해 더욱 주의해야 한다고 말합니다. 예를 들어, 최근에 생성된 웹사이트나 소셜 미디어 프로필인지 확인해야 할 것입니다. 파리드는 인공지능 기업들도 전반적으로 잘못된 정보를 줄이기 위한 안전장치를 도입하도록 압력을 가해야 한다고 말합니다.

바이든 행정부는 최근 가장 큰 AI 기업인 ChatGPT 제작사 OpenAI, Google, Amazon, Microsoft, Meta와 협력을 맺었습니다. 이 협력은 AI 도구에 대한 구체적인 가드레일을 만들도록 권장하며, AI 도구의 외부 테스트와 AI가 생성한 콘텐츠에 워터마킹을 포함합니다. 이러한 AI 기업들은 또한 AI 도구의 안전 기준을 개발하기 위한 그룹을 만들었으며, 의회는 AI를 규제하는 방법에 대한 논의를 진행하고 있습니다.

이러한 노력에도 불구하고, AI는 제약을 받는 속도보다 가속화되고 있으며, 실리콘 밸리는 종종 안전하고 테스트된 제품만 출시할 것을 약속하지 못합니다. 그리고 일부 기업들이 책임감 있게 행동한다 해도, 이 분야의 모든 참가자가 적절하게 행동할 것이라는 보장은 없습니다.

“이것은 지난 20년간의 전형적인 이야기입니다. 기술을 해방하고 모든 사람의 개인 정보를 침해하며 혼란을 야기하고 조 값 수조 달러 가치의 기업이 되었지만, 그리고 ‘음, 그래, 약간의 나쁜 일이 있었다’라고 말합니다.”라고 패리드는 말합니다. “우리는 같은 실수를 반복하고 있지만, 이제는 모바일 기기, 소셜 미디어, 이미 존재하는 혼란의 배경 위에 이러한 것들을 출시하고 있기 때문에 더욱 강화된 상황입니다.”