인공지능 종말에 대한 이야기를 유발한 편지. 서명한 많은 사람들은 실제로 인공지능 종말론자가 아니었다.

편지로 인한 인공지능 종말 이야기. 많은 사람들은 종말론자가 아니었음.

지난 3월, 비영리 단체인 Future of Life Institute에서 “ChatGPT와 같은 프로그램의 능력으로 드러난 인류에 대한 위험으로 인해 AI 개발에 ‘일시 중단’을 요구하는 공개 서한에 약 35,000명의 AI 연구원, 기술자, 기업가, 시민들이 서명했습니다.

“현대의 AI 시스템은 일반적인 작업에서 인간과 경쟁할 수 있는 수준에 이르렀으며, 우리는 … 우리보다 많아지고, 똑똑해지고, 더 이상 필요 없게 되고, 우리를 대체할 수 있는 비인간적인 정신을 개발해야 하는가?”

아직 제가 틀릴 수도 있지만, 거의 6개월이 지났고 AI 개발은 이전보다 더 빠르게 진행되고 있지만 문명은 무너지지 않았습니다. 사실, 마이크로소프트의 “혁신적인” ChatGPT 통합 검색 오라클인 Bing Chat은 아직도 검색 분야의 선두인 Google을 대체하지 못했습니다. 그래서 우리는 AI에 대한 이 서한과 유사한 과학소설적인 경고들을 어떻게 해석해야 할까요?

MIT의 창의적인 학생 Isabella Struckman과 Sofie Kupiec은 AI 개발을 일시 중단할 것을 요구하는 서한의 첫 100명 서명자에게 연락하여 그들의 동기와 우려사항에 대해 더 알아보았습니다. 이 둘의 연구 결과는 해당 문서에 서명한 사람들 사이에 다양한 관점이 있다는 것을 보여줍니다. 서한의 공개적인 반응에도 불구하고, 실제로 AI가 인류에게 임박한 위협을 제기하는 것에 대해 걱정하는 사람은 상당히 적었습니다.

Struckman과 Kupiec이 만난 사람들 중 많은 사람들은 6개월 동안 일시 중단이 일어나거나 큰 영향을 미칠 것이라고 믿지 않았습니다. 서명한 사람들 중 대부분은 한 익명의 응답자가 언급한 서한의 일부가 불러일으킨 “파멸적인 상황”을 상상하지 않았습니다.

서명한 사람들 중 상당수는 Google, OpenAI, Microsoft 등 사이의 경쟁 속도에 주로 관심을 가졌으며, ChatGPT와 같은 AI 도구의 잠재력에 대한 혹한의 관심이 높아짐에 따라 우려가 커졌습니다. Chatbot의 개발에 있어서 Google은 여러 알고리즘을 원래 개발한 기업이지만, ChatGPT 전성기가 도래하기 전까지는 비교적 느리게 움직였습니다. 이들에게는 기업들이 위험을 탐구하지 않고 실험적인 알고리즘을 출시하기 위해 서두르는 것이 우려되는 이유였습니다. 이들은 인류를 없앨 수도 있지만, 이미 매우 강력한 기술 기업들의 영향력과 부를 증가시킬 수도 있는 디스인포메이션, 유해하거나 편향된 조언을 만들어낼 수도 있다고 생각했습니다.

일부 서명자들은 더 먼 미래에 AI가 일전히 보지 못한 속도로 노동자들을 대체할 가능성에 대해 걱정했습니다. 또한 일부는 이 서한이 AI 모델의 성능에 대한 중요하고 놀라운 도약에 대한 대중의 관심을 끌어낼 것이라고 생각했습니다. 이를 통해 근시안적인 AI의 발전으로 인해 발생하는 잠재적인 위험에 대한 근본적인 조치를 취하도록 규제기관에 압력을 가할 수 있을 것이라고 생각했습니다.

5월에는 이 서한에 서명한 몇몇 사람들과 이야기를 나눈 적이 있는데, 그들이 모두 서한의 내용에 완전히 동의하지는 않았습니다. 그들은 주목받기를 원하는 다양한 위험에 대한 관심을 끌어낼 것이라는 느낌으로 서명했습니다.

하지만 아마도 기존의 AI와 최근 개발된 AI가 제기하는 많은 문제를 한 통의 서한에서 다루려고 한 것은 실수였을 수도 있습니다. 일부 AI 연구자들은 최근 몇 년간 대규모 언어 모델이 초래할 수 있는 보다 즉각적인 사회 문제에 대해 예견적으로 경고해 왔는데, 그들의 우려는 AI에 대한 종말론적인 시나리오에 묶여 발언이 거의 들리지 않았습니다. AI에 대한 종말론적인 사고 방식의 중요성은 5월에도 많은 유명한 AI 연구자들이 서명한 후속 성명에 의해 강화되었으며, 이 성명은 AI의 멸종 위협을 핵무기와 전염병의 위협과 비교했습니다.

출판 전에 MIT 논문을 검토한 “The Techlash and Tech Crisis Communication”의 저자 Nirit Weiss-Blatt는 이 서한과 성명이 저명한 기술 기업들의 이익을 돕게 되었다고 말합니다. 먼 미래의 최악의 상황에 대한 집중은 규제기관들이 기술이 높은 가치를 가지고 동시에 처리하기 어렵다고 생각하게 만듭니다. 서한에 서명한 교수들 중 많은 사람들은 자신들이 AI를 존재적 위협으로 생각하지 않았다고 Weiss-Blatt는 말합니다. “하지만 그들은 극단적인 AI 운명론자들에게 그들의 이름을 빌렸습니다. 이것이 진짜 잘못된 정보입니다.”

결국, AI 개발을 일시 중단하기를 요구하는 서한은 서명한 많은 사람들이 원하는 반대 효과를 낼 수도 있습니다. 종말론적인 시나리오에 대한 논의를 더 중요시하여, 비지능적인 기계에 대한 우려가 공론화되거나 조치를 촉발하는 것이 더 어려워졌습니다. 업데이트됨 2023년 8월 17일, 오후 1시 50분 EDT: Weiss-Blatt는 대부분의 교수들이 존재적 위험에 대해 생각하지 않았다고 생각합니다.