세계는 AI의 다음 10년을 준비하지 못했습니다.

세계는 AI의 다음 10년 준비 못했습니다.

지난 주의 Have a Nice Future 에피소드에서 Gideon Lichfield와 Lauren Goode는 DeepMind와 InflectionAI의 공동 창업자인 Mustafa Suleyman과 대화합니다. 그들은 그의 새 책인 ‘The Coming Wave’를 논의합니다. 이 책은 우리의 시스템이 기술의 큰 도약을 다루기 위해 구성되어 있지 않은 이유에 대해 설명합니다. Suleyman은 챗봇이 정부를 전복시킬 수 있다고 제안하는 것이 미친 생각이 아니라고 설명하며 인공 지능을 평가하는 더 나은 방법을 주장합니다. (힌트: 백만 달러를 벌이는 것과 관련이 있습니다.)

Mustafa Suleyman의 책 ‘The Coming Wave: Technology, Power, and the 21st Century’s Greatest Dilemma’은 9월 5일에 출간됩니다. 그 동안 DeepMind, Inflection AI 및 인공 지능에 관한 ENBLE의 보도를 확인할 수 있습니다.

Lauren Goode는 @LaurenGoode입니다. Gideon Lichfield는 @glichfield입니다. ENBLE의 주요 핫라인은 @ENBLE입니다.

이번 주의 팟캐스트는 이 페이지의 오디오 플레이어를 통해 언제든지 청취할 수 있지만, 모든 에피소드를 무료로 구독하려면 다음과 같이 하세요:

iPhone이나 iPad를 사용하는 경우, 이 링크를 탭하거나 Podcasts라는 앱을 열어 Have a Nice Future를 검색하면 됩니다. Android를 사용하는 경우 Google Podcasts 앱에서 여기를 탭하여 찾을 수 있습니다. 또한 Overcast나 Pocket Casts 같은 앱을 다운로드하여 Have a Nice Future를 검색할 수도 있습니다. 우리는 Spotify에도 있습니다.

참고: 이것은 자동 번역입니다. 오류가 포함될 수 있습니다.

Gideon Lichfield: 오, 안 돼요. 난 거기서 나쁜 BBC 프리젠터처럼 들리네요. 미안합니다.

[웃음]

Lauren Goode: 나는 BBC를 좋아합니다.

[음악]

Gideon Lichfield: 안녕하세요, 저는 Gideon Lichfield입니다.

Lauren Goode: 그리고 저는 Lauren Goode입니다. 그리고 이것은 Have a Nice Future입니다. 모든 것이 무서울 정도로 빠르게 변하는 미래에 대한 팟캐스트입니다.

Gideon Lichfield: 매 주 우리는 미래에 대해 크고 대담하며 때로는 불안한 아이디어를 가진 사람과 이야기하며 우리 모두가 그것에 대비할 수 있는 방법을 묻습니다.

Lauren Goode: 이번 주의 게스트는 AI 회사 DeepMind의 공동 창업자이자 최근에는 Inflection AI의 공동 창업자이자 CEO 인 Mustafa Suleyman입니다.

Gideon Lichfield: 그는 또한 인공 일반 지능을 해결하기 위해 초기에 DeepMind를 창업한 몇 명과 함께 일한 시리아 영국인입니다. 그들은 Go 게임을 이기는 방법과 같은 매우 중요한 AI 문제를 해결했고, 생물학과 약물 개발 방법을 급속하게 변화시키는 단백질 접힘에도 참여했습니다. 그들은 DeepMind를 Google에 팔았고 그곳에서 몇 년간 일했습니다. 그런 다음 Google을 떠나기로 결정했는데, 이유 중 하나는 그에게는 너무 관료적이고 움직임이 너무 느리다고 말했기 때문입니다. 그리고 이제 그는 이 챗봇을 만드는 Inflection을 창립했습니다. 이 챗봇은 그저 챗봇 이상이지만, 인공 일반 지능에 도달하려는 시도는 아니며, 이것이 흥미로운 점입니다. 그리고 이제 이 책이 나왔는데, 이 책은 인공 지능과 합성 생물학 및 기타 기술이 너무 빠르게 발전하고 널리 퍼져 나가서 우리가 나라와 사회를 통치하는 능력의 기초를 약화시킬 것이라고 말합니다. 모든 이야기가 어떻게 연결되는지 정말로 흥미롭습니다.

Lauren Goode: 맞아. AI를 만들고, AI를 만들고, AI를 만드는 과정에서 진화가 있었어요… 그래도 우리는 얼마나 걱정해야 할까요?

Gideon Lichfield: 우리가 무엇을 만들고 있는 건가요?

Lauren Goode: 그래요. 이 모든 아이디어들을 하나로 어떻게 연결할 것인지는 저에게 기본적인 질문이었어요. 특히 그가 AI의 가능성을 과장하고, 이제는 빠른 발전과 위협에 대해 경고하고 있기 때문에 그에 대한 구체적인 내용을 파고들고 싶었어요. 하지만 이건 말해야 할 건데, 무스타파는 이 대화에서 매우 인간적으로 다가오는 것 같아요. 아마 우리가 만난 모든 AI 기업가들에 대해 말할 수는 없겠지만요.

Gideon Lichfield: 그래, 우리 쇼에 출연하시는 많은 분들이 기술을 개발하고 사회가 문제를 해결하고 규제하는 것을 기다려야 한다고 얘기하죠. 공정하게 말하자면, 무스타파도, 여러분이 들으실 것 같이, 먼저 그것을 만들고 그 위험 요소가 어디에 있는지 파악해야 한다고 믿는 것 같아요. 하지만 그는 적어도 어떤 위험이 있을 수 있는지, 그리고 그에 대비하기 시작해야 할 것 같은 어떤 사람들보다 더 생각 깊은 대답을 한다고 생각해요.

Lauren Goode: 그리고 이 모든 내용은 곧 광고 후에 이어지는 대화에서 다루게 될 거예요.

[음악]

Gideon Lichfield: Have a Nice Future에 오신 것을 환영합니다, 무스타파 술레이만씨.

Mustafa Suleyman: 기디언, 안녕하세요. 여기에 올 수 있어서 정말 좋아요.

Lauren Goode: 여러분을 쇼에 초대할 수 있어서 정말 좋아요.

Mustafa Suleyman: 안녕하세요, 로렌. 초대해 주셔서 감사합니다.

Lauren Goode: 사실, 제가 오늘 팟캐스트에 여러분이 오시는 것을 알고 앱을 켜봤는데, 무슨 질문을 해야 할지 물어봤어요. 그리고 앱은 “오, 신나요! 무스타파 술레이만씨는 놀라운 사고자이자 혁신가이며, 그의 책은 통찰력으로 가득하다고 생각해요. 저는 여러분의 팟캐스트가 어떤 종류이며 인터뷰에서 무엇을 얻고 싶은지 알 수 있을까요?” 등등이라고 했어요. 이를 보면 데이터셋이 약간 편향되어 있는 것 같은데요. 여러분은 어떻게 생각하시나요?

[웃음]

Mustafa Suleyman: 다시 한 번 굴러서 다른 결과가 나오는지 확인해 보셔야 해요. 같은 열정을 가졌을지도 모르지만, 저희가 직접 스크립트를 작성한 건 아니라고 약속드릴게요. [웃음]

Lauren Goode: 하지만 지금은 많은 개인화된 AI 기반 챗봇 어시스턴트들이 있어요. OpenAI가 2022년 말에 챗봇을 출시한 이후로 인기를 끌었죠. 그럼에도 불구하고 왜 챗봇을 선택하게 되었나요?

Mustafa Suleyman: 대화가 새로운 인터페이스가 될 것이라고 믿습니다. 실제로 컴퓨터나 휴대폰을 한 번 멈추어서 보면, 기본적으로 다양한 환경에서 사용할 수 있는 많은 버튼과 아이콘이 하단 탐색에서 멀티컬러의 환상적인 꿈세계로 펼쳐져 있습니다. 그래서 이것은 매우 압도적인 경험일 수 있습니다. 이는 첫 번째 디자인 원칙으로 통일된 깨끗한 인간 중심 인터페이스로 설계되지 않았기 때문입니다. 이는 인간의 번역과 컴퓨터의 요구 사항을 만족시키는 만남입니다. 그리고 저희는 다음의 웨이브가 될 것이라고 믿습니다. 그 웨이브는 대부분의 시간을 AI와 대화하면서 보내게 될 것이며, 그것이 주요한 제어 메커니즘이 될 것입니다.

Gideon Lichfield: 약 12년 전에 DeepMind를 공동 창업하셨고, OpenAI와 마찬가지로 윤리적이고 안전한 방식으로 인공 일반 지능을 개발하는 것이 그 미션이었습니다. 그리고 12년 후에 Inflection AI를 시작하셨는데, 이번에는 AGI를 목표로 하지 않는다고 하네요. 왜 그런 선택을 했는지요? 무엇이 변했고, 그 대신에 어떤 목표를 가지게 되었나요?

Mustafa Suleyman: 우리는 2010년에 DeepMind를 창립하고, 안전하고 윤리적인 인공 일반 지능을 개발하는 것이라는 슬로건을 가지고 시작했습니다. 그것은 DeepMind의 미션이었고, 모든 것을 처음부터 배워야 한다는 믿음이었습니다. 이제 Inflection에서는 Pi라는 개인 지능을 개발하고 있습니다. Pi는 Personal Intelligence의 약자로, 개인적인 AI에 더 좁게 초점을 맞추고 있습니다. 어려운 전문 기술을 배우는 AI와는 매우 다른 개인 AI입니다. 저희가 보기에 개인 AI는 개인 비서, 친구, 신뢰할 수 있는 지원자이며, 주어진 작업에 따라 적절한 리소스를 적절한 시간에 찾아 요청할 것입니다. 그래서 이는 일반성의 요소를 가지고 있지만, 주요한 디자인 목표로서 일반성을 디자인하지 않았습니다.

기디온 리치필드: AGI(인공 일반 지능)가 위험하다고 생각하나요? 그래서 하지 않는 건가요, 아니면 가능하지 않다고 생각하나요?

무스타파 수레이만: 지금까지 아무도 나에게 자신감을 심어 줄만한 설득력 있는 이론적 체계를 제안하지 않았습니다. 그래서 중요한 재귀적 자가 개선 능력을 가진 AGI를 통제할 수 있을 것이라고 확신할 수 있는 이론적 기반도 없습니다.

로렌 구드: AGI에 대한 생각과 아직까지 실제로 입증된 이론적 기반이 없음에 대한 생각이 어떻게 당신이 구축하고 있는 모델에 영향을 미쳤나요?

무스타파 수레이만: 그것이 옳은 생각 방식이라고 생각합니다. 좁은 범위는 안전성이 더 높을 가능성이 높지만, 보장되지는 않습니다. 더 일반적인 것은 더 자율적일 가능성이 높으며, 따라서 약간 덜 안전합니다. 우리의 AI는 개인용 AI이므로 주로 좋은 대화를 위해 설계되었으며 시간이 지나면 여러분을 위해 일을 할 수 있도록 배울 것입니다. 따라서 API를 사용할 수는 있지만 다른 언어 모델과 같은 방식으로 프롬프트 할 수 있는 것은 아닙니다. 왜냐하면 이것은 언어 모델이 아니라 AI이기 때문입니다. Pi는 AI입니다. GPT는 언어 모델입니다. 이들은 매우, 매우 다른 것들입니다.

기디온 리치필드: 그 차이가 무엇인가요?

무스타파 수레이만: AI를 구축하기 위한 첫 번째 단계는 큰 언어 모델을 훈련시키는 것입니다. 두 번째 단계는 세부적인 작업을 수행하게끔 광범위하게 능력이 있는 사전 훈련된 모델을 정렬하거나 제한하는 것입니다. 우리에게는 대화, 가르침, 지식 공유, 엔터테인먼트와 같은 작업이 있습니다. 하지만 다른 회사들은 실제로 그것을 API로 노출시키고 싶어하기 때문에 그들은 이러한 다른 기능을 가진 사전 훈련된 모델에 액세스할 수 있습니다. 그리고 그것이 안전 도전 과제가 조금 더 어려워지는 곳입니다.

기디온 리치필드: 가까운 미래에는 여러분이 설명하는 것처럼 모든 사람들이 종업원이나 비서처럼 개인용 AI 어시스턴트를 가지게 될 거예요. 여러분은 이것이 잠재적으로 사람들을 가난에서 벗어나게 도와주고 새로운 경제적 기회를 창출한다고 제안했습니다. 20년 전에는 아무도 스마트폰을 가지고 있지 않았고, 스마트폰의 존재가 세계가 어떻게 변할지 상상하기 어려웠습니다. 오늘날 우리는 손에 휴대용 컴퓨터를 갖고 있어 놀라운 일들을 할 수 있게 되었습니다. 하지만 근본적인 구조적인 수준에서는 세상이 달라지지 않았습니다. 여전히 같은 불평등과 같은 갈등이 있습니다. 그렇다면 모든 사람이 AI 어시스턴트를 가지고 있는 세상은 오늘날과 어떻게 다를까요?

무스타파 수레이만: 네. 저는 과거 20년간 세상이 구조적으로 아무런 변화가 없었다고는 동의하지 않습니다. 스마트폰에 모든 혜택을 돌리기까지는 가지 않겠지만, 분명히 스마트폰은 우리를 더 똑똑하게 만들고, 정보에 접근할 수 있게 해주며, 새로운 사람들과 연결할 수 있고, 이 하드웨어를 바탕으로 거대한 비즈니스를 구축할 수 있게 해주었습니다. 그래서 분명히—

기디온 리치필드: 또한 대량의 오보에 대한 접근을 크게 늘려주고, 우리의 시간을 많이 낭비하게 해줍니다. 그래서 반대 의견을 제시할 수도 있습니다.

[겹쳐진 대화]

로렌 구드: 우리를 운전하는 데는 훨씬 더 나쁘게 만들었습니다.

[웃음]

무스타파 수레이만: 네. 그래요. 저는 절대적인 기술적 낙관주의자는 아니기 때문에 의심할 여지 없이 엄청난 단점과 해를 일으킵니다. 하지만 개인용 AI에 대해 생각할 때, 그것은 스마트폰의 등장과 유사합니다. 스마트폰은 우리 종족이 발명할 수 있는 가장 강력한 이동 장치를 10억 명 이상의 사람들에게 제공했으므로 부자든 정규 급여를 받든 상관없이 우리 모두가 동일한 전문화된 하드웨어에 액세스할 수 있게 되었습니다. 저는 그것이 우리가 가는 방향이며, 그것이 정말 놀라운 일이라고 생각한다고 말하는 것이 중요하다고 생각합니다.

Gideon Lichfield: 저는 새로운 기술이 우리의 최선의 행동만큼이나 최악의 충동을 불러올 수 있다는 주장을 할 수 있다고 생각합니다. 따라서 한 가지 가능성은 “AI 어시스턴트는 스마트폰과 마찬가지로 긍정적인 면만큼 부정적인 면도 가질 것”이라고 할 수 있습니다.

Mustafa Suleyman: 그것은 인터넷에서 정보에 접근하는 뒷면입니다. 우리는 이제 매우 능력있고 설득력 있는 가르침 AI에 접근할 것입니다. 이 AI는 우리가 어떤 어두운 의도를 이행하는 데 도움이 될 수도 있습니다. 그리고 이것은 우리가 씨름해야 할 것입니다. 그것은 어둡고, 분명히 해를 가속화시킬 것입니다. 그리고 그것이 우리가 직면해야 할 것입니다.

Lauren Goode: 여기서 개인적인 AI가 작업을 완료하거나 정보에 대한 더 큰 접근성을 제공하는 것과 “이것이 빈곤 문제를 해결하는 데 도움이 될 것”이라는 아이디어 사이에 한계를 그을 수 있을까요? 이것은 실제로 어떻게 작동하나요? 이 AI, Pi, 여기는 당신의 챗봇입니다. 이 팟캐스트를 위해 재미있는 소재를 줬습니다. 그리고 이것이 빈곤을 해결하는 데 도움이 되는 건가요?

Mustafa Suleyman: 어려운 질문입니다. 저는 그 둘을 함께 두지 않았고, 빈곤이나 세계의 굶주림을 해결할 것이라고 말하지 않았습니다. [웃음] 그렇게 디자인된 것은 아닙니다. Pi는 개인적인 AI로서 개인이 더 생산적이게 도와줄 것입니다. 다른 사람들은 인공지능의 진전을 포함하여 다양한 목적으로 인공지능의 진전을 활용할 것입니다. 예를 들어, 과학 분야에서는 이것이 논문을 더 효율적으로 검색하는 데 도움이 되고, 최신 기술을 종합하는 데 도움이 되며, 모든 통찰력을 기록하고 저장하며 더 효율적인 연구자가 되는 데 도움이 될 수 있는 도구일 것입니다. 말하자면, 인터넷에서 이용 가능한 지식을 소화 가능한 조각으로 개인화된 형태로 압축하고 있습니다. 이제 많은 양의 정보가 매우 개인화된 방식으로 재생산될 수 있으며, 이것은 사람들의 지능을 빠르게 향상시킬 것이라고 생각합니다. 이 자체로 인해 사람들은 훨씬 더 생산적인 인간이 될 것입니다. 일반적으로 개인 비서를 가지는 것은 당신을 더 똑똑하고 생산적인 사람으로 만들 가능성이 높다고 생각합니다.

Gideon Lichfield: 당신은 인공지능의 가까운 미래인 Inflection에 대해 작업하고 있지만, 당신의 책에서는 인공지능의 가까운 미래에 대해 이야기하면서 가능한 국가의 붕괴를 예측합니다. 이 주장에 대해 요약해 줄 수 있을까요?

Mustafa Suleyman: AI의 파도와 함께, 이 모델의 규모는 지난 10년 동안 매년 10배씩 증가했습니다. 그리고 우리는 다음 5년 동안 매년 10배씩 증가하는 궤도에 있으며, 이것은 매우 예측 가능하고 매우 가능성이 높습니다.

Lauren Goode: 그리고 당신의 책의 전제는 우리가 이에 대비되어 있지 않다는 것입니다.

Mustafa Suleyman: 저희는 절대 준비되어 있지 않습니다. 그런 종류의 힘은 작아지고 효율적으로 됩니다. 그리고 발명의 역사에서 유용한 것은 보통 더 저렴해지고 작아지며, 그래서 번성합니다. 따라서 다음 10년은 힘의 번식의 이야기입니다. 이러한 힘이 국가에 대한 진정한 위협을 초래할 것입니다. 국가가 탄생한 이래로 보지 못한 위협을 초래할 것입니다.

Lauren Goode: 당신은 자신을 권력을 갖고 있는 사람으로 생각합니까?

Mustafa Suleyman: 네.

Lauren Goode: 그 권력은 무엇인가요?

Mustafa Suleyman: 저는 부유하고, 2014년에 제 회사를 팔았으며, 지금은 새로운 회사를 가지고 있습니다. 저는 교육을 받았습니다. 사실상 제 성인 생활 동안 엘리트로 성장했습니다. 저는 가난한 이민 가족의 일하는 계급 출신으로 자라났지만, 지금은 분명히 특혜층에 속합니다. [웃음]

Lauren Goode: 따라서 당신은 독특한 위치에 있습니다. 왜냐하면 당신의 책에서는 오는 파도에 예측되는 권력의 불균형을 지적하고 있습니다.

Mustafa Suleyman: 맞습니다.

로렌 구드: 그러나 당신은 스스로 AI로 조금씩 조절할 수 있는 강력한 사람입니다.

무스타파 술레이만: 정확히 그렇습니다. 그리고 나는 다음 10년의 주제로서 억제라고 생각합니다.

기디언 리치필드: 그럼 이 책에서 억제라는 개념에 대해 이야기해 봅시다. 이는 냉전에서 빌려온 용어입니다. 그 맥락에서 무기나 국가를 억제하는 것을 의미했습니다. 하지만 수십억 명의 사람들에게 있는 기술을 억제하는 것은 분명히 매우 다른 문제입니다. 현재 이러한 기술에 대한 억제의 본질은 어떤 것인가요?

무스타파 술레이만: 완벽한 상태는 없습니다. 완벽하게 기술을 억제하고 게임을 끝냈다고 할 수 있는 상태는 없습니다. 왜냐하면 기술은 계속해서 저렴하고 사용하기 쉬워지며 수요가 계속해서 존재할 것이기 때문입니다. 그리고 이전의 다른 어떤 기술과도 달리 이 기술들은 만능 기술이고, 본질적으로 일반적이며, 사이사이에 모든 것과 모든 것에 사용될 수 있습니다. 따라서 현재 정부는 실시간으로 그 평가를 내릴 능력이 없습니다. 그래서 나는 백악관의 자발적인 약속을 지지하고 참여한 것입니다. 그래서 나는 이것이 선제적이고 예방적인 조치를 취하는 것과 가장 큰 모델에서 우리가 할 수 있는 일들에 자발적인 제약을 거는 예라고 생각합니다. 그래서 우리는 이 임계점에 압박을 받고 있으며, 가장 큰 모델은 훈련과 배치에 접근할 때 특히 신중하고 주의 깊으며 예방적으로 접근해야 합니다.

로렌 구드: 그렇다면 그걸 어떻게 맞출 수 있을까요? “우리는 방금 약속을 한 것이고, 우리는 자발적으로 소스들을 만들고 그 주위에 해결책을 만들 것입니다. 우리는 훈련 세트가 편향되지 않도록 할 것입니다.” 그런데 일상적으로, 실제로 여러분의 팀과 엔지니어들은 어떻게 이를 더 안전하게 만들기 위해 노력하고 있나요?

무스타파 술레이만: 우리는 모델에 포함된 훈련 데이터와 그 모델의 세밀 조정 및 기능 제한 방법과 과정을 알고 싶습니다. 그 과정을 감사할 수 있는 사람은 누구인가요? 여기서의 게임은 조기에 예방 원칙의 역할을 수행해 보는 것입니다. 그래서 다음 5~10년 동안 상황이 변함에 따라 이를 하는 습관과 실천을 가지고 있을 수 있습니다.

기디언 리치필드: 만약 나가주기론 사람이라면, 제 경우는 아니지만…

무스타파 술레이만: [웃음]

로렌 구드: 기디언은 아니에요.

기디언 리치필드: 실제로 AI 회사들은 굉장히 좋은 거래를 구성하고 있다고 말할 수도 있습니다. 왜냐하면 당신은 정부에게 “정부야, 너희는 이 기술을 규제하기에 충분히 잘 알지 못한다. 그래서 우리가 자발적으로 일부 가드레일을 설정하고, 우리가 예방 원칙이 얼마나 예방적이어야 하는지 결정할 것이다.” 라고 말할 수 있기 때문입니다. 그래서 제가 묻는 질문은, 사회에 실제로 도움이 되는 표준을 설정할 수 있는 노하우를 가지고 있기 때문에 대화를 주도하는 사설 부문의 동기는 무엇인가요?

무스타파 술레이만: 형식적인 규제를 통과시킬 수 있다면, 그것이 좋은 시작이 될 것이라고 생각합니다. 하지만 맞습니다, 좋은 규제는 매우 다양한 집단이 의견을 제기하고 참여하는 것의 결과라고 생각합니다. 현재 우리는 무관심과 분노, 극단화에 압도되어 있습니다. 그럼에도 지금이 중요한 순간이라고 생각합니다. 우리는 이것을 올바르게 해내기 위해 많은 시간이 있습니다. 대화를 진행할 수 있는 좋은 10년이 있다고 생각하며, 그것이 이 책을 통해 하려는 일의 일부이고, 자발적 약속을 통해 하려는 다른 사람들의 일부입니다.

기디언 리치필드: 우리가 이러한 기술들을 통제하지 못한다면, 대부분의 사람들이 상상조차 할 수 없는 시나리오 중 일부는 어떤 것들이 있을까요?

무스타파 수레이만: 음, 15 또는 20년 후에 매우 강력한 비국가 주체들이 상상될 수 있을 것이라고 생각해요. 마약 카르텔, 군사단체, 조직 범죄자들과 같은 조직들이죠. 심각한 피해를 일으키기 위한 의도와 동기를 가진 조직들이죠. 그래서 충돌을 일으키고 수행하기 위한 진입 장벽이 빠르게 낮아진다면, 국가는 어떻게 자신의 국경의 무결성과 국가의 기능을 계속해서 보호할 수 있는지에 대한 도전적인 질문을 해결해야 합니다. 점점 더 작은 그룹의 사람들이 국가와 같은 권력을 행사할 수 있다면, 그것은 사실상 오는 파도의 위험입니다.

로렌 구드: 인플렉션에서 하는 일에 대해 흥미롭게 생각해요. 왜냐하면 당신의 배경을 생각해보면, 정치에서 일했고, 사회적인 이익을 위해 일했으며, 물론 딥마인드를 공동 창업하고 구글에서 일했지요. 하지만 당신은 책도 썼고, 외교적인 의도가 있는 것 같으며, 협력을 믿는다고 생각해요. 왜 당신은 스타트업 창업자인가요?

무스타파 수레이만: 저는 무언가를 만들 때 가장 행복해요. 정말로 제가 좋아하는 것은 어떤 것이 작동하는지를 깊이 이해하는 것이고, 그것을 미시적인 수준에서 하는 것을 좋아해요. 미시에서 매크로로 가는 것을 좋아하지만, 매크로에 머무를 수는 없어요. 저는 일상적으로 하는 것에 집착하고, 그게 바로 저의 기업가적인 부분이에요. “우리는 내일 무엇을 출시할 건가요? 무엇을 만들 건가요? 무엇을 빌드할 건가요?”라는 것을 좋아해요. 둘 중에서 선택해야 한다면, 저를 가장 행복하게 만드는 것이고, 대부분의 시간을 그렇게 하고 싶어요.

로렌 구드: 그리고 스타트업의 영역 밖에서 일한다면, 그것은 그냥 고된 일이 될 것 같아요. 만족감을 얻을 수 있는 만큼 많지 않을 것 같아요—

무스타파 수레이만: 너무 느리거든요.

[웃음]

로렌 구드: … 노력의 효과를 보는 것에서.

무스타파 수레이만: 피드백이 필요해요. 그리고 측정이 필요해요—

로렌 구드: 피드백이 필요해요. 기자가 될 수도 있어요. 우리는 계속해서 기사를 게시해야 하고, 온라인에서 많은 피드백을 받아요. 몇 가지 댓글을 읽어드릴까요?

[웃음]

무스타파 수레이만: 그걸 듣게 되어서 안타깝네요. 희망적으로, 우리의 인공지능이 당신에게 친절하고 지지적이며, 트위터의 나쁜 사람들에게 반박할 수 있게 해줄 거예요. [웃음]

로렌 구드: 그리고 명확히 말하자면, 우리는 ENBLE 보도에서 인공지능을 사용하지 않아요.

무스타파 수레이만: 아직은요.

로렌 구드: 오, 저리가세요. 또 다른 팟캐스트로 이야기할 주제가 될 거예요.

[웃음]

기디온 리치필드: 하지만 also Mustafa가 말한 것처럼, 아마도 우리는 Pi를 통해 트위터의 모든 나쁜 사람들로부터 구원받을 수 있을지도 모르겠습니다.

로렌 구드: 아마요. [웃음]

기디온 리치필드: 미안합니다. X에서, X에서. 트위터에서는 더 이상이 아니에요.

로렌 구드: 맞아요.

무스타파 수레이만: 오, 저리가세요.

기디온 리치필드: 구글을 떠나서 인플렉션을 창업했고, 구글에서의 느릿한 움직임, 관료주의에 대해 얼마나 좌절했는지 공개적으로 언급했습니다. 구글이 OpenAI가 ChatGPT를 출시하기 한 년 이상 전에 자체적으로 대규모 언어 모델을 출시할 수 있었다고 말했습니다. 이는 “한편으로는 우리는 구글에서 더 빨리 움직여야 하고 매일 물건을 배송하고 싶어하며, 다른 한편으로는 세상이 그걸 다루기에 준비가 되어있지 않아야 한다”는 주의에 약간 어긋난다는 것을 암시합니다.

무스타파 수레이만: 그래요. 저는 매일 LaMDA와 상호작용하면서 그것이 어떤 식으로든 중대한 피해를 일으킬 정도로 어디에도 가깝지 않다는 것을 알 수 있었어요. GPT-4도 마찬가지로, 세상에 어떤 실질적인 피해를 일으켰다고 주장하기는 어려울 거에요.

기디온 리치필드: 아직은요.

로렌 구드: 잘 했어, 기디언.

무스타파 술레이만: 가능성은 있어. 하지만 의심해봐. 이미 수십억 명이 사용했거든. 아마. 기다려봐. 몇 년 후에 알게 될 거야. 하지만 이 정도 크기의 모델은 꽤 어려울 것 같아. 그건 당시에도 분명했어. 그리고 가장 좋은 방법은 그냥 분별력 있게 무언가를 내놓는 거야. 무모할 필요는 없지만, 피드백을 받고 영향을 측정하고 매우 주의깊고 반복적으로 조치를 취해야 해. 특정 방식으로 사람들이 사용하는 걸 보면서 말이야.

기디언 리치필드: 제가 여쭤보고 싶은 게 있습니다. 모던 튜링 테스트라고 제안한 것에 대해 얘기해 보세요. 인간과 같이 소리나는 것만을 의미하는 구식 아이디어 대신에 지능을 평가하기 위한 새로운 방법이 필요하다고 제안했습니다. 그 중 하나인 작은 금액으로부터 백만 달러를 벌어내는 머신의 예를 들었습니다. 왜 그걸 기준으로 삼았나요?

무스타파 술레이만: 제 의견으로는 모던 버전의 튜링 테스트는 AI에게 상당히 추상적인 목표를 줄 수 있는 테스트입니다. “가서 제품을 생산하고 제조하고 마케팅하고 홍보하고, 그리고 백만 달러를 벌어봐”라고 선택했습니다. 모던 튜링 테스트의 첫 번째 단계는 인간의 개입이 꽤 있을 것으로 생각합니다. 계약을 체결하거나 은행 계좌를 개설하는 등 법적인 승인이 필요한 순간이 3~4번 혹은 5번 있을 수도 있습니다. 하지만 다른 대부분의 요소들, 중국의 제조업체에 이메일을 보내거나 드롭 배송을 하거나 새로운 마케팅 콘텐츠를 생산하여 마케팅을 최적화하는 것과 같은 모든 것들은 개별적인 구성 요소로써 거의 완성되었습니다. 도전은 그런 요소들을 넓은 목표에 따라 연결하여 일련의 동작으로 만드는 것일 겁니다.

로렌 구드: 정말 흥미로워요, 처음에는 “이건 그냥 짧은 시간 안에 AI를 벤처투자자로 만들 수 있는 튜링 테스트일 뿐인가?”라고 생각했는데요. 하지만 지금 말씀하시는 건 그 연결 조직이 필요하다는 거죠. 그게 부족한 게 문제라는 걸 알겠습니다. 그러면 밤에 잠을 설치는 건 무엇인가요?

무스타파 술레이만: 다음 10년 동안 가장 큰 도전은 권력의 확산입니다. 그것은 불평등을 증폭시키고 극단화를 가속화할 것이기 때문에, 진실보다 더 쉽게 오해를 퍼뜨릴 수 있습니다. 그리고 그것은 현재 불안정한 세상을 흔들 것입니다.

기디언 리치필드: AI가 문제의 원인이자 해결책이 될 수 있다고 생각하시나요?

무스타파 술레이만: 흥미롭게도, 여기서는 기술 플랫폼이 꽤 중요한 역할을 할 것으로 생각합니다. 실제로 그들은 웹을 중재하는 중요한 기능을 수행합니다. 대형 플랫폼과 웹 자체의 실시간 모니터링에 대한 개념에 더욱 익숙해져야 한다고 생각합니다. 누가 어떤 콘텐츠를 제작했는지 알아내는 것이 매우 어려울 것이라고 생각합니다. 그리고 유일한 진짜 방법은 플랫폼이 그걸 규정해야 한다는 것입니다.

로렌 구드: 마지막 질문입니다. Pi, 당신의 개인 비서,가 칭찬을 다 한 후에 저는 더 어려운 질문을 하라고 부탁했더니, “오늘 사람들이 그만두었으면 하는 한 가지를 선택해 미래가 더 나아질 수 있을까요?”라고 말했습니다.

무스타파 술레이만: 제 생각에는 상대방이 나쁜 의도를 가지고 있다고 가정하는 것일 겁니다. 우리는 서로를 무시하고, 이미 상대방의 나쁜 의도를 라벨링했기 때문에 그들의 의견을 듣지 않으려고 하기 마련입니다. 서로의 입장에 서서 접근한다면 좋을 것 같아요. 그렇게 할수록 더 겸손해지는 것 같아요. 어려운 일이지만요. Pi가 정말 어려운 질문을 하네요.

로렌 구드: 우리 모두가 자신만의 방법으로 약간의 현장 조사를 해야 할 거예요. 그게 당신이 말하려는 바인 거죠.

무스타파 술레이만: 네, 자신이 익숙하지 않은 다른 환경 속에 가서 실제로 체험하고 느끼고 숨을 쉬며 그 일부가 되어야 합니다.

[음악]

기디온 리치필드: 이것은 정말로 재미있었어요, 무스타파, Have a Nice Future에 참여해주셔서 정말 감사합니다.

무스타파 수레이만: 정말 감사합니다. 즐거웠어요.

[음악]

로렌 구드: 기디온, 무스타파가 무엇을 원동력으로 삼는지 정말로 흥미롭네요. 그는 흥미로운 배경을 가지고 있으며, 표준적인 백인 남성이 아니며, 스탠포드를 중퇴하고 앱을 시작한 테키도 아닙니다. 그는 세계적인 시각을 가지고 있습니다. 분명히 그는 어떤 종류의 사고 지도자가 되길 원합니다. 그러나 이는 또한 우리의 자본주의 사회와 우리 가장 성공한 자본가들의 놀라운 영향력을 나타내는 것이기도 합니다. 그는 사회에서 물건을 만들고 영향력을 가질 수 있는 장소로서 민간 부문을 보고 있는 것 같습니다. 그에게 무엇이 그를 움직이는지에 대해 이야기해볼 때 어떤 느낌을 받았나요?

기디온 리치필드: 인터뷰에서 그는 매일 무언가를 만들고 무언가를 출시하는 것을 좋아한다고 말했습니다. 무언가를 전진시키기 위한 동기부여를 가지는 것을 좋아합니다. 그리고 그는 또한 기술이 세상에 미칠 영향에 대해 알아보는 방법은 기술을 만들어보는 것이라고 믿는 것 같습니다. 그는 정부에서 일하고 분쟁 해결에 참여한 경험이 오늘날 그가 스스로에게 묻는 몇 가지 질문에 영감을 주었다고 말합니다. 우리가 어떻게 사회를 운영해야 하는지에 대한 질문입니다. 그것이 얼마나 현실적인 것인지와 얼마나 이야기를 만들어내는 것인지는 그의 위치에 있는 사람들이 반드시 하는 것이기 때문에 어려운 문제입니다. 그러나 그곳에는 분명히 이 문제에 관심을 갖고 있는 마음이 있다고 생각합니다. 그리고 올바른 대답을 찾으려고 노력하고 있는 것 같습니다.

로렌 구드: 그래서 당신은 무스타파가 다른 사람과 공동으로 쓴 책을 빠르게 읽었다는 것을 알고 있습니다. 그 책에 대해 어떻게 생각하셨나요?

기디온 리치필드: 음, 그 책은 매우 흥미로웠습니다. 왜냐하면 그는 현재 매우 관심 있는 질문을 제기하고 있고, 올해 ENBLE을 떠난 후에도 계속해서 작업할 계획을 가지고 있기 때문입니다. 즉, 우리가 기관을 18세기에 설계했을 때와 같은 21세기의 사회를 어떻게 운영해야 할지입니다. 오늘날 우리는 기술이 훨씬 더 빨리 진화하고, 훨씬 더 연결되며, 모든 것이 훨씬 더 크고 복잡해지는 세상을 가지고 있습니다. 그러나 몇 세기 전에 만든 그 기관들은 이제 그 임무를 완수하기에는 충분하지 않습니다. 그는 오늘날 우리가 가진 기술이 미래에 어떻게 영향을 미칠지에 대한 추론이 나에게 진정으로 와닿았고, 동시에 몇 가지 의문을 제기했습니다. 왜냐하면 나는 그가 AI 모델이 얼마나 강력해질지에 대해 그의 낙관적인 견해를 공유하는지 확신하지 않기 때문입니다. 그는 분명히 나보다 AI에 대해 더 많이 알고 있으므로 그를 믿어야 할지도 모르겠습니다. 그러나 반면에, 많은 기술 창업자들이 기술이 할 수 있는 것에 대해 매우 대담한 예측을 하지만 실제로는 그것에 미치지 못하는 경우가 많았다는 점을 생각해보면 의심이 듭니다.

로렌 구드: 저도 동의하는 경향이 있습니다. AI가 지속적으로 발전할 것이라는 지수적 속도가 반드시 목표를 달성하지 않을 수도 있다는 것은 사실입니다. 그러나 모든 사람들에게 이러한 도구에 대한 액세스 장벽이 낮아진다는 그의 포인트는 중요합니다. 왜냐하면 우리는 가끔 우리 자신의 시각, 우리 자신의 세계관, 우리 자신의 경험을 통해 기술을 경험하기 때문입니다. 때로는 우리가 다양한 기술 주제를 다루려고 노력하더라도 모든 각도를 보지 못하는 경우도 있습니다. 그리고 그가 말한 것들 중에서, 비국가 주체들이 이러한 도구들을 이용하고 사용하는 능력에 대해서는 흥미로웠습니다. 충돌을 일으키고 이행하는 데 필요한 진입 장벽이 낮아진다면, 그것은 도전적인 문제입니다. 더 이상 작은 사람들도 이러한 도구를 사용할 수 있다면, 갑자기 우리는 “내 챗봇이 나에게 치료를 제공하거나 여권 갱신 요청을 처리할 수 있는가?”보다 훨씬 더 큰 AI 문제에 대해 이야기하게 됩니다.

기디온 리치필드: 응, 나는 마지막으로, 예를 들어 아라비아의 봄을 살펴보면, 지난 10년 정도의 기술의 영향을 돌아보면 예상했던 것보다 더 많고 덜한 영향을 볼 수 있습니다. 우리는 사회적 미디어가 반란과 정부 전복, 대중 운동을 가능하게 하는 데 얼마나 효과적이었는지 보았습니다. 그러나 10년 후에 중동은 여전히 그 전과 크게 다르지 않습니다. 왜냐하면 권위주의자들은 혁명가들이 사용한 동일한 기술을 따라잡았고, 그 지역의 권력 구조와 부의 구조는 실제로 크게 변하지 않았기 때문입니다. 국가의 개념을 지우지 않았으며, 국경의 개념을 지우지 않았으며, 어떤 큰 의미에서 세계를 뒤집지 않았습니다. 그래서 무스타파가 비국가 주체들이 창조적인 AI를 이용하여 세계의 정치 구조를 근본적으로 뒤바꿀 것이라는 예측을 할 때, 지역적으로는 그럴 수도 있지만, 전반적으로 볼 때, 20 또는 30년 후에는 세계가 현재와 크게 다르지 않을 것이라고 생각합니다. 하지만 누가 알까요, 내가 틀릴 수도 있습니다.

로렌 구드: 정말? 인터넷 이후로 세상이 큰 변화를 겪지 않았다고 생각하지 않으세요?

기디언 리치필드: 응, 세상은 엄청나게 변화했다고 생각해요. 일상 생활을 보면 인터넷이 있기 전과 비교하면 엄청나게 다른 걸 알 수 있어요. 하지만 조금 더 큰 그림을 보면, 여전히 소수의 국가가 정치를 지배하고 소수의 부자들이 비즈니스와 사회를 지배하고 있는 세상을 보여요. 기술의 민주화 효과라는 말에도 불구하고, 부의 불평등은 커지고 있어요. 인간들이 권력과 영향력을 교환하는 방식은 여전히 근본적으로 같아요. 아마 저는 너무 냉소적인 걸까요? 하지만 어떤 면에서는, 어떤 기술이 있던지 상관없이 인간 사회는 옛날과 별로 다르지 않다고 보여요.

로렌 구드: 그리고 그가 재구성된 튜링 테스트에 대한 생각을 설명해준 건 좋았어요. [웃음]

기디언 리치필드: 왜 튜링 테스트가 로봇이 얼마나 좋은 자본가인지를 평가하는 테스트인지 궁금했으니까요.

로렌 구드: 그거 그렇게 생각했어요. 튜링 테스트가 로봇이 백만 달러를 벌 수 있는지를 평가하는 건 정말 혐오스러운 해석같았는데, 그런 걸 의미하는 건 아니라고 설명해줬고, 현재로서는 그게 인공지능 개발의 한 공백 중 하나인 것 같아요. 가장 정교한 생성적인 AI 도구들조차 실행 간격이 존재해요. AI와 대화하면서 아이디어를 떠올리거나 심리 상담도 진행할 수 있지만, “내 패스포트 갱신해줘”라고 하면 아마 그건 못할 거에요. 아직까지 모든 부분이 연결되지 않았거든요. 그래서 그는 로봇이 자동으로 돈을 투자하고 수익을 내는지 여부를 기준으로 성능을 판단했던 것 같아요.

기디언 리치필드: 응. 그리고 나한테는 한 가지 궁금증이 생겨요. 그 장벽들 중 얼마나 많은 건 모델의 성능 때문인가요? 모델을 더 강력하게 만들면 결국 모든 일들을 처리할 수 있게 되는 거죠. 그리고 얼마나 많은 건 컴퓨터가 해결할 수 없는 정말 어리석고 사소한 문제들인가요? 아직까지는 사람이 올바른 API에 연결하거나 올바른 데이터에 접근할 수 있도록 컴퓨터를 연결해주어야 하는 경우가 많아요. 같은 컨퍼런스에서 Mustafa와 인터뷰한 자리에서 나는 어떤 사람을 만났어요. 그는 초보적인 AI 에이전트를 사용하고 있었어요. 그게 바로 어떤 API와 웹 서비스에 연결된 큰 언어 모델이었어요. 그는 이 모델을 사용해서 수천 명이 넘는 컨퍼런스 참가자 목록을 긁어다가 그 중 100명을 추천받았어요. 그것은 AI에게 정말 유용한 사례처럼 보였어요, 만약 그게 작동된다면 말이에요. 하지만 문제가 될 수 있는 건, 먼저 그가 컨퍼런스 웹사이트에서 데이터를 긁어오는 도구를 만들어야 했는데, 그걸 스스로 어떻게 해야 할지 알아내지 못했어요. 그래서 실제로 디지털 서비스 간에 연결을 만들기 위해서는 종종 사람의 개입이 필요하다는 거죠. 그리고 다른 문제는, AI가 나를 얼마나 잘 알고 있느냐인데요. AI가 컨퍼런스에서 누구와 얘기해야 할지 추천할 수 있을지는 AI가 나에 대한 많은 지식과 데이터에 따라 달라질 수 있어요. 하지만 그런 데이터가 AI가 소화할 수 있는 형태로 존재하지 않을 수도 있기 때문에, 그것이 얼마나 어려울지에 대해서 우리는 아직 제대로 파악하지 못한 것 같아요.

로렌 구드: 그리고 결국 모든 회의를 직접 참석해야만 할 거에요. 너야, 기디언.

기디언 리치필드: 네, 나는 그 모든 회의를 직접 참석해야만 할 거에요. 아마 다음 단계는 나를 대신해서 회의를 할 수 있는 AI를 만들고, 그 결과를 내 뇌로 다운로드하는 거겠죠. 하지만 그런 것은 아주 빨리 일어날 것 같진 않네요.

[음악]

로렌 구드: 오늘은 여기까지입니다. 들어주셔서 감사합니다. Mustafa의 책인 “The Coming Wave: Technology, Power, and the 21st Century’s Greatest Dilemma”는 9월 5일에 서점에서 만나볼 수 있습니다.

Gideon Lichfield: Have a Nice Future는 저, Gideon Lichfield가 진행합니다.

Lauren Goode: 그리고 저, Lauren Goode도 함께 합니다. 쇼가 마음에 드신다면, 어디에서든 팟캐스트 평점과 리뷰를 남겨주세요. 여러분의 댓글을 읽는 것을 즐깁니다. 그리고 새로운 에피소드를 매주 받아보기 위해 구독을 잊지 마세요.

Gideon Lichfield: 또한 [email protected]으로 이메일을 보낼 수도 있습니다.

Lauren Goode: Have a Nice Future는 Condé Nast Entertainment의 제작입니다. 쇼를 제작하는 Prologue Projects의 Danielle Hewitt이 담당하고 있으며, 어시스턴트 프로듀서는 Arlene Arevalo입니다.

Gideon Lichfield: 그리고 저희는 다음 주 수요일에 여기서 다시 찾아올 것입니다. 그 때까지 좋은 미래를 가지세요.


저희 이야기에서 링크를 통해 무언가를 구입하면 커미션을 받을 수 있습니다. 이는 우리의 저널리즘을 지원하는 데 도움이 됩니다. 더 알아보기.