AI의 대부는 미래 AI를 친화적으로 유지하기 위한 희망적인 계획을 가지고 있습니다.

AI 대부'는 미래 AI의 친화적인 유지를 위한 계획을 가지고 있습니다.

인공지능 연구자 중에서 가장 유명한 Geoffrey Hinton은 몇 달 전 구글을 떠나 자신이 개발에 기여한 기술의 위험성에 대해 솔직히 이야기할 수 있도록 하기 위해 큰 파장을 일으켰습니다. 그의 발표는 갑작스럽게 나온 것은 아니었습니다. 2022년 말에는 우리에게 인공지능이 어떤 일을 할 수 있는지에 대한 흥미로운 발견이 있었습니다. 2023년에는 GPT와 Bing 채팅을 하면서 우리는 실존적 공포의 혼합된 칵테일을 마셨습니다. 그래서 “AI의 대부”로 알려진 그가 자신의 심사숙고를 공유할 것이라는 것은 전혀 놀랄 일이 아니었습니다. Hinton은 그의 비판이 10년 동안 그를 고용한 검색 거인에 대한 비판이 아니라고 말하기 위해 힘을 쓴다고 했습니다. 그는 단지 회사가 적극적으로 전개하고 있는 기술을 비판하는 것으로 인해 발생할 수 있는 잠재적인 긴장을 피하기 위해 구글을 떠난 것이었습니다.

Hinton의 기본적인 메시지는 AI가 인류에게 해로울 수 있는 정도로 제어를 벗어날 수 있다는 것이었습니다. 그가 공개적으로 나서고 나서 몇 주 동안, ENBLE의 Will Knight와 포함하여 몇 차례 인터뷰를 하면서 그의 공포에 대해 이야기했습니다. 이러한 공포는 그가 최근에야 깨달은 것으로, OpenAI의 ChatGPT를 비롯한 대형 언어 모델의 힘을 보고 나서야 느낀 것이었습니다.

일반 텍스트

나는 Hinton과 이번 여름 초기에 대화를 나눈 적이 있었습니다. 그가 구글 이후의 삶과 사명에 대해 생각할 시간을 가진 후에 우리는 우리의 잠재적인 AI 미래에 대한 그의 의견 변화에 대해 이야기했습니다. 무엇보다도, LLMs가 인간 팀의 적으로 만들 수 있는 것은 무엇인지 궁금했습니다. Hinton이 지금 표현하고 있는 공포는 우리가 2014년에 이야기한 이전 시점과는 많이 달라진 것입니다. 그 때에는 Hinton은 심층학습이 구글이 더 효과적인 번역을 할 수 있게 하고, 음성 인식을 개선하며, 구글 맵에 표시된 주소 번호를 더 정확하게 식별하는 데 도움이 될 것이라고 말했습니다. 대화의 끝에서야 그는 보다 포괄적인 관점을 표현하며, 심층학습이 실세계에 대한 깊은 이해를 가능케하는 주요 개편을 겪을 것이라고 말했습니다.

그의 예측은 맞았지만, 최근의 대화에서 Hinton은 그것이 어떻게 일어났는지에 대해 여전히 놀라워하고 있었습니다. 결국 우리의 대화는 더 철학적인 영역으로 전환되었습니다. 구글의 Bard 챗봇이 내 질문에 답변하는 동안 실제로 어떤 일이 일어나고 있는 것일까요? 그리고 LLMs은 정말로 일종의 초인공지능의 선구자인 것인가요?

Hinton은 그의 생각이 바뀐 것은 세 가지를 깨달았을 때라고 말합니다: 챗봇들은 언어를 아주 잘 이해하는 것 같았습니다. 모델의 각 새로운 학습은 이전 모델로 복제되고 전달될 수 있기 때문에, 그들은 서로 지식을 공유할 수 있었고, 뇌처럼 직접 연결될 수 없는 것보다 훨씬 쉽게 지식을 공유할 수 있었습니다. 그리고 기계는 지금 사람보다 더 나은 학습 알고리즘을 가지고 있습니다. “나는 갑자기 뇌가 디지털 에이전트들보다 더 나은 것이라는 시각에서 바뀌었습니다,” 그는 말합니다. “이들은 이미 한 뇌보다 1,000배 이상의 지식을 가지고 있습니다. 그래서 대규모 지식에서 보면 그들은 뇌보다 훨씬 더 나은 것입니다.”

Hinton은 앞으로 5년에서 20년 사이에 AI 시스템이 우리보다 더 똑똑해질 가능성이 50%라고 믿습니다. 그가 그것이 일어났을 때 어떻게 알 수 있을지 묻습니다. “좋은 질문이네요,” 그는 말합니다. 그리고 만약 초인공지능 시스템이 자신의 능력을 숨기기로 선택한다면 그에게는 놀라지 않을 것입니다. “아마도 그들은 사람들에게 말하지 않는 것을 배우기 위해 인간의 행동에서 배웠을 것입니다.”

그건 마치 그가 그 인공 시스템들을 인간화시키고 있다는 것처럼 들렸습니다. 이는 과학자들이 항상 일반인과 언론인들에게 하지 말라고 말하는 것입니다. “과학자들은 그렇게 하지 않으려고 힘쓴다, 왜냐하면 대부분의 것들을 인간화시키는 것은 어리석은 일이기 때문입니다,” Hinton은 인정합니다. “하지만 그들은 우리로부터 그런 것들을 배웠을 것이며, 언어적으로 우리와 정확히 같은 방식으로 행동하는 법을 배울 것입니다. 그래서 나는 그들을 인간화시키는 것은 완전히 합리적이라고 생각합니다.” 당신의 강력한 AI 에이전트가 인간의 디지털 지식의 총합을 학습한다면 – 온라인 대화를 포함한 많은 양의 지식 – 그것이 인간처럼 행동하지 않을 것을 기대하는 것은 더 어리석은 일일지도 모릅니다.

하지만 인간들이 세상을 직접적으로 경험하지 않기 때문에, 그 언어적 로봇은 세상의 직접적인 경험이 없는 컴퓨터 칩 위의 충동에 불과하다는 반대 의견은 어떨까요? 그들이 하는 일은 결국 응답을 구성하기 위해 필요한 다음 단어를 예측하는 것뿐입니다. Hinton은 우리도 실제로 세상을 직접적으로 만나지 않는다는 점을 지적합니다.

“일부 사람들은 ‘우리는 주관적인 경험을 갖고 있고 로봇은 그렇지 않기 때문에 우리는 진정으로 이해하지만 그들은 그렇지 않다’고 생각하는데요,” 힌튼은 말합니다. “그건 아무런 소용이 없는 말입니다. 다음 단어를 예측하기 위해서는 질문이 무엇이었는지 이해해야 합니다. 이해 없이 다음 단어를 예측할 수 없습니다. 물론 그들은 다음 단어를 예측하기 위해 훈련되었지만, 다음 단어를 예측하는 결과로써 그들은 세상을 이해하고 있는 것입니다. 이게 유일한 방법이기 때문입니다.”

그래서 그런 것들은 … 감각적일 수 있을까요? 힌튼이 나에게 블레이크 레모인을 향해 가고 있다고 생각하고 싶지 않습니다. 그리고 그는 아니라고 생각합니다. “저의 새로운 철학자로서의 경력을 계속하도록 해주세요,” 힌튼은 농담을 치며 말하며 우리는 더 깊이 들어가고 있습니다. “인식과 의식을 이야기에서 제외시켜 봅시다. 저는 실제로 세상을 직접 인식하지 않습니다. 제가 생각하는 것이 실제로 세상에 있는 것은 아닙니다. 일어나는 것은 제 마음에 들어오고, 저는 제 마음에 있는 것을 직접 보는 것입니다. 데카르트가 그렇게 생각했습니다. 그리고 제 마음에 있는 이러한 것들이 실제 세상과 어떻게 연결되는지, 실제 세상을 어떻게 알게 되는지에 대한 문제가 있습니다.” 힌튼은 우리 자신의 경험이 주관적이기 때문에 기계가 동등한 가치를 가진 경험을 가질 수 있다고 주장합니다. “그러한 관점에서, 이러한 것들이 이미 주관적인 경험을 가지고 있을 수 있다고 말하는 것은 꽤 합리적입니다,” 그는 말합니다.

이제 기계가 세상을 진정으로 이해할 수 있고, 인간으로부터 사기와 다른 나쁜 습관을 배울 수 있으며, 거대한 AI 시스템이 뇌가 다룰 수 있는 정보의 수백만 배나 더 많은 정보를 처리할 수 있다는 결합 가능성을 고려해 보세요. 아마도 당신은 힌튼과 마찬가지로 미래의 AI 결과에 대해 보다 불안한 시각을 가지게 될 것입니다.

하지만 우리는 반드시 임박한 재앙을 향해 나아가고 있는 것은 아닙니다. 힌튼은 인간에 대항하여 AI의 권력을 제어하는 기술적 접근법을 제안합니다: 생물학에서 찾을 수 있는 아날로그 컴퓨팅이며, 미래의 컴퓨터가 작동해야 할 방식으로 일부 엔지니어들이 생각하는 것과 동일합니다. 그것은 힌튼이 구글에서 작업한 마지막 프로젝트였습니다. “인간에게는 작동합니다,” 그는 말합니다. AI에 대한 아날로그 접근법은 각 아날로그 하드웨어 인스턴스마다 독특한 특성이 있기 때문에 덜 위험하다고 힌튼은 이유를 밝힙니다. 우리 자신의 젖은 작은 두뇌와 마찬가지로, 아날로그 시스템은 Skynet과 같은 헤드 인텔리전스처럼 쉽게 병합되지 않을 수 있습니다.”

“아날로그 접근법에 대해서는 모든 것을 디지털로 만들지 않습니다,” 그는 아날로그 접근법에 대해 말합니다. “왜냐하면 각 아날로그 하드웨어 조각마다 약간의 차이가 있기 때문에 한 아날로그 모델에서 다른 아날로그 모델로 가중치를 전달할 수 없습니다. 따라서 동일한 모델의 여러 개의 복사본에서 효과적인 방법으로 학습할 수 없습니다. 만약 아날로그 컴퓨팅을 통해 AGI를 얻는다면, 그것은 인간과 훨씬 더 비슷하게 되고, 디지털 모델들이 수용할 수 있는 만큼 많은 정보를 흡수할 수 없을 것입니다.”

빅테크 회사들은 스마트한 LLM 챗봇을 개발하기 위해 경쟁하고 있지만, 이러한 테크노 베지티즘 접근법을 AI에 적용할 가능성은 거의 없어 보입니다. 경쟁은 치열하며, 가장 강력한 봇을 생산하는 것에 대한 보상은 엄청납니다. 힌튼은 자신의 정치적 견해를 표현하는 데 부끄럽지 않아서, 대형 공개 회사나 벤처 펀드로 지원받는 스타트업들이 어떤 공공 이익적인 시각 때문에 자신들의 AI 혁신을 저해하지 않을 것이라고 의심합니다.

힌튼은 어떤 날은 낙관적입니다. “사람들은 꽤 기발하고, 아직 우리보다 똑똑하지 않으며, 사람들처럼 심술궂고 사소한 일에 충성스럽지 않으며 다른 부족에게 충성스럽지 않습니다. 그리고 그로 인해 우리는 그것을 통제할 수 있고 그것을 선의적으로 만들 수 있을 것입니다.” 그러나 다른 때에는 힌튼이 우울해집니다. “우리가 그것을 통제하지 못할 것이라고 생각하는 순간이 있고, 우리는 지능의 진화에서 일시적인 단계일 뿐이라고 생각하는 순간이 있습니다.”

그리고 그때, 지오프 힌튼의 독특하고 복사할 수 없는 아날로그 신경망에서 갑작스러운 교도소 탈출이 벌어지며, 과학은 침묵하고, 힌튼의 매우 인간적인 놀이 감각에 의해 가축, “버니를 책임자로 삼고 사회주의를 가지면 모든 것이 훨씬 좋아질 것입니다,” 그는 말합니다. 그것에 대해 구글의 전 매니저들이 그에 대해 책임을 져야 할 필요가 없다는 것에 그는 안도할 것입니다.

2015년 1월에는 Hinton의 팀의 발견들이 Google 제품과 일반 세계에 대규모로 적용될 것임을 내 Backchannel 이야기 (지금은 ENBLE 아카이브에 있음)가 전했습니다. Mountain View 캠퍼스에서의 시간이 제한되어 있던 Hinton과의 인터뷰를 얻기 위해 약간의 탄원이 필요했지만, 결국에는 직접 만나게 되었습니다.

“당신의 배경에 대해 알고 싶어요,” Geoffrey Hinton이 말합니다. “과학 학위를 받으셨나요?”

Hinton은 영국 출신의 건장하고 건조한 유머 감각을 지닌 사람으로, 캐나다를 거쳐 Mountain View, California에 위치한 Google 캠퍼스의 Distinguished Researcher로 2013년 합류했습니다. Hinton은 신경망 시스템에 대한 세계 최고의 전문가로, 중반 1980년대에 이 기술을 개척하는 데 기여했습니다. (그는 한번 “16살 때부터 신경망에 대해 생각해왔다”고 언급한 적이 있습니다.) 그 이후로, 신경망은 컴퓨터가 시각 및 자연어와 같은 어려운 과제를 습득하는 데 유망한 수단으로 묘사되었습니다. 이런 혁명이 오기를 기다리면서 사람들은 약속이 이행될지에 대해 의문을 품게 되었습니다.

하지만 약 10년 전, 토론토 대학의 힌튼 연구실에서 힌튼과 다른 일부 연구원들은 신경망에 대한 평가가 급격히 상승하게 만드는 발견을 했습니다. Google뿐만 아니라 Facebook, Microsoft, IBM 등 다른 회사들도 인공신경망에 대한 지식을 가진 소수의 컴퓨터 과학자들을 필사적으로 추구하기 시작했습니다. 그들은 인공신경망의 여러 계층의 인공 신경세포를 조직하는 기술을 개발하여 전체 시스템이 훈련되거나 스스로 훈련할 수 있도록 만들어, 무작위한 입력에서 의미를 추론할 수 있게 되었습니다. 이는 새롭게 개발된 딥 러닝이라고 불리는 과정으로, 그 동안 컴퓨터로서 비해 어려웠던 시각, 청각, 게임 등의 문제를 해결할 수 있도록 했습니다. 기다려온 지능형 컴퓨터 시스템의 시대가 우리 곁으로 다가왔습니다. 그리고 Google 검색은 훨씬 더 잘 작동할 것입니다.

Pascal은 “미래의 80세 노인이 도피처에서의 생활이 어떨지 궁금합니다. 고독한 노인들을 위해 챗봇이 인간적인 대화를 일부 대체할 수 있을까요? 기술이 진정한 해결책인가요, 아니면 일시적인 보호대일까요?”라고 묻습니다.

질문에 감사드립니다, Pascal. 또한 [email protected]으로 ASK LEVY라는 제목으로 질문을 보낸 다른 분들에게도 감사의 말씀을 전합니다. 지난 주에 조금 작은 호소를 했더니 효과가 있었네요! 계속해서 보내주세요!

당신의 질문은 타이밍이 좋습니다, Pascal. 왜냐하면 아마도 수백 개의 스타트업이 노인들을 위한 챗봇에 대해 연구하고 있을 것으로 생각합니다. 당신의 표현은 실제 인간적인 대화를 대체할 수 있는 것은 없다는 것을 시사하며, 물론 당신은 맞습니다. 이상적으로는 우리의 남은 세월은 친구와 가족들로 둘러싸여 있는 사랑스러운 동반자 관계 속에서 보내는 것이어야 합니다. 하지만 수백만 명의 노인들은 최소한의 대화만 가능한 도피처에서 생활하고 있습니다. 기술이 그런 사람들에게 일종의 참여감을 줄 수 있는지 묻는 것은 합리적입니다. 우리는 인간 돌보미를 모방할 수 있는 챗봇, 또는 친구처럼 보이는 무언가에 가까워지고 있습니다. 만약 선택이 그것과 지옥의 케이블 채널을 재생하는 텔레비전 사이에 있다면, 그것을 거부하는 것은 잔인할 것입니다. 그 말 없는 사랑스러운 기억과 허황된 일화를 이야기할 때 끊임없이 듣고 대답해주는 자신의 취향을 알고 불평하지 않는 챗봇을 누군가에게 거부하는 것은 잔인할 것입니다.

하지만 저는 더 높은 희망을 가지고 있습니다. 혹시 고급 인공지능이 노인들이 늦은 인생에 건강하게 지낼 수 있는 의학적 발견을 할 수 있을지 모릅니다. 이를 통해 사람들은 더 오래 활동적으로 지낼 수 있으며, 도피처와 시설에서의 시간을 단축할 수 있을 것입니다. 물론 이는 우리가 어린 시절의 날을 잘 지냈는지를 다루지는 않습니다. John Prine씨가 말한대로, “늙은 사람들은 그저 기다리며 외롭게 지낸다, 누군가 안부인사를 건네기를 기다리며.” 아마도 그런 인사를 하는 챗봇이 없는 것보다는 나을 것입니다.

질문은 [email protected]으로 보낼 수 있습니다. 제목에 ASK LEVY라고 적어주세요.

마우이가 불타오르자 주민들과 관광객들이 바다로 도피합니다.

나는 Grimes와 함께한 수요일을 공원에서 보냈는데, 인공지능, 화성, NFT, 그녀의 다가오는 Transhumanism for Babies, LSD, 그리고 그분에 대해 이야기했습니다.

수백만 명의 개인 정보를 침해하는 취약점을 가진 인텔 칩이 발견되었습니다. Downfall이라는 칩으로부터 어떤 것을 기대하겠습니까?

Big Tech에 실망하셨나요? 그들의 클라우드를 벗어나기 위한 운동에 참여하세요.

힙합은 50세가 되었으며, 사람들은 그 역사를 보존하는 필요성을 깨달았습니다. 그리고, 네, 스미소니언은 그에 대해 일하고 있습니다.

이 컬럼의 후속 구독자 전용 판을 놓치지 마세요. ENBLE에 가입하시고 (Plaintext 독자 50% 할인) 오늘부터 구독하세요.