AI가 인류를 파괴할 것인지 멍청한 로봇에게 묻지 마세요.

Don't ask a stupid robot if AI will destroy humanity.

이번 달 초, 몇몇 주요 매체에서 인공 지능이 인류에게 위험을 일으키지 않을 것이라는 뉴스를 보도했습니다. 이 안심되는 소식의 출처는? 간단한 챗봇과 연결된 일련의 인간형 로봇 머리입니다.

이 뉴스는 유엔 제네바에서 열린 AI for Good라는 회의의 한 패널에서 나온 것인데, 이 회의에서는 창조자와 함께 몇몇 인간형 로봇이 등장했습니다. 기자들은 로봇에게 질문을 하도록 초대되었는데, 이 중에는 한솔로지스틱스(Hanson Robotics)에서 만든 소피아(Sophia)도 포함되어 있었습니다. 소피아는 토크 쇼에 출연하고, 이상하게도 사우디 아라비아에서 사람으로서의 법적 지위를 인정 받은 것으로 유명합니다.

질문들은 AI가 인류를 파괴하거나 일자리를 훔칠 것인가에 대한 것이었습니다. 그들의 답변은 ChatGPT와 유사한 챗봇 기술 덕분에 가능했습니다. 그러나 그런 챗봇의 잘 알려진 제한사항에도 불구하고, 로봇들의 답변들은 자율적이고 지능적인 존재들의 의미있는 의견인 것처럼 보도되었습니다.

왜 이런 일이 발생한 걸까요? 인간 표정을 시각적으로 모방할 수 있는 로봇들은 우리가 그런 단서를 감지하는 데에 매우 예민하기 때문에 관전자들 사이에서 감정적인 반응을 일으킵니다. 그러나 현재의 인공지능의 한계를 가리기 위한 단지 고급 인형극에 불과한 것을 허용하면, 기술이나 최근에 발생한 문제에 대해 감을 잡으려는 사람들을 혼란스럽게 할 수 있습니다. 제네바 회의에 초대받았을 때, 소피아와 다른 로봇들이 “스피커”로 목록에 올라와 있을 때, 저는 흥미를 잃었습니다.

현재와 미래에 인공지능이 가지는 위험에 대해 신뢰할 만한 전문가들이 경고하고 있는 때에 이런 허황된 일들을 보는 것은 좌절스럽습니다. 기계 학습 알고리즘은 이미 사회적 편견을 악화시키고, 잘못된 정보를 퍼뜨리며, 세계에서 가장 큰 기업과 정부들의 권력을 증대시키고 있습니다. 주요 AI 전문가들은 진행 속도가 몇 년 안에 통제하기 어려운 알고리즘을 만들어 낼 수 있다고 우려하고 있습니다.

소피아와 다른 인간형 로봇들을 만드는 한솔로지스틱스는 인간 표정을 모방하는 기계를 놀랍게 잘 만드는 능력을 지니고 있습니다. 몇 년 전에 저는 홍콩에 있는 이 회사의 본사를 방문하여 디즈니에서 일하기도 한 창립자 데이비드 한슨(David Hanson)과 아침 식사를 하면서 만났습니다. 이 회사의 연구실은 마치 웨스트 월드(Westworld)나 블레이드 러너(Blade Runner)에서 온 것 같은데, 비활성화된 로봇들이 슬픈 표정으로 중간 거리를 쳐다보고, 주머니에 늘어진 시든 얼굴들과 반복해서 같은 말을 중첩되게 말하며 미묘한 착각을 일으킵니다.

사진: 윌 나이트

한슨과 저는 이러한 인상적인 기계에 실제 지능을 추가하는 아이디어에 대해 이야기했습니다. 잘 알려진 AI 연구자이자 싱귤래리티너워크(SingularityNET)의 CEO인 벤 고철(Ben Goertzel)은 한솔로지스틱스 로봇 내부 소프트웨어에 기계 학습의 최신 기술을 적용하는 노력을 이끌고 있습니다. 소피아 뒤에 있는 AI는 때로는 통과할만한 답변을 제공할 수 있지만, GPT-4와 같은 시스템과는 기술적으로 큰 차이가 있습니다. GPT-4는 가장 최고의 ChatGPT 버전을 구동하는 기술로, 1억 달러 이상이 들어간 것입니다. 물론 ChatGPT나 다른 최첨단 AI 프로그램들도 AI의 미래에 대한 합리적인 질문에 대답할 수 없습니다. 그들을 초연간한 지식과 재능이 있는 모방자로 생각하는 것이 가장 좋을 수도 있습니다. 그러나 그들은 놀랍도록 정교한 추론을 할 수 있지만, 깊은 결함을 지니고 세계에 대한 제한된 “지식”만을 가지고 있습니다.

제네바에서 소피아와 다른 회사의 잘못된 “인터뷰”는 우리가 어떻게 인공지능 시스템을 인간화하여 오도할 수 있는지 상기시켜줍니다. 인공지능의 역사는 이 분야의 새로운 발전에서 인간들이 지나치게 추론하는 사례로 가득합니다.

인공지능의 태동 시기인 1958년 뉴욕 타임스는 Frank Rosenblatt라는 콘넬 대학 심리학자가 미 해군을 위해 개발한 조잡한 인공 신경망인 최초의 기계 학습 시스템에 대해 보도했습니다. “해군은 오늘 전자 컴퓨터의 배아를 공개했는데, 이 컴퓨터는 무리한 패턴을 인식하는 데에 학습할 수 있을 것이라고 기대하고 있습니다. 이 컴퓨터는 걷고, 말하고, 보고, 쓸 수 있으며, 자기 자신을 복제하고, 자기 존재를 인식할 수 있을 것입니다.”라고 타임스는 보도했습니다. 이는 400개 픽셀의 패턴을 인식하는 회로에 대한 대담한 주장입니다.

IBM의 체스 프로그램 딥 블루(Deep Blue), 딥마인드의 바둑 프로그램 알파고(AlphaGo), 지난 10년간의 심층 학습의 진보들을 살펴보면, 이러한 주장들이 많이 있습니다. 사람들은 각각의 발전을 인간 같은 더 깊은 지능의 표식으로 받아들이고 있는 것을 볼 수 있습니다.

그렇다고 해서 이러한 프로젝트들이나 소피아의 창조가 놀라운 업적이 아니거나 더욱 똑똑한 기계로 나아가는 단계일 수 없는 것은 아닙니다. 그러나 이 강력한 기술의 발전을 평가할 때 AI 시스템의 능력에 대해 분명히 이해하는 것이 중요합니다. AI의 발전을 이해하기 위해서는 산만한 질문을 애니메이트된 인형에게 더 이상 던지지 않아도 되는 것이 최소한의 일입니다.