제약 회장 AI 연구를 멈추지 말라, 우리의 작업은 너무 중요하다
AI 연구 중단하지 말라, 작업은 중요하다
사회는 인공지능의 위험에 대해 어떻게 대처해야 할까요? 일부 사람들은 상상할 수 있는 혜택이 즉각적인 위험을 상회한다고 주장하며, 그래서 제한 사항은 가볍게 추구되어야 한다고 주장합니다.
리커젼 약품 회사의 공동 창업자이자 CEO인 크리스 기브슨은 최근 ENBLE과의 인터뷰에서 “나는 우리가 AI 연구를 중단하는 것을 광범위하게 추천하는 것은 좀 잘못된 것 같다고 생각합니다,”라고 말했습니다.
기브슨은 “기계 학습과 관련된 기회를 계속해서 받아들여야 한다는 것이 매우 중요하다고 생각합니다,”라고 말했습니다.
또한: 전문가에 따르면 생성적인 AI의 5가지 가장 큰 위험
기브슨의 회사는 대형 제약사와 협력하여 약물 발견에 인공지능을 활용하고 있습니다.
- 이 새로운 중저가형 Roborock 진공청소기는 더 비싼 로보백을 다시 생각...
- 세레브라스와 아부다비가 세계에서 가장 강력한 아라비아어 AI 모델을 ...
- Temu vs. Amazon 귀하의 구매 요구에 가장 적합한 쇼핑 사이트는 어느 ...
기브슨은 일론 머스크, AI 학자 요슈아 벤지오 등의 편지에 대한 응답으로 AI 연구의 일시적 중단을 요구했습니다. 이 청원은 AI 우위를 위한 “제어, 예측, 신뢰 가능성이 없는 시스템”을 만들어내는 “제어를 벗어난 경쟁”에 일시적인 중단을 요구하고 있습니다.
기브슨은 기계 학습 프로그램이 자각능력을 갖게 되는 것과 같은 현실성 없는 우려에 초점을 맞췄으며, 이는 이 문제를 고려한 학자들이 상당히 원격의 시나리오로 간주하고 있습니다.
기브슨은 “리커젼에서 하는 일은 생물학의 맥락에서 정말 흥미로운, 수십억 개의 매개변수 모델을 훈련시키는 것입니다,”라고 ENBLE에 말했습니다. “하지만 그들은 자각적이지 않으며, 자각적이 되지도 않으며, 그와는 아주 멀리 떨어져 있습니다.”
기브슨의 주요 관심사 중 하나는 약물 발견과 같은 작업을 진행하는 자신의 회사와 다른 회사들이 전진할 수 있는 능력을 유지하는 것입니다. 리커젼은 베이어와 제넨테크 등과 협력하여 현재 임상 단계에 있는 5개의 후보 약물을 개발 파이프라인에 보유하고 있습니다. 이 회사는 “분자 간의 추론 관계”를 의미하는 Phenomaps라는 용어로 된 데이터베이스에 13 페타바이트 이상의 정보를 축적했습니다.
또한: 메타의 주요 AI 과학자 LeCun은 ‘OpenAI는 AI 연구가 아니라 제품 개발’이라고 말합니다
기브슨은 “특정 질문에 대답하기 위해 격리되어 있는 모델들은 인류의 발전에 매우 중요하다고 생각합니다,”라고 말했습니다. “우리와 같은 회사의 모델들은 6개월이나 1년 동안 중단하고 싶지 않으며, 앞으로 나아갈 기회가 얼마나 많은지 때문입니다.”
기브슨의 회사는 7월에 공개적으로 발표한 바에 따르면, 인공지능 처리를 지배하는 Nvidia로부터 5000만 달러의 투자를 받았다고 발표했습니다.
기브슨은 AI에 대해 걱정하거나 중단을 요구하는 사람들에 대해 신중한 발언을 했습니다. “이 문제에 대해 양쪽 모두에 똑똑한 사람들이 있습니다,”라고 그는 말했으며, 리커젼의 공동 창업자 중 한 명이 몇 년 전에 AI의 윤리적 도전 때문에 일상적인 운영에서 물러나기로 결정했다고 언급했습니다.
리커젼의 고문 중 한 명인 요슈아 벤지오는 이 편지의 서명자 중 한 명입니다.
기브슨은 “요슈아는 뛰어난 사람이기 때문에 이 문제에 대해 조금 곤란하게 만들어줍니다,”라고 말했습니다. “하지만, 나는 논쟁의 양쪽에 중요한 주장이 있다고 생각합니다.”
또한: 본체와 질병의 큰 퍼즐은 AI에 양보하기 시작하고 있다고 말합니다, 리커젼 CEO는 말합니다
중단에 찬성하는 파티와 반대하는 파티의 다른 시각은 “주의를 기울이라는 것을 시사합니다,”라고 그는 말했습니다. “하지만 나는 어떤 기간 동안 ML과 AI 알고리즘의 모든 훈련과 모든 추론을 일시적으로 중단해야 한다고는 믿지 않습니다.”
기브슨의 팀은 ENBLE과 함께 연락하여 AI 위험에 대한 벤지오의 블로그 글에서 의학 등과 같은 사회적으로 유용한 AI 응용 프로그램과 위협 사이의 구분을 한 것을 지적했습니다.
Gibson은 Bengio와 같은 동료들과 일치하며, Meta Properties의 주요 인공지능 과학자인 Yann LeCun과 마찬가지로 그의 친구이자 가끔 협력자인 이니셔티브에 반대하는 발언을 한다.
Gibson은 어떤 불가능하다고 할지라도 일부 위험 개념을 주의깊게 고려해야 한다는 것에 동의한다. 그 중 하나는 미래의 인류 연구소와 같은 기관이 개요를 제시한 종말-인류 시나리오이다.
“AI 분야의 일부 사람들은 ML 또는 AI 알고리즘에게 어떤 종류의 유틸리티 함수를 최대화하도록 요구한다면, 가장 아름답고 평화로운 세계를 만들어라 라고 말한다면, AI 알고리즘은 아마도 사람들이 아름다움의 부족과 평화의 부족의 주범이라고 잘못 해석할 수 있다고 생각하는 사람들이 있다,” Gibson은 말한다.
또한: ChatGPT: 뉴욕 타임즈와 다른 매체들이 ChatGPT에 대해 잘못 이해한 것
따라서 어떤 프로그램은 “정말로 무섭운 것을 실현시킬 수 있다.” 이러한 전망은 “아마도 과장된 것”이라고 그는 말한다. “하지만, 그 영향력은 매우 크기 때문에 고려해야 한다; 하늘을 날 때 우리 비행기 중 어느 하나가 추락할 확률은 거의 없지만, 비용이 매우 크기 때문에 경고를 확인한다.”
Gibson은 “오늘날 우리 모두가 동의할 수 있는 몇 가지 명백한 사항도 있다,”고 말한다. 그런 사항 중 하나는 프로그램이 대량 파괴 무기를 통제하도록 허용하지 않는 것이다.
“AI 또는 ML 알고리즘에게 핵미사일 발사 시스템에 대한 액세스를 부여하는 것을 지지합니까? 절대로 그렇지 않습니다,” 그는 말한다.
Gibson의 견해에 따르면, 알고리즘에서 편향 문제를 다루어야 한다. “우리는 데이터셋에 대해 신중하게 생각하고, 우리의 알고리즘을 최적화하기 위해 사용하는 유틸리티 함수에 어떤 종류의 편향이 있는지 확인해야 합니다.”
또한: 철학자 David Chalmers는 10년 안에 AI가 지능을 가질 확률이 20%라고 말합니다
“현재 우리 생활의 일부가 되어가고 있는 이러한 알고리즘의 결과에 편향이 더 들어가고 있다는 것을 알 수 있습니다,” Gibson은 관찰했다.
Gibson에 따르면, 가장 기본적인 우려사항은 모두에게 명백해야 한다. “예를 들어, 알고리즘이 인터넷에 제어되지 않은 액세스를 갖는 것은 더 위험할 것이라고 생각합니다,” 그는 말한다. “그래서 이와 관련된 규제가 있을 수 있다.”
규제에 대한 그의 입장은 “고기능 사회의 일부인 것은 그 모든 옵션을 테이블에 올려서 중요한 토론을 하고자 하는 것입니다. 그저 ML 전체나 AI 전체를 대상으로 하는 광범위한 규제로 우리 자신을 지나치게 제한하지 않도록 주의해야 합니다,”라고 그는 말한다.
AI 윤리에 대한 긴급한 우려는 OpenAI와 Google과 같은 회사들이 자신들의 프로그램의 내부 동작을 점점 더 공개하지 않는 현상이다. Gibson은 프로그램을 오픈 소스로 공개하도록 요구하는 어떤 규제에도 반대한다고 말한다. “하지만,” 그는 덧붙인다. “대부분의 회사들이 사회와의 다양한 방법으로 일부 작업을 공유하는 것은 매우 중요하다고 생각합니다. 모두를 앞으로 나아가게 유지하기 위해서입니다.”
또한: 안정성.ai 창립자에 따르면 오픈 소스는 AI에 대한 불안을 해소하는 데 필수적입니다
Recursion은 자신들의 데이터셋을 오픈 소스로 공개했다고 그는 언급하며, “우리가 앞으로 우리의 모델 중 일부를 오픈 소스로 공개하지 않을 가능성은 배제하지 않을 것입니다.”
분명한 것은 규제와 통제의 중요한 문제는 특정 국가의 시민들의 의지에 귀결된다는 것이다. 핵심 문제는 선거인들을 AI에 대해 교육시키는 방법이다. 이 관점에서 Gibson은 낙관적이지 않았다.
교육은 중요하다고 그는 말하며, “일반적인 믿음은 현재 대중이 교육받고자 하지 않는 것 같다는 것입니다,”라고 말한다.
“교육을 받고자 하는 사람들은 이러한 것들에 관심을 가지는 경향이 있지만, 대부분의 세계는 그렇지 않다는 것은 매우 불행합니다,” 그는 말한다.