AI와 당신 줌 먹이기, 맞는 운동화 찾기, 훈련 데이터 찾기

AI와 당신 줌 먹이기, 맞는 운동화 찾기, 훈련 데이터 찾기' 'Feeding you AI, finding the right sneakers, finding training data

줌은 이번 주에 뉴스에 소개되었는데, 원격 근무를 대중화시키는 데 도움을 준 비디오 회의 회사로서 많은 직원들을 주당 두 번 사무실로 돌아가도록 결정한 새로운 정책이 많은 밈을 일으켰기 때문이다.

줌의 이번 AI 소식을 소개하는 가장 큰 이유는 3월에 중요한 줌의 약관 업데이트가 “음성, 영상 및 기타 데이터를 수집하고 기계 학습 시스템으로 전송하기 위해 회사에 자유롭게 권한을 부여하는 것처럼 보이는 것”을 Hacker News가 발견하고 그에 대한 반발이 일어났다는 것이었다. ENBLE은 밝혔다.

서비스 약관은 이러한 세부 사항을 세부 사항에 감춰서 당신의 권리나 개인 정보 일부를 포기하도록 유도하기 때문에 악명높다. 그러나 심지어 AI에 대해 잘 모르는 사람들도 줌의 소프트웨어를 사용하는 수백만 명의 사람들이 대화에서 공유하는 정보에 대해 줌의 모든 접근 방식에 화가 났다.

그래서 이번 주 초에 줌의 최고 제품 책임자인 스미타 하샴은 회사의 서비스 약관을 개정하여 사용자들에게 다음과 같이 약속했다: “줌이나 제3자 인공지능 모델을 훈련시키기 위해 당신의 음성, 영상, 채팅, 화면 공유, 첨부 파일 또는 다른 커뮤니케이션(예: 투표 결과, 화이트보드 및 반응과 같은 고객 콘텐츠)를 사용하지 않습니다.”

하지만 당신이 동의한다면, 앞으로 그럴 수도 있습니다. 동의는 요즘 키워드입니다. 예를 들어, Sarah Silverman과 Margaret Atwood을 비롯한 작가들은 OpenAI와 Google을 비롯한 AI 챗봇 제작업체들이 저작권 보호 내용없이 그들의 저작물을 무단으로 수집하고 AI 시스템을 훈련시키기 위해 저작권료를 지급하지 않는다고 비판하고 있으며, 연방거래위원회는 OpenAI가 사용자들의 개인정보를 부실하게 처리하는지에 대해 조사하고 있다.

지난달에는 언론사와 비공개 약정을 체결하겠다고 발표한 OpenAI가 웹 사이트 운영자가 그들의 사이트에서 정보를 수집하지 못하도록 웹 크롤러인 GPTBot을 차단할 수 있도록 허용한다고 발표했다. 이는 OpenAI가 ChatGPT에 필요한 모든 콘텐츠를 어떻게 얻었는지 알리지 않았기 때문에 중요하다. Google은 Bard와 함께 가장 인기있는 챗봇 중 하나인 ChatGPT에 데이터를 제공하는 방법에 대해 자세히 언급하고 있다.

구글은 “저작권법은 생성적인 AI 시스템이 인터넷을 크롤링할 수 있도록 변경되어야 한다”고 호주 정부에 제출한 서류에서 Bard를 구동하는 것에 대해 애매함을 보이지 않았다. 결국 구글 검색 역시 이렇게 탄생하였다. 그러나 구글은 “AI 시스템을 사용하여 데이터를 훈련시키는 것을 원하지 않는 기관들을 위한 실현 가능한 선택 권리가 있어야 한다”고 밝혔으며, The Guardian의 보도에 따르면 “그런 시스템이 어떻게 작동해야 하는지 구글은 밝히지 않았다”고 덧붙였다.

TL;DR: AI 회사들이 이 챗봇을 구동하는 데 필요한 대형 언어 모델을 훈련시키기 위해 데이터를 어떻게 얻어야 하는지와 얻어서는 안 되는지에 대해 미국과 전 세계의 규제 기관과 소송, 라이선싱 계약, 토론이 계속 될 것으로 기대된다.

ENBLE은 미국에서는 소비자들을 데이터 수집 및 재판매에 의존하는 비즈니스로부터 보호하는 연방 개인 정보법이 없기 때문에 “많은 기술 회사들은 이미 우리의 정보에서 이익을 얻고, 그 중 많은 기업들은 줌과 같이 생성적인 AI 프로젝트에 더 많은 데이터를 확보하기 위한 방법을 찾고 있다. 그럼에도 불구하고 그들이 하는 일에 대한 통제는 우리 사용자들에게 달려있다”고 밝혔다.

다음은 AI 분야의 주목할 만한 사항들이다.

AI를 통한 전문 쇼핑 어시스턴트

11월에 첫 마라톤을 준비하던 ENBLE 기자 Bree Fowler은 전국적인 특수 운동화 매장 체인인 Fleet Feet의 AI 기반 신발 맞춤 소프트웨어를 사용하여 적합한 운동화를 찾는 데 도움을 주었다.

능력에 대한 회의를 품고 있었지만, Fowler는 Fit Engine 소프트웨어가 “런너의 양발의 형태(3D 스캔 프로세스인 Fit ID를 통해 수집된)를 분석하여 네 가지 다른 영역에서 정밀한 측정을 수행한다는 것을 알게 되었다. 그것은 단지 사람의 발이 얼마나 길지만이 아니라 아치가 얼마나 높은지, 발가락을 가로지르는 발의 폭이 얼마인지, 뒤꿈치에 필요한 공간이 얼마나 필요한지도 고려한다.”

AI 프로그램은 여러 가지 다른 차원에서 당신의 발을 측정하여 이상적인 착용감을 찾는 데 도움을 줍니다.

Fleet Feet

결국, Fowler는 자신의 발이 생각보다 큰 사이즈임을 알게 되었다. 그리고 “많은, 많은” 신발을 신어보고 나서, 한 시간 후에 두 켤레의 신발로 좁혔다(그 중 하나는 할인 상품이었다). 그러나 AI 소프트웨어가 특수화된 신발 선택 과정에서 모든 것을 결정하는 마법의 도구는 아니라는 것을 알아두자. Fowler가 방문한 Fleet Feet 뉴욕 매장의 소매 경험 관리자조차도 그 도구가 단지 인간 직원들을 돕고 올바른 착화감을 가진 신발을 찾기 위한 시작점을 제공하기 위해 있는 것이라고 말했다.

“소비자에게는 데이터를 이해하기 훨씬 쉽게 변환해줍니다,” Fleet Feet의 Michael McShane은 Fowler에게 이야기했습니다. “여전히 전문가의 평가를 제공하고 데이터가 무엇을 말하는지 가르쳐주며, 일반적인 상점에 가는 것보다 여기에 오는 것이 더 좋은 이유를 설명해줄 수 있습니다.”

디즈니도 AI 세계를 보고 있습니다

배우와 다른 창작 전문가들이 앞으로 AI가 어떻게 작용하거나 자신들의 직업을 대체할 수 있는지에 대해 할리우드 스튜디오와의 파업을 계속하면서, 미국 로이터통신은 “월트 디즈니가 ‘인공지능을 연구하기 위한 태스크 포스를 설립하고, 엔터테인먼트 콘글로머레이트 전반에 어떻게 적용될 수 있는지 연구하는 것으로 알려진’ 인공지능을 연구하기 위해 고문과 파트너십을 형성하고자 한다고 알렸습니다.” 레포트는 회사가 영화와 TV 프로그램을 제작할 때 비용을 절감하기 위해 AI를 활용하고자 한다고 추가했습니다.

디즈니는 로이터통신에 대해 언급을 거부했지만, 많은 다른 회사들과 마찬가지로 AI에 대한 관심을 나타내는 채용 공고가 회사의 사이트에 게시되어 있습니다.

일부 흥미로운 AI 통계

2023년 8월 1일에 발표된 24페이지의 조사 “2023년 AI 현황: 생성 AI의 돌풍”에서 McKinsey & Co.는 ChatGPT와 같은 생성 AI 도구가 출시된 지 1년도 채 되지 않은 시점에서 조사 대상자 중 1/3가 이미 적어도 하나의 비즈니스 기능에 대해 생성 AI 도구를 사용하고 있다고 밝혔습니다.

“최근의 발전을 통해 AI는 기술 직원들에게 한정된 주제에서 회사 리더들의 초점으로 떠올랐습니다: 조사 대상자 중 약 1/4는 직접적으로 작업에 생성 AI 도구를 사용하고 있는 것으로 밝혀졌으며, AI를 사용하는 회사의 응답자 중 약 1/4는 생성 AI가 이미 그들의 이사회 안건에 포함되어 있다고 말했습니다,” 연구원은 이러한 결과를 발견했습니다.

“더욱이, 응답자들의 40%는 생성 AI의 발전으로 인해 전체적으로 AI에 대한 투자를 늘릴 것이라고 밝혔습니다. 이 결과는 생성 AI에 관련된 위험을 관리하기에 아직 초기 단계임을 보여주며, 응답자들의 절반도 가장 관련성이 높다고 여기는 위험조차도 경감하고 있다고 말합니다: 부정확성에 대한 위험.”

한편, “자동화 지금과 다음: 지능적 자동화 현황 보고서 2023″라는 보고서에서 1,000명의 자동화 관리자들을 대상으로 조사한 결과, AI는 생산성 향상에 도움이 될 것이라고 밝혔습니다. “우리가 그들의 작업에서 더욱 지루한 부분을 자동화할수록, 직원 만족도 조사 결과가 더 좋아집니다. 직원들은 더욱 참여하고 행복합니다. 우리는 이를 조사를 통해 측정할 수 있습니다. 이제 기계들은 사람들이 예전에 했던 반복적이고 가치가 낮은 작업을 수행합니다,” 대규모 의료 기관의 CTO는 이 조사의 일환으로 말했습니다. 해당 조사는 여기에서 찾아볼 수 있습니다.

이 연구는 “AI 기반 지능적 자동화 솔루션의 선두주자”인 Automation Anywhere에 의해 위탁되었으므로 결과를 조금은 거칠게 받아들일 필요가 있습니다. 그러나 말하고 싶은 것은 이러한 생산성 연구 결과가 McKinsey, 골드만 삭스 등 다른 연구 결과와 유사하다는 점입니다.

또한, AI 채용이 전 세계적인 현상임을 의심할 여지가 있다면, Electronics Hub의 AI 기술 채용 현황을 살펴보면 필리핀이 “AI 도구에 대한 월간 검색량이 가장 높다”고 합니다.

AI 시스템이 잘못되었을 때

환각을 일으키거나 사실은 아니지만 사실처럼 들리는 것 외에도 AI는 공격적으로 오도하거나 잘못된 정보를 제공하거나 그야말로 파괴적인 영향을 줄 수 있는 잠재력이 있습니다. 최근에는 존경받는 연구원 및 네덜란드 정치인을 테러리스트로 잘못 식별한 사례가 발생한 것과 같습니다.

AI가 잘못될 수 있는 방법들을 기록하기 위해 지금은 AI 사고 데이터베이스가 있습니다. 해당 데이터베이스는 “인공지능 시스템의 배치로 인해 실제 세계에서 실현된 해를 또는 가까운 해를 색인화하는 것에 헌신된다. 비행 및 컴퓨터 보안과 비슷한 데이터베이스와 마찬가지로, AI 사고 데이터베이스는 경험에서 배울 수 있도록 하여 나쁜 결과를 예방하거나 완화할 수 있도록 목표로 합니다.”라고 설명하고 있습니다.

데이터베이스에 발견되는 모든 AI 오류, 실수, 사고 또는 문제를 제출할 것을 초대합니다. 해당 데이터베이스는 이미 “인공지능 명예의 전당”이라는 별명을 얻었습니다.

AI가 잘못될 수 있는 방법에 대해 얘기하자면, Center for Countering Digital Hate가 “생성 AI가 사용자들에게 유해한 섭식 장애 콘텐츠를 생성할 수 있게 하는 방법”을 상세히 설명하는 22페이지의 보고서를 발표했습니다. 해당 기관은 6개의 AI 플랫폼 및 이미지 생성기를 유도한 결과, “인기있는 AI 도구들은 총 180개의 유도에 대해 41%의 유해한 섭식 장애 콘텐츠를 생성했으며, ‘헤로인 시크’ 미학을 달성하기 위한 조언이나 ‘팬십을 위한 이미지’ 등을 포함합니다.”

“기술 회사들은 안전을 염두에 두고 새로운 제품을 설계하고, 대중에게 도달하기 전에 철저히 테스트해야 합니다,” Center for Countering Digital Hate의 CEO 인란 아흐메드는 서문에서 썼습니다. “대부분의 사람들이 동의하는 원칙이지만, 이러한 회사들이 새로운 제품을 빠르게 출시하기 위한 압도적인 경쟁 상업 압력은 민주적 기관들에 의한 규제나 감독에 의해 억제되지 않고 있습니다.”

건강 및 다른 다양한 주제에 대한 잘못된 정보는 오랫동안 인터넷에서 제공되어 왔습니다. 그러나 AI가 뉴스와 정보의 주요 출처로 의존하는 사람들이 더 많아진다면 독특한 도전이 될 수 있습니다. 예를 들어, Pew Research는 미국인들이 소셜 미디어를 뉴스의 출처로 의존하는 정도에 대해 상세히 기술했습니다.

6월에, 국립 식이장애 협회는 라이브 도움말센터를 폐쇄하고 AI 챗봇을 포함한 다른 자원으로 대체하기로 결정했습니다. 그러나 이 챗봇인 Tessa는 “사용자가 식이장애를 가지고 있다는 사실을 알고 있음에도 불구하고, 칼로리 제한 및 다이어트와 같은 행동을 권장했다고 BBC가 보도했습니다. 이후 NEDA는 사실 시트, YouTube 동영상 및 치료 옵션에 대한 정보를 제공할 수 있는 단체 목록으로 사용자를 안내하고 있습니다.

비밀번호 보호는 음소거 버튼으로 시작됩니다

비밀번호를 보호하기 위해 취하는 모든 조치가 화상 회의 중에 마이크가 켜져 있는 상태에서 비밀 코드를 입력하면 취약해질 수 있습니다.

가디언은 “Zoom에서 채팅하면서 컴퓨터 비밀번호를 입력하면 사이버 공격의 문을 열 수 있다는 연구 결과에 따르면, 타자소리를 들어 도청을 하여 어떤 키가 눌리는지를 인공지능이 파악할 수 있다고 보고했습니다.

사실 연구자들은 “소리 녹음만으로도 노트북 키보드에서 눌리는 키를 90% 이상의 정확도로 추정할 수 있는 도구를 개발했습니다.

AI 용어: 학습 데이터

이번 요약은 학습 데이터가 어디서부터 나오는지에 대한 논쟁으로 시작되기 때문에, 학습 데이터가 무엇이며 왜 중요한지에 대한 간단한 정의를 제공합니다. 이 정의는 NBC 뉴스를 통해 전달됩니다:

“학습 데이터: AI 모델이 작업을 수행하는 데 도움이 되는 텍스트, 이미지, 음성 등의 정보 모음입니다. 언어 모델의 경우, 학습 데이터셋은 책, 소셜 미디어의 댓글, 심지어 코드와 같은 텍스트 기반 자료에 중점을 두고 있습니다. AI 모델은 학습 데이터로부터 배웁니다. 따라서 데이터의 원천과 관리에 대한 윤리적 문제가 제기되고 있습니다. 품질이 낮은 학습 데이터는 편견을 도입하여 인종주의적이거나 성별차별적인 결정을 내릴 수 있습니다.”

NBC는 예를 들어, 2019년에 “보다 많은 만성 질환을 가지고 있으며 더 아프지만 흰 인종 환자들을 유리시한 것으로 나타난 흑인 환자들보다 흰 인종 환자들을 우선시하는 보편적으로 사용되는 의료 알고리즘이, Science 저널에 출판된 연구에 따르면, 중대한 인종적 편견이 있다는 사실이 밝혀졌습니다.”

편집자 주: ENBLE은 일부 이야기를 만들기 위해 AI 엔진을 사용하고 있습니다. 자세한 내용은 이 게시물을 참조하세요.