인공지능을 책임있게 활용하는 다섯 가지 방법

5 responsible ways to utilize artificial intelligence

전문가들이 클라우드 공급업체를 옮기기 어렵다는 것을 깨달은 것처럼, AI 모델과 지원하는 IT 인프라를 구축하는 과정에서 잠재적인 비용을 인식해야 합니다.

생성적인 인공지능(AI)과 자동화의 불가항력적인 발전은 전문가들과 그들이 속한 조직에 엄청난 영향을 미칩니다.

운영 업무가 자동화되고 직무가 변화되고 있습니다. 하지만 이 혁명이 기업, 직원, 고객 및 사회 전반에 미치는 영향의 전체적인 범위는 거의 예측할 수 없습니다.

AI가 이번 10년 동안 도입되고 조정되는 과정에서 이 변화의 전체적인 영향이 명확해질 것입니다. 현재는 ChatGPT와 같은 이러한 신흥 기술을 실험하는 전문가들이 점점 늘어나고 있습니다.

또한: 최고의 AI 챗봇: ChatGPT와 주목할만한 대안들

이러한 탐색이 진행되는 동안, 양심적인 AI(Accenture은 좋은 의도로 AI를 설계, 개발, 배포하는 것으로 정의합니다)가 점점 중요해지고 있습니다.

그러나 이 요구 사항이 반드시 이행되고 있는 것은 아닙니다: 컨설턴트 보고서에 따르면 소비자의 35%만이 조직이 AI를 구현하는 방식을 신뢰합니다.

그래서 전문가들이 AI의 사용을 확대하는 동안, 이 신흥 기술을 책임있게 활용하는 방법을 어떻게 보장할 수 있을까요?

이것이 뉴스 및 정보 전문가인 톰슨 로이터스의 데이터 및 모델 거버넌스 부사장인 카터 쿠신노(Carter Cousineau)가 이루어야 할 주요 우선 순위입니다. 그녀는 회사가 AI와 기계 학습을 책임있게 활용할 수 있도록 도와줍니다.

다른 대기업과 마찬가지로 톰슨 로이터스도 특히 생성적인 AI를 포함한 많은 신흥 기술의 잠재력을 탐색하기 시작한 단계입니다.

그러나 쿠신노는 이미 이러한 초기 움직임으로부터 한 가지 사실이 분명하다고 말합니다: “책임 있는 AI는 전체 생명주기 동안 윤리에 기반해야 합니다.”

또한: 오늘날의 AI 붐은 지금 행동하지 않으면 사회 문제를 크게 악화시킬 것입니다

AI의 윤리적인 구현의 중요성에 대한 그녀의 견해는 톰슨 로이터스에서의 시간에만 기반한 것은 아닙니다.

그녀는 과거에는 교토 대학교에 있는 책임 있는 윤리적 인공지능 진흥 센터의 이사장이었습니다. 그녀의 연구 관심사는 인간-컴퓨터 상호작용부터 신뢰할 수 있는 AI까지 다양한 주제를 포함합니다.

학문적인 연구와 함께 쿠신노는 최근 라스베이거스에서 개최된 2023년 스노우플레이크 정상회의에서 ENBLE와의 대화를 나누며 스타트업, 비영리 단체, 중소기업 및 포춘 500대기업과 함께 일해왔습니다.

2021년 9월 톰슨 로이터스에 합류한 이후 그녀는 연구 활동 중 배운 것들을 실천해보았습니다.

그녀는 말합니다. “기업에 진입하여 문화를 변화시키고 신뢰를 증진시키기 위해 어떻게 영향을 미칠 수 있는지 고민하는 것은 흥미로웠습니다.”

또한: AI와 고급 응용은 현재 기술 인프라를 압박하고 있습니다

데이터가 사용되는 순간부터 모델 폐기까지, 그녀의 글로벌 팀은 AI 생명주기를 다루며 정보와 인사이트가 잘 조정되고 윤리적인 방식으로 사용되도록 보장합니다.

그녀는 전문가들이 AI를 책임있게 활용하려면 고려해야 할 다섯 가지 주요 사항이 있다고 말합니다.

1. 규정 준비하기

톰슨 로이터스에서 윤리적인 AI의 기반을 마련한 후, 쿠신노는 직원들이 이러한 잘 연마된 원칙을 지속적으로 준수하도록 보장하고 있습니다.

그러나 그녀는 다른 사업 영역이 AI와 자동화에 대해 다른 요구 사항을 가지고 있음을 인식하고 있습니다. 더구나, 외부 입법자들로부터의 추가적인 압력이 생기면 요구 사항이 변경됩니다.

일반 데이터 보호 규정(GDPR), EU AI 법안 또는 자동화에 대한 예정된 규칙이든, 그녀의 팀은 톰슨 로이터스 직원들이 데이터와 모델을 유연하면서도 안전하고 보안성 있는 방식으로 혁신할 수 있도록 적절한 점검과 균형을 맞추고 있습니다.

“우리는 모든 규정을 검토하고 새로운 규칙이 나오면 준비가 되도록 보장합니다,” 그녀는 말합니다.

또한: AI 윤리 도구킷이 더 많은 평가 구성 요소를 포함하여 업데이트되었습니다.

2. 변화에 열려 있으십시오.

Cousineau는 기업이 AI에 대한 표준화된 체크리스트를 생성하고 작업이 완료되었다고 가정하는 것을 좋아하지 않습니다.

“특히 생성적인 AI에서는 모델이 계속해서 학습합니다. 데이터도 변형되고, 그 데이터의 다른 사용이 있습니다. 따라서 데이터 모델 자산의 가시성을 만드는 것이 매우 중요합니다.”

그녀는 법적 의무에 대한 변화에 대한 개방성이 중요하다고 말합니다. 그러나 그 강조가 변화의 운영상 이점으로 전환되는 지점도 있다고 합니다.

“책임 있는 AI의 문화를 구축하는 방법에 대해 팀이 더 많이 알아야 합니다. 데이터 모델이 생산자 또는 소비자 렌즈를 통해 어떻게 사용되는지에 대한 더 많은 정보가 필요합니다.”

또한: 리더십 경고: 먼지는 결코 정착하지 않고 생성적인 AI가 도움이 될 수 있습니다.

3. 데이터 영향 평가를 사용하십시오.

Cousineau는 모델이 제품화로 이동하는 초안 단계에서도 Thomson Reuters가 모든 사용 사례에서 책임 있는 AI를 계속해서 확인한다고 말합니다.

자동화 초기부터 그녀의 팀은 데이터 영향 평가를 수행합니다. 이 기초 작업은 생성적인 AI와 관련된 새로운 사용 사례가 등장한 경우에 중요성을 입증했습니다.

“우리는 법률자문단과 협력하여 우리의 접근 방식은 스킵 로직을 활용합니다. 사용 사례에 따라 적절한 단계나 윤리적인 관심사를 알려주며 현재 사용 사례에 대한 사용 사례를 요구합니다.” 그녀는 말합니다.

“그 접근 방식은 개인 정보 보호 요구 사항, 데이터 거버넌스, 모델 거버넌스 및 윤리에 대한 지원을 그림으로 그리는 것이며, 우리가 그 데이터 영향 평가의 결과를 얻게 되면, 우리 팀은 즉시 해당 위험을 다양한 팀에서 완화하기 위해 작업을 시작합니다. 그리고 그 위험은 매우 구체적입니다.”

또한: 위험 완화를 위해 자체 데이터로 AI 모델을 훈련시키십시오.

4. 신뢰할 수 있는 파트너쉽을 구축하십시오.

Cousineau는 Thomson Reuters가 모든 AI 사용 사례에서 개인 및 조직과 협력하여 개인 정보 보호, 보안 및 책임이 중요한 위치에 있다는 것을 보장하기 위해 다양한 개인과 조직과 협력합니다.

이러한 파트너쉽은 사업 영역을 넘어 벽을 넘어 고객 및 기술 파트너인 Snowflake를 포함합니다.

“나에게 있어 책임 있는 AI는 신뢰할 수 있는 조직과 협력하는 것으로 돌아갑니다. 인프라를 구축하고 협업 문화를 만드는 것입니다.” 그녀는 말합니다.

“그 작업은 모델이 투명하고 설명 가능하며 사람들과 그들의 데이터를 공정하게 대하는지를 보장하는 것이며, 지속 가능성과 모델을 구동하기 위해 필요한 컴퓨팅 파워도 고려하는 것입니다.”

또한: 대형 언어 모델 AI를 위해 Nvidia와 Snowflake가 협업합니다.

5. 금전적 비용을 인식하십시오.

마지막으로, AI를 실험하기 시작할 때 Cousineau는 시스템을 켜는 것이 끄는 것보다 쉽다는 것을 기억하는 것이 중요하다고 말합니다.

클라우드 제공업체를 변경하는 것이 어렵다는 것을 전문가들이 알아낸 것처럼, AI 모델과 지원하는 IT 인프라를 구축함에 따른 잠재적인 비용에 대해 인식해야 합니다.

따라서, 책임 있는 AI는 장기적인 금융적 위험에 대해 생각하는 것을 포함합니다.

또한: 업무용으로 사용하는 제 5의 AI 도구

“비용의 복잡성을 인식하십시오.” 그녀는 말합니다. “한번 제품화된 생성적인 AI를 사용하고 나면, 다른 언어 모델로 전환하려고 하면 그 시스템에서 학습된 것이기 때문에 그것을 이동하기가 매우 어렵습니다. 따라서 마이그레이션 작업에 따른 비용은 매우 복잡합니다.”