전문가들 중 56%는 회사가 인공지능 사용에 대한 윤리 지침을 가지고 있는지 확실하지 않습니다

전문가들 가운데 56%는 회사가 인공지능 사용에 대한 윤리 지침을 갖고 있는지 확실하지 않다고 생각합니다.

블록 위의 척도

AI는 1950년대부터 존재하였지만, 지난 한 해 동안 엄청난 성장을 보였습니다. 기술 기업들은 제품과 서비스에 AI를 구현했고 개인들은 AI를 사용하여 신생아 아가들에게 유니콘 모양의 머리카락을 만드는 등 삶을 조금 더 쉽게 만들고 있습니다.

Deloitte에 따르면, 기업의 74%가 자체 제작 AI를 이미 테스트하고 있으며 65%가 내부적으로 사용하고 있습니다. AI의 새로운 능력에 대한 인식의 증가로 인해, 조직이 이 기술을 윤리적으로 어떻게 사용할 수 있는지에 대한 긴급한 질문이 제기되고 있습니다.

또한: 강력한 기술을 활용하는 방법: 생성 AI의 윤리

Deloitte는 총 26명의 다양한 산업 전문가와 인터뷰를 진행하여 신흥 기술, 특히 생성 AI의 윤리적 사용에 대한 우려를 고려하는 산업 리더들이 어떻게 생각하는지에 대한 정보를 수집했습니다.

그 다음 회사는 가설을 검증하고 64개의 질문으로 구성된 설문지를 1,700개 이상의 기업과 기술 전문가에게 전달하여 더 깊은 통찰력을 얻었습니다.

Deloitte Consulting LLP의 수석 이사이자 Deloitte의 Technology Trust Ethics 실습의 리더 인 Beena Ammanath의 보고서는 다음과 같은 신흥 기술을 언급합니다: 인지 기술 (일반 및 생성 AI 및 챗봇), 디지털 현실, 주변 환경, 자율 주행 차량, 양자 컴퓨팅, 분산 원장 기술 및 로봇 공학.

설문 조사에 따르면, 비즈니스 리더 및 신흥 기술 개발자로 구성된 응답자 중 39%는 사회적 이익을 가장 많이 창출할 것으로 생각한 것은 인지 기술이었고, 디지털 현실은 12%, 주변 환경은 12%였습니다.

또한: AI가 조직 전반을 변형하고 있습니다. 이 6개 기업이 선도하고 있는 방법

하지만, 응답자의 57%는 인지 기술이 심각한 윤리적 위험을 가장 큰 잠재력을 가지고 있다고 생각했습니다.

가장 걱정되는 통계는 응답자의 절반 이상(56%)이 자사의 “생성 AI 사용에 윤리 원칙이 없거나 알 수 없다”고 말했다는 것입니다.

Deloitte의 신흥 기술에 관한 차트

Deloitte의 2022년 윤리와 신생 기술에 대한 신뢰에 관한 보고서와 비교해보면, 올해의 보고서에는 “조직들이 한 때 다시 유행하는 이 새로운 기술의 대규모 적용으로 인해 새로운 윤리적 문제들과의 싸움에 처해있다”라고 언급되어 있습니다.

이러한 문제는 기업과 조직들이 이러한 기술을 어떻게 사용하는지에 대한 우려와 관련이 있습니다.

AI의 여러 이점에도 불구하고, 응답자의 22%는 데이터 프라이버시에 대해 우려를 표명했으며 14%는 AI가 데이터를 훈련시켜 출력물을 생성하는 방식에 대한 투명성을 요구했습니다.

또한: 비즈니스를 위한 최고의 AI 파트너를 확보하기 위한 3가지 방법

잘못된 행위자들에 의해 데이터 훈련 세트가 “오염”되어 AI에 의해 생성된 부정확한 결과를 낼 수 있는 데이터 오염 및 지적 재산권과 저작권은 각각 설문 조사 응답자의 12%를 구성했습니다.

AI에 대한 우려의 그래프

Deloitte의 보고서는 또한 응답자들이 윤리적 위반에 대해 진지하게 다루지 않을 때 어떤 종류의 피해가 발생할 수 있는지 상세히 설명하고 있습니다.

38%의 응답자가 우려하는 가장 큰 피해는 평판적 손상이며, 이어서 27%는 오진 또는 데이터 프라이버시 위반과 같은 인적 피해, 17%는 저작권 침해와 같은 규제적 벌금, 9%는 재정적 피해, 9%는 직원의 불만족도입니다.

이러한 피해는 이미 AI의 비윤리적 사용으로 인해 발생한 프라이버시 위반 및 저작권 침해와 관련된 여러 소송에서 드러나고 있습니다.

또한: 신뢰할 수 있는 생성 인공지능이 연결된 고객 경험을 개선하는 방법

그렇다면 기업은 어떻게 AI를 안전하게 사용할 수 있을까요? Deloitte는 기업을 돕기 위해 다단계 접근법을 제시합니다:

  • 탐색: 제품 소유자, 사업 리더 및 AI/ML 전문가들이 참여하는 워크샵을 통해 기업은 생성 인공지능이 비즈니스에 어떤 가치를 창출할 수 있는지 알아볼 수 있습니다. 이를 통해 기업들은 AI를 사업에 통합하는데 드는 비용과 이점을 인식할 수 있습니다.
  • 기반 구축: 기업들은 기업 내에 생성 인공지능을 도입하기 위해 AI 플랫폼을 구매하거나 구축할 수 있습니다. 조사 대상자 중 30%의 기업은 이미 주요 AI 플랫폼의 기능을 활용하기로 선택했고, 8%는 자체 AI 플랫폼을 구축했으며, 5%는 생성 인공지능을 사용하지 않기로 결정했습니다.
  • 지배 구조: AI를 사용하기 위한 표준과 프로토콜을 만들면 AI의 잠재적인 위험을 최소화할 수 있습니다. 기업들은 어떤 윤리적 원칙을 준수할 것인지 결정해야 합니다.
  • 교육 및 훈련: 기업들은 AI 사용의 윤리적 원칙을 설명하는 교육을 필수적으로 요구할 수 있습니다. 또한 다양한 LLM(언어, 언어 모델) 사용에 대한 기술적인 훈련은 AI의 윤리적인 사용에 대한 더 많은 지침을 제공할 수 있습니다.
  • 시험 프로젝트: 엔지니어와 제품 리더들은 다양한 사용 사례에 대한 실험을 수행하여 개념 증명과 시험용 프로그램을 테스트한 후, 너무 위험한 요소들은 제거할 수 있습니다.
  • 도입: 기업은 새롭게 개선된 제품을 시장에 출시하기 위한 계획을 작성하고 제품 도입과 책임을 담당할 수 있는 인원을 지정해야 합니다. 또한 문제가 발생할 경우 대응할 수 있는 전문가 팀을 구성해야 합니다. 이 단계에서 투명성도 매우 중요합니다. 기업들은 사용자 데이터가 모델에 입력되고 모델이 결과에 도달하는 방식, 그리고 모델이 현실적으로 생각할 가능성에 대해 설명해야 합니다.
  • 심사: 한 인터뷰 대상자의 말에 따르면, 기업들은 AI 사용의 위험에 따라 정책을 수정해야 할 것입니다. 이는 기업마다 다를 수 있으며, 모든 조직이 동일한 사용 사례를 위해 AI를 통합하지는 않을 것입니다.

“기업이 위험을 식별하고 사전에 지배 구조를 확립하기 위해 협력하는 데 일찍 착수할수록, 이들은 이해관계자 가치를 창출하고 브랜드의 가치를 높이며, 새로운 시장을 창출하고 공정한 세상을 구축하는 데 더 유용한 능력을 갖출 수 있을 것입니다,”라고 Ammanath는 말했습니다.