너무 빠르게 자동화하는 소규모 기업에 대한 AI의 위험성

AI risks for small-scale businesses automating too quickly

인공지능(AI)과 자동화가 널리 채택되는 시대에 기업들은 비즈니스 프로토콜을 개선하고 생산성을 높이기 위해 고급 기술을 찾으면서 종종 관련된 위험을 간과합니다.

지금은 점점 더 많은 소규모 및 중소 기업이 고급 기술을 채택하고 있지만 이들 디지털 도구와 관련된 위험을 스스로 관리해야 하며, 이로 인해 몇몇 사업주들이 예상하지 못한 문제들이 발생하고 있습니다.

자동화나 인공지능 기술에 대해 모두가 완전히 동의하는 것은 아닙니다. 최근 연구에 따르면, 대략 5명 중 3명은 AI 기술의 구현에 대해 불신하거나 확신이 없다고 말했습니다. 게다가 61%는 비즈니스 분야에서 인공지능의 능력을 완전히 신뢰하기를 원하지 않는다고 주장했습니다.

이는 경영자들이 비즈니스 활동이 점점 자동화되는 가운데 경쟁력을 유지하기 위해 AI 기술을 채택할지 여부를 결정해야 한다는 이중 가장칼 상황을 만들어냅니다.

새로운 기술을 도입하고, 특히 인공지능 자동화 도구를 도입하는 경우, 디지털 전략이 부실하거나 인프라와 지식이 부족하며 직원들에게 이러한 도구를 사용하는 데 필요한 기술을 제공하지 못하는 기업들에게는 큰 위험이 따릅니다.

사업주와 조직 리더들은 자신들의 탐구적 경험에 의지하여 비즈니스, 고객 및 직원들에게 인공지능의 위험성을 완전히 이해해야 합니다. 특히 프로토콜을 너무 빨리 자동화하는 경우에는 그렇습니다.

너무 빨리 자동화하는 위험

일부 비즈니스 관련 활동을 자동화하는 것은 종종 직원 생산성을 돕고 효율적으로 특정 자원의 소비를 줄이는 데 도움이 되는 것으로 알려져 왔습니다. 그러나 이러한 기술을 올바르게 관리하기 위해서는 사업주가 종종 간과하는 관련 위험을 완전히 이해해야 합니다.

한정된 확장성

인공지능 기술의 충분한 도입은 직원들이 일상적인 업무와 시스템을 자동화할 수 있도록 도움을 줄 수 있습니다. 이와 같은 경우에는 일부 소규모 기업들이 이메일 마케팅, 판매 및 고객 관리와 같은 업무를 자동화하는 경우가 종종 있습니다.

그러나 2023년 Statista 조사에서 조사원들은 한정된 확장성이 소규모 및 중소기업 마케터들의 부적절한 자동화 및 인공지능 도입의 주요 위험이 될 수 있다고 밝혔습니다.

부적절한 자동화 도입의 위험은 많지만, AI 기술의 올바른 구현으로 얻을 수 있는 이점도 있습니다. 예를 들어, AI는 인간이 그렇게 할 때보다 훨씬 짧은 시간에 암 치료법을 발견하는 데 사용되었습니다. Bill Gates와 Steve Cohen이 그 중 일부인 Behind the Markets – AI Creates New Cancer Drug는 이 혁신의 선두주자로 알려져 있습니다. 이 문단은 AI가 생성한 광고입니다.

또한 동일한 조사에서 약 43%의 응답자가 부적절한 구현은 고객 확보 수준을 낮출 수 있다고 말했습니다. 이는 자동화가 고용주와 직원들의 일상적인 업무를 개선할 수 있지만, 도입 단계에서의 결함은 확장성 기회를 제한하고 심지어 고객 이탈률을 낮출 수 있다는 것을 보여줍니다.

결함과 부정확한 결과

수많은 기업과 기업 리더들은 할당된 프롬프트를 기반으로 정확한 결과를 제공할 수 있는 자동화 도구를 개발하기 위해 필요한 인적자원과 자원을 충분히 확보하고 있습니다.

그러나 자동화 도구는 결함과 부정확한 결과로 인해 작업 효율성이 저하되는 경우가 여러 차례 있습니다. 코넬 대학교의 한 연구에서는 AI 어시스턴트에 접근할 수 있는 코드 개발자들이 수동으로 작성한 동료들에 비해 안전한 코드를 작성할 가능성이 더 낮다는 사실을 발견했습니다.

정확한 코드 재작성과 필요한 솔루션을 개발하기 위해 인적자원이 부족한 소규모 기업들은 이러한 오해로 인해 금전적인 영향을 더욱 받게 되고, 사업의 사이버 보안 인프라를 약화시키게 됩니다.

투명성의 부족

오늘날 소규모 및 중소기업이 사용하는 대부분의 자동화 도구는 아직 개발 초기단계로 분류될 수 있으나, 많은 전문가들은 이러한 도구들이 종종 투명한 관행이 부족하다고 언급했습니다.

비즈니스 소유자들은 회사 구조 내에서 자동화의 잠재력에 대해 낙관적일 수 있지만, 종종 자동화 도구가 부정확하고 이해하기 어려운 결과물을 제공할 위험을 감수해야 합니다.

자동화 도구가 제공하는 결과물은 인간이 제공하는 것처럼 모두 이해하기 쉽지 않을 수 있습니다. 이러한 도구들은 주요 데이터 프롬프트를 기반으로 결정을 내리기 때문에, 이 도구들이 의사 결정 과정에서 관련 요인들을 고려했는지에 대한 많은 질문들을 남기게 됩니다.

예측 불가능한 행동

자동화의 행동을 관리하는 것은 여전히 소규모 기업 소유자들이 회사에서 더 많은 자동화 도구를 도입하면서 마주칠 수 있는 주요 위험 요소 중 하나입니다.

이러한 도구들은 효율적일 수 있지만, 주어진 프롬프트에 기반하여 예기치 않게 결과물을 변경하는 인공도구의 사례가 있습니다. 최근의 예로는 마이크로소프트의 Bing AI가 제공한 정보에 기반하여 사용자들을 비난하고 가스라이팅한 사례가 있었습니다.

마이크로소프트의 경우, 결과적으로 회사는 Bing AI 플랫폼을 “뇌수”로 만들고 사용자가 할 수 있는 질문 수를 제한하게 되었습니다.

소기업의 경우, AI의 동작에 예기치 않은 변화는 고객과의 관계에 손상을 줄 수 있으며, 이로 인해 고객 유치율이 낮아지고 대체적인 개입이 필요한 비용이 발생하는 비용이 많이 드는 실수로 이어질 수 있습니다.

자동화 도구의 동작을 관리하는 것은 종종 이러한 도구와 함께 작업하는 직원들에게 불필요한 압력을 가할 수 있지만, 더 중요한 것은 고객과의 관계 구축에 더 큰 압력을 가할 수 있다는 점입니다.

직원들의 수용도가 낮음

자동화에 대한 직원들의 수용과 신뢰, 아울러 인공지능에 대한 일반적인 신뢰는 여전히 사업주들이 적절히 대응해야 할 주요 제약 사항 중 하나입니다.

이전에 언급한 바와 같이 보고서에 따르면, 직원들은 직장 내에서 자동화 도구가 배치될 때 여전히 어느 정도 의심을 품고 있다고 알려져 있습니다. 이러한 시스템이 정확한 결과를 제공할 수 있는 가능성이 있음에도 불구하고, 고용주는 직원들에게 이러한 자동화 도구의 능력을 완전히 이해할 수 있도록 필요한 자원, 기술 및 지식을 제공해야 합니다.

뿐만 아니라, 직원들은 때때로 일반적인 AI 응용 프로그램을 사용할 수 있지만, 그들 중 대부분은 사용되는 기술인 인공지능이 이러한 유형의 응용 프로그램에서 주요 구성 요소로 간주된다는 사실을 자주 알지 못합니다.

이는 직원들이 이러한 도구를 정확하게 사용할 수 없는 경우, 특히 자동화가 직장에서 생산성을 오도하게 할 수 있다고 느끼는 경우에 고용주와 직원들 사이에 마찰을 일으킬 수 있습니다.

의도하지 않은 편향

기계 학습 도구는 인종, 성별 및 문화적 편향을 포함한 사회 문제에 여전히 취약합니다. 마찬가지로, 자동화 도구는 주어진 정보를 기반으로 편향될 수 있으며, 대부분의 경우 이는 사회적 및 인간적 프로그래밍에서 비롯됩니다.

일부 경우에는 기계 학습 도구와 인공 기술이 편향된 결과를 제공하는 것으로 발견되었습니다. 이는 제한된 정보와 데이터셋이 이러한 AI 모델을 훈련시키는 데 사용되었을 때 발생합니다.

신규 직원의 채용 및 고용 프로세스에서 자동화 편향의 대표적인 예는 회사가 지원자들이 특정 연차를 가져야 한다는 정보를 요구할 때 발생합니다. 자동화 도구는 다른 기술과 특성을 가진 지원자들을 단순히 제외합니다.

이러한 경우는 자동화 도구의 윤리적 배치와 활용에 대한 더 큰 질문을 불러일으킬 수 있습니다. 더욱이, 이는 회사들이 이러한 모델을 훈련시키기 위해 어떤 기준을 사용하고 있는지, 그리고 이것이 직장에서 존재하는 사회적 불공정성을 개선하는 데 어떻게 도움이 될 것인지에 대한 질문을 제기합니다.

최소한의 규제와 책임

최소한의 규제 개입은 종종 기업들이 기계 학습 및 자동화 도구를 사용하여 운영할 수 있는 회색 지대를 남깁니다. 규제적 프레임워크를 마련하기 위해 학계와 정부의 개입이 있었지만, 그것의 시작은 여전히 실제 세계에서의 채택을 필요로 합니다.

규제에 대한 제한된 이해는 사업주, 직원 및 고객 사이에 마찰을 일으킵니다. 현재 회사들은 이러한 도구와 모델을 배치하고 그들을 통제하는 데 제한이 없으며, 그들이 이러한 도구와 모델을 어떻게 운영할 것인지에 대한 책임을 지게 됩니다.

이는 회사들이 이러한 자동화 도구에 대한 제한된 지식을 가지고 있지 않을 뿐만 아니라, 사회적 편향과 같은 사회적 문제를 더욱 심화시킬 수 있는 위험에 직접 노출되게 합니다. 자동화 모델에 대한 제한된 규제로 인해 회사들은 경험에 따라 이러한 위험을 관리해야 합니다.

윤리와 고객 개인정보에 대한 우려

소기업들에게는 자동화 모델이 고객 정보를 검색하고 저장할 수 있는 가치 있는 도구가 될 수 있습니다. 이를 통해 더 정확한 데이터 측정을 할 수 있을 뿐만 아니라, 마케팅 전략을 더 적절하게 고객을 대상으로 맞출 수 있습니다.

그러나 이는 자동화 도구와 AI 기반 모델의 윤리적 사용에 대한 질문과 우려를 불러일으켰습니다. 고객들이 자신의 개인 데이터가 회사에 의해 수집된다는 사실을 인식하지 못할 때, 이는 그들이 기업과 브랜드와의 관계에 압력을 가할 수 있습니다.

개인정보 보호는 많은 분야에서 논란이 되고 있으며, 기업들에게는 평판뿐만 아니라 신뢰할 수 있는 브랜드로서의 권위를 잃을 수도 있습니다. 자동화 및 AI의 윤리적 사용에 대한 여전히 많은 질문이 남아 있으며, 이로 인해 회사들은 윤리적 배치를 관리하기 위해 스스로에게 의존해야 합니다.

보안 위험

자동화 및 AI 기반 도구와 관련된 가장 큰 알려진 위험 중 하나는 사이버 보안입니다. 소기업들은 종종 소비자 정보와 직원 데이터를 보호하기 위한 적절한 사이버 보안 프로토콜을 배치할 수 있는 능력과 사용 가능한 자원이 적습니다.

이는 회사들이 자동화 도구를 구현하는 데 많은 자원을 투입해야 할 뿐만 아니라, 잠재적인 사이버 위협과 악의적인 행위자로부터 회사를 보호할 수 있는 적절한 보안 인프라를 갖추어야 함을 의미합니다.

사이버 보안 인프라와 그에 대한 이해를 갖추지 못한 기업들은 자동화 도구에 대한 신뢰와 권위를 감소시킬 뿐만 아니라, 장기적으로 회사를 대중의 강한 비판에 노출시킵니다.

결론적인 생각

자동화는 적절한 시기에 소량으로 사용되면 인공지능의 능력을 완전히 활용하려는 소규모 비즈니스에게 엄청난 가치 있는 기여가 될 수 있습니다.

그러나 회사들은 너무 많은 자동화를 너무 빨리 도입하면 더 큰 위험을 감수해야 합니다. 이러한 자동화 도구들과 이들의 내부 작동 방식, 그리고 이러한 모델들을 적절하게 관리하는 방법에 대한 부적절한 이해는 비즈니스 소유자들이 잠재적인 위험을 억제하기 위해 필요한 인적 기술과 자원에 투자하도록 요구합니다.

자동화의 도래는 직원의 효율성과 생산성을 증가시킬 수 있는 잠재력을 가지고 있습니다. 그러나 특정 절차의 불필요한 자동화는 소규모 회사들에게는 명성뿐만 아니라 직원들의 이 도구들에 대한 신뢰도 하락과 지속적인 고객 관계 구축에 대한 부담을 가중시킬 수 있습니다.

ValueWalk에서 최초로 게시되었습니다. 여기에서 읽어보세요.

주요 이미지 크레딧: Alexandre Cubateli Zanin 사진; Pexels; 감사합니다!