AI 안전성과 편향성 AI 훈련의 복잡한 연결 고리 풀기
AI 안전성과 편향성 해결을 위한 AI 훈련 연결 고리 풀기
인공지능(AI)의 안전성과 편향은 안전 연구자들에게 긴요한 도전과제입니다. AI가 사회의 모든 영역에 통합되는 가운데, 그 개발 과정, 기능 및 잠재적인 단점을 이해하는 것이 매우 중요합니다.
인텔 연구소의 지능 시스템 연구실 소장인 라마 낙만은 AI 교육과 학습 과정에 다양한 분야 전문가들의 참여가 필수적이라고 말합니다. 그는 “AI 시스템이 도메인 전문가로부터 학습한다고 가정하고 있습니다. AI 개발자로부터가 아니라요… AI 시스템을 가르치는 사람은 AI 시스템을 프로그래밍하는 방법을 이해하지 못합니다… 그리고 시스템은 이러한 행동 인식 및 대화 모델을 자동으로 구축할 수 있습니다.”
또한: 제2차 세계대전 암호해독자의 고향인 블레치리 공원에서 첫 번째 AI 안전 정상회의 개최 예정
이는 흥미로우면서도 잠재적으로 큰 비용이 따를 수 있는 전망을 제시하며, 사용자와 상호작용하면서 지속적인 시스템 개선의 가능성을 가지고 있습니다. 낙만은 “대화의 일반적인 측면에서 절대적으로 활용 가능한 부분이 있지만, 실제 세계에서 사람들이 일을 수행하는 방식과는 ChatGPT에서 수행하는 방식과 유사하지 않은 많은 요소들이 존재합니다. 이는 현재의 AI 기술은 우수한 대화 시스템을 제공하지만, 실제 물리적인 작업을 이해하고 수행하는 것은 전혀 다른 도전이라는 것을 나타냅니다,”라고 설명합니다.
낙만은 목표가 명확하지 않거나 강건성이 부족하며 특정한 입력에 대한 AI의 응답이 예측할 수 없다는 등 여러 가지 요인들로 인해 AI 안전성이 저하될 수 있다고 말합니다. 큰 데이터셋으로 훈련된 AI 시스템은 데이터에서 발견된 유해한 행동을 학습하고 재생산할 수 있습니다.
AI 시스템의 편향은 차별이나 부당한 결정을 초래할 수 있습니다. 편향은 다양한 방식으로 AI 시스템에 들어갈 수 있으며, 예를 들어 사회의 편견을 반영할 수 있는 훈련 데이터를 통해 들어갈 수 있습니다. AI가 인간의 삶의 다양한 측면에 계속해서 영향을 미치는 가운데, 편향된 결정으로 인한 피해 가능성이 크게 증가하며, 이에 대한 탐지 및 완화를 위한 효과적인 방법론의 필요성을 강조합니다.
또한: ChatGPT가 할 수 없는 Claude AI의 4가지 기능
또 다른 우려사항은 AI의 정보 조작에 대한 역할입니다. 정교한 AI 도구가 점점 더 접근 가능해지면, 이를 사용하여 공공의견을 오도하거나 거짓된 이야기를 홍보하는 위험이 증가합니다. 이에 따른 결과는 민주주의, 공공의료 및 사회통합에 대한 위협을 포함할 수 있습니다. 이는 AI에 의한 정보 조작의 확산을 완화하기 위한 견고한 대응책 구축과 지속적인 연구의 필요성을 강조합니다.
또한: 업무에 유용한 내 5가지 인공지능 도구
모든 혁신마다 불가피한 일련의 도전 과제가 있습니다. 낙만은 AI 시스템이 “인간의 가치와 일치하도록” 고수준으로 설계되어야 하며, 신뢰성, 책임성, 투명성 및 설명 가능성을 고려한 AI 개발에 대한 위험 기반 접근 방식을 제안합니다. 지금 AI에 대한 대응을 취하면 미래 시스템의 안전성을 보장하는 데 도움이 될 것입니다.