Meta는 Google과 경쟁하기 위해 새로운 텍스트-음악 AI 도구를 공개한다

Meta unveils new text-to-music AI tool to compete with Google

인공지능은 천천히 음악 산업에 침투하고 있으며, 바이럴한 노래를 만들고, 죽은 가수들의 목소리를 되살려주며, 심지어 그래미 상에도 후보로 등록되기도 합니다. 메타는 새로운 AI 도구를 출시하여 음악 생성에 AI를 사용하는 것을 더욱 쉽게 만들었습니다.

또한: 최고의 AI 챗봇들 

화요일에 메타가 AudioCraft를 공개했는데, 이는 메타에 따르면 텍스트로부터 “고품질이며 현실적인” 음악을 생성할 수 있는 생성적인 AI 모델의 집합입니다.

🎵 오늘은 AudioCraft에 대한 세부 정보를 공유합니다. 이는 텍스트로부터 고품질의 오디오와 음악을 쉽게 생성할 수 있는 생성적인 AI 모델의 집합입니다.https://t.co/04XAq4rlap pic.twitter.com/JreMIBGbTF

— Meta Newsroom (@MetaNewsroom) August 2, 2023

Audiocraft는 Meta의 세 가지 생성적인 AI 모델인 MusicGen, AudioGen 및 EnCodec으로 구성되어 있습니다. MusicGen 및 AudioGen은 모두 텍스트로부터 소리를 생성하며, 하나는 음악을 생성하고 다른 하나는 특정 오디오와 효과음을 생성합니다.

HuggingFace에서 MusicGen을 방문하여 데모를 진행할 수 있습니다. 프롬프트에는 어떤 시대의 어떤 종류의 음악을 듣고 싶은지 설명할 수 있습니다. 예를 들어, 메타는 “80년대의 무거운 드럼과 신스 패드가 배경으로 사용되는 팝송”이라는 예를 공유합니다.

EnCodec은 오디오를 압축하고 입력 신호를 복원하는 신경망으로 구성된 오디오 코덱입니다. 발표에 따르면, Meta는 더 적은 아티팩트와 함께 더 높은 품질의 음악 생성이 가능한 Encodec의 가장 개선된 버전을 공개했습니다.

또한: 생성적 AI 플랫폼을 사용하여 초개인화를 달성하는 방법

또한, Meta는 사전 훈련된 AudioGen 모델을 공개하여 사용자가 개발 환경 소리와 개별 효과음(개 짖는 소리 또는 바닥이 지저귀는 소리 등)을 생성할 수 있도록 했습니다.

마지막으로, Meta는 세 개의 오픈 소스 모델에 대한 가중치와 코드를 공개하여 연구원과 실무자들이 다른 모델을 훈련하는 데 활용할 수 있도록 했습니다.

Meta는 발표에서 AudioCraft가 시네사이저와 같은 새로운 유형의 표준 악기가 될 수 있는 잠재력이 있다고 언급했습니다.

또한: 생성적 AI 허프와 현실의 차이점을 감지하는 4가지 방법

“더 많은 컨트롤을 제공하는 것으로 보아, 우리는 MusicGen이 처음 등장한 시절의 시네사이저와 같은 새로운 유형의 악기가 될 수 있다고 생각합니다,”라고 메타는 말했습니다.

이는 이러한 유형의 첫 번째 생성적인 AI 모델이 아닙니다. 구글은 1월에 MusicLM을 출시했는데, 이는 텍스트를 음악으로 변환할 수 있는 자체 모델입니다. 최근의 연구 논문에 따르면, 구글은 또한 인간의 뇌 활동으로부터 음악을 재구성하기 위해 AI를 사용하고 있습니다.