키 입력을 듣고 데이터를 도난하는 새로운 AI 공격이 있습니다

새로운 AI 공격 키 입력 도난

영국의 한 연구팀은 오디오만을 기반으로 원격으로 키보드 입력을 해석하는 딥러닝 모델을 훈련시켰습니다.

모델을 훈련시키기 위해 키보드 입력을 기록함으로써, 그들은 키보드에 입력된 내용을 95%의 정확도로 예측할 수 있었습니다. 이 정확도는 Zoom을 사용하여 시스템을 훈련시킬 때 93%로 감소했습니다.

이 연구에 따르면, 이는 비밀번호와 메시지와 같은 민감한 정보가 노트북을 타이핑하는 사람의 주변에 있는 누구든지 해석할 수 있다는 것을 의미합니다. 이는 직접적으로 기록하거나 비디오 통화를 통해 가상으로 기록함으로써 가능합니다.

이러한 일종의 음향 사이드 채널 공격은 최근 스마트폰과 같은 고음질 오디오를 캡처할 수 있는 마이크를 탑재한 장치들이 풍부해지면서 훨씬 간단해졌습니다.

기계학습의 급속한 발전과 결합되면서 이러한 유형의 공격은 이전에 생각했던 것보다 훨씬 실현 가능하고 더욱 위험해졌습니다. 사실, 마이크와 기계학습 알고리즘만 있으면 민감한 정보를 해킹할 수 있습니다.

“키보드 음향 방출의 보편성은 이들을 쉽게 이용할 수 있는 공격 벡터일 뿐만 아니라 피해자들이 자신들의 출력을 과소평가하도록 유도합니다,” 연구진은 말했습니다. “예를 들어, 비밀번호를 입력할 때 사람들은 화면은 자주 가리지만 키보드 소리를 낮출 방법은 거의 사용하지 않습니다.”

팀은 MacBook Pro를 사용하여 이 테스트를 수행했습니다. 그들은 개별 키를 25번씩 눌렀습니다. 이것은 기계학습 모델이 어떤 문자가 어떤 키보드 소리에 연관되는지 인식하는 기반으로 사용되었습니다.

이 정보는 노트북과 가까운 거리에 있는 전화기와 Zoom을 통해 기록되었습니다. 기록에 의해 생성된 파형의 미묘한 차이가 있어 각 키를 놀라운 정확도로 인식할 수 있었습니다.

키보드 입력을 해킹하는 것을 방지하기 위해 연구진은 타이핑 스타일 변경, 단어 전체가 포함된 비밀번호 대신 무작위로 생성된 비밀번호 사용, 음성 통화 기반 공격을 위해 무작위로 생성된 가짜 키보드 입력 추가, 지문이나 얼굴 스캐닝과 같은 생체 인식 도구 사용을 권장합니다.