의견 표명자 기업가 공헌자는 자신입니다.

기술 향상은 비즈니스와 우리 사회를 크게 발전시킵니다. 그러나 진보는 대처하기 어려운 새로운 위험을 초래합니다. 인공지능(AI)은 신흥 기술의 최전선에 있습니다. 이전보다 많은 응용 프로그램에 채택되었습니다.

사무 작업 자동화에서 숨겨진 비즈니스 드라이버 식별에 이르기까지 AI는 엄청난 비즈니스 가능성이 있습니다. 그러나 악의적인 AI를 사용하면 기업에 손상을 입히고 신뢰성을 크게 손상시킬 수 있습니다.

FBI는 최근에, 악의적인 액터가 깊은 가짜를 사용하여 미국 기업에 있는 채용 면접 대상자가 되게 했습니다 원격 업무의 채용에 기인한 증가 동향을 강조했습니다. 이 공격자는 회사 시스템에 액세스하기 위해 미국 시민의 ID를 훔쳤습니다. 기업 스파이 활동과 보안에 미치는 영향은 헤아릴 수 없습니다.

깊은 가짜를 지원하는 기술이 그 어느 때보 다 더 강력 해지고 있음에도 불구하고, 기업은 깊은 가짜의 사용 증가에 어떻게 대응할 수 있습니까? 소개합니다.

관련: 성공적인 사이버 보안 기업은 화려한 기술이 아닙니다.

진실성 확인

기본으로 돌아가는 것은 고급 기술과 싸울 때 가장 효과적입니다. 깊은 가짜는 사진 및 ID 정보와 같은 개인 식별 정보를 훔치고 AI 엔진을 사용하여 디지털 초상화를 작성하여 만들어집니다. 흔히 악의적인 공격자는 기존 비디오, 오디오 및 그래픽을 사용하여 피해자의 버릇과 말하는 방법을 모방합니다.

최근의 경우에는 악의적인 액터가 이 기술을 극단적으로 사용하고 있다는 점이 부각되었습니다. 일련의 유럽 정치 지도자는 키예프 시장의 비탈리 클리치코와 대화했다고 믿었지만 깊은 가짜와 상호 작용했다는 사실을 알게되었습니다.

베를린 시장의 사무실은 우크라이나 대사관에 전화하여 클리치코가 다른 곳에서 종사했다는 것을 밝힌 후 궁극적으로 책략을 발견했습니다. 기업은 이 사건의 교훈을 연구하는 것이 좋습니다. 본인 확인과 겉보기 간단한 체크로, 딥 페이크의 사용이 밝혀질 가능성이 있습니다.

기업은 원격 오픈 포지션 후보자와 인터뷰 할 때 깊은 가짜가 발생할 위험에 직면합니다. 최근 기업이 우수한 인재를 채택하고 싶다면 원격 작업 기준을 되돌리는 것은 현실적이지 않습니다. 그러나 후보자에게 공공 신분증을 제시하고 비디오 인터뷰를 녹화하고 신입 사원에게 채용 직후 최소한 한 번은 회사 사이트를 방문하도록 요청하여 깊은 가짜 액터를 채택 할 위험 을 줄일 수 있습니다.

이러한 방법은 깊은 가짜의 위험을 막을 수 없지만, 함께 배포하면 악의적인 액터가 기업 비밀에 액세스할 가능성이 낮습니다. 이중 인증은 시스템에 대한 악의적인 액세스를 방지하기 위해 이러한 아날로그 방법은 깊은 가짜 사용을 방해할 수 있습니다.

다른 유사한 방법은 사진과 신원을 포함한 신청자의 참조를 확인하는 것을 포함합니다. 예를 들어 신청자의 사진을 당국에 제출하고 해당 사람을 알고 있는지 확인하도록 요청합니다. 공식 또는 비즈니스 도메인에서 그들과 관련하여 참조 자격 증명을 확인합니다.

불로 불과 싸우다

깊은 가짜 기술은 딥 러닝 (DL) 알고리즘을 활용하여 사람의 행동과 버릇을 모방합니다. 결과는 무서운 일이 될 수 있습니다. AI는 단순한 데이터 포인트만을 제공하므로 우리의 동영상과 겉보기 현실적인 비디오를 만들 수 있습니다.

아날로그 기술은 깊은 가짜에 대항 할 수 있지만 시간이 많이 걸립니다. 깊은 가짜를 신속하게 감지하는 한 가지 해결책은 깊은 가짜 자체에 기술을 사용하는 것입니다. DL 알고리즘이 깊은 가짜를 만들 수 있다면 딥 가짜를 확인해 보시겠습니까?

2020년 스탠포드 대학의 Maneesh Agrawala는 영화 제작자가 카메라에서 비디오 대상 문장에 단어를 삽입할 수 있는 솔루션을 만들었습니다. 육안으로는 아무런 문제가 없었습니다. 영화 제작자는 오디오나 대사의 문제로 인해 장면을 다시 찍을 필요가 없다는 것을 기뻐했습니다. 그러나이 기술의 부정적인 영향은 헤아릴 수 없습니다.

이 문제를 깨달은 Agrawala와 그의 팀은 입술의 움직임과 단어 발음 사이의 이상을 감지하는 또 다른 AI 기반 도구로 소프트웨어에 대응했습니다. 피사체의 목소리로 비디오에 단어를 밀어 넣는 깊은 가짜는 입술의 움직임이나 얼굴 표정을 변경할 수 없습니다.

Agrawala의 솔루션은 얼굴 인식 및 기타 표준 깊은 가짜 기법을 감지하기 위해 배포할 수도 있습니다. 모든 AI 애플리케이션과 마찬가지로 알고리즘에 제공되는 데이터에 크게 의존합니다. 그러나 이 변수조차도 깊은 가짜 기술과 싸우기 위한 솔루션 간의 연결을 밝히고 있습니다.

깊은 가짜는 여러 상황을 설명하기 위해 현실 세계의 사건에서 추측한 합성 데이터와 데이터 세트를 사용합니다. 예를 들어, 인공 데이터 알고리즘은 군사 전장의 사건에서 데이터를 처리하고 데이터를 수집하여 더 많은 사건을 만들 수 있습니다. 이러한 알고리즘은 지상 상태, 참가자 준비 변수, 무기 상태 등을 변경하고 시뮬레이션에 입력할 수 있습니다.

기업은 이러한 종류의 합성 데이터를 사용하여 깊은 가짜 사용 사례를 해결할 수 있습니다. 현재 애플리케이션에서 데이터를 추측함으로써 AI는 에지 유스 케이스를 예측하고 감지하고 딥 페이크가 어떻게 진화하는지 이해할 수 있습니다.

관련 : 비즈니스 리더를위한 사이버 보안 초보자 가이드

디지털 트랜스포메이션과 교육 가속

깊은 가짜에 대항하는 기술은 정교한 특성을 가지고 있지만, 아그라와라는 깊은 가짜에 대한 장기적인 해결책이 없다고 경고합니다. 이것은 표면에 비참한 메시지입니다. 그러나 기업은 디지털화 노력을 가속화하고 모범 사례에 대해 직원을 교육하여 깊은 가짜와 싸울 수 있습니다.

예를 들어, 깊은 가짜 인식은 직원이 정보를 분석하고 이해하는 데 도움이 됩니다. 괴상하거나 균형이 잡히지 않은 것처럼 보이는 정보로 유통되는 자료는 즉시 호출될 수 있습니다. 기업은 원격 작업 상황에서 신원을 확인하는 프로세스를 개발하고 깊은 가짜 위협 덕분에 직원이 그를 따르도록 보장 할 수 있습니다.

다시 말하지만, 이러한 방법만으로는 깊은 가짜의 위험에 대항할 수 없습니다. 그러나 앞서 언급한 모든 기술을 통해 기업은 깊은 가짜 위협을 최소화하는 강력한 프레임워크를 채택할 수 있습니다.

혁신적인 솔루션을 위한 고급 기술 호출

깊은 가짜 위협에 대한 궁극적인 해결책은 기술의 진보에 있습니다. 아이러니하게도, 깊은 가짜에 대한 대답은 깊은 가짜를 지원하는 기술에 있습니다. 미래는 확실히 이 위협에 대항하는 새로운 방법을 드러낼 것이다. 반면에 기업은 깊은 가짜가 초래하는 위험을 항상 인식하고 위험을 완화하기 위해 노력해야 합니다.

관련: 교육의 중요성: 인간의 방화벽과 같은 사이버 보안 의식

Leave a Reply

Your email address will not be published.