![퀘이사존](https://img2.quasarzone.com/editor/2024/05/31/a82300f37ae065401dde86d12aa66e9f.jpg)
메타는 지난 분기 동안 조직적인 부정 행위 방지 정책을 위반한 약 2,000개의 Facebook 계정을 확인했습니다. 이러한 계정은 대부분 가짜 정치 메시지를 게시하고 선전을 퍼뜨리는 캠페인에 영향을 미치는 계정으로 구성되었으며, 이러한 계정의 출처가 가장 많이 확인된 국가는 이스라엘이었습니다.
메타의 분기별 적대적 위협 보고서에는 방글라데시, 중국, 크로아티아, 이란, 이스라엘, 몰도바와 마다가스카르를 표적으로 삼은 CIB 네트워크 등 6개의 새로운 비밀 영향력 작전에 대한 연구 결과가 포함되어 있습니다.
메타가 출처를 알 수 없는 1,326개의 Facebook 계정을 삭제한 가운데, 가장 많은 계정이 삭제된 국가는 이스라엘로 510개의 페이스북 계정, 11개의 페이지, 1개의 그룹, 32개의 인스타그램 계정이 삭제되었습니다.
공격 대상은 주로 미국과 캐나다에 거주하는 사람들이었습니다. 유대인 학생, 아프리카계 미국인 또는 '우려하는 시민'을 사칭한 가짜 계정은 주로 이스라엘-하마스 전쟁에 대한 게시물을 올렸으며, 인질 석방 촉구, 이스라엘의 군사 행동에 대한 찬양, 캠퍼스 반유대주의, 유엔 구호 사업국(UNRWA), 무슬림에 대한 비판 등 '급진 이슬람'이 캐나다의 자유주의 가치에 위협이 된다고 주장하는 내용을 올렸습니다.
메타는 계정 운영자가 신분을 숨기려 했지만 이스라엘 텔아비브에 본사를 둔 정치 마케팅 및 비즈니스 인텔리전스 회사인 스토익과의 연관성을 발견했다고 밝혔습니다. 메타는 해당 그룹을 금지하고 활동 중지 명령을 내렸습니다.
스토익의 웹사이트에는 “타겟팅된 콘텐츠를 생성하고 관련 플랫폼에 유기적으로 신속하게 배포”하기 위해 생성형 AI를 사용한다고 명시되어 있습니다. YouTube와 X에서 유사한 게시물이 발견되었는데, 대부분은 다른 사용자의 관련 없는 콘텐츠에 대해 AI가 생성한 응답이었습니다.
메타는 “이 캠페인은 베트남에서 콘텐츠가 실제보다 더 인기 있는 것처럼 보이게 하기 위해 가짜 참여(예: 좋아요 및 팔로워)를 구매한 것으로 보입니다.”라고 설명합니다.
![퀘이사존](https://img2.quasarzone.com/editor/2024/05/31/ba631a052672c7ff9a8e949715967b3c.jpg)
이 캠페인에서 생성 AI가 사용되었지만, 메타는 위협 행위자들이 정치인의 실사 같은 AI 생성 미디어를 더 광범위한 추세로 사용하는 것을 보지 못했다고 말합니다. 지금까지 이 기술은 사진 및 이미지 생성, AI 생성 동영상 뉴스 리더, 텍스트 생성에 국한되어 사용되었습니다.
메타의 위협 중단 정책 책임자인 데이비드 아그라노비치는 “현재로서는 세대 AI가 매우 정교한 방식으로 사용되고 있지는 않습니다.”라고 말합니다.
메타가 일부 인증되지 않은 계정(37개)의 출처로 확인한 또 다른 국가는 중국입니다. 메타가 삭제한 게시된 콘텐츠 중 다가오는 미국 선거와 관련된 것은 없었지만, 지난달 Microsoft는 아시아 국가의 위협 행위자들이 이번 선거 기간 동안 미국에서 혼란을 일으키기 위해 생성 AI를 사용하고 있다고 경고한 바 있습니다.
※ 퀘이사존 공식 기사가 아닌 해외 뉴스/기사를 번역한 것으로, 퀘이사존 견해와 주관은 포함되어 있지 않습니다. |