AI and Politics: How Will We Know What—and Who—Is Real?
https://thewalrus.ca/ai-and-politics-how-will-we-know-what-and-who-is-real/
If we’re lucky, new technologies will only cause brief confusion. If we’re not, our political sphere could be changed forever
BY COLIN HORGAN
ILLUSTRATION BY JARRED BRIGGS
Updated 8:35, Apr. 27, 2023 | Published 6:30, Apr. 27, 2023
지난 1월, 중도 성향의 주정부 정당인 앨버타당은 공식 인스타그램 계정에 한 동영상을 게시했습니다. 현재는 삭제되었지만 트위터 피드에서 여전히 볼 수 있는 이 영상에는 파란색 스웨터를 입은 남성이 캘거리의 스카이라인을 배경으로 카메라를 응시하는 모습이 담겨 있었습니다. 하지만 뭔가 이상했습니다. "앨버타에 제3의 정당이 필요한가? 그것은 현재의 선택에 만족하는지 여부에 달려 있습니다."라고 그는 단호하게 말하면서 선거일에 앨버타 주민들에게 "다른 선택"을 모색할 것을 제안했습니다. 그의 입에서는 모음이 제대로 나오지 않았다. 그의 얼굴은 이상하게도 움직이지 않았습니다. 그리고 그의 목소리도 완전히 사람처럼 들리지 않았습니다.
왜냐하면 그렇지 않았기 때문입니다. 이 동영상은 인공지능이 생성한 것이었습니다. 이후 삭제된 게시물에서 앨버타당은 "얼굴은 인공지능이지만 말은 실제 사람이 쓴 것"이라고 해명했습니다. 코미디언이 목소리를 연기한 파란색 애니메이션 곰 왈도가 영국 보궐선거에 반체제 후보로 출마하는 인기 테크노 디스토피아 시리즈 '블랙 미러'의 한 장면과 다를 바 없는 불안한 에피소드였습니다.
토머스 제퍼슨은 1789년 겨울에 "국민에게 정보가 잘 주어지면, 어디에서든 정부를 신뢰할 수 있다"고 썼습니다. 다시 말해, 민주주의에서 정보는 사람들에게 선택권을 부여하고 선택권을 가지면 목소리를 낼 수 있습니다(being informed grants people agency, and having agency gives us a voice). AI는 민주주의에 대한 이해의 중심에 수백 년 동안 내재된 이 두 가지 중요한 가정에 도전할 수 있는 잠재력을 가지고 있습니다. 정치에서 가장 크고 영향력 있는 목소리가 컴퓨터가 만들어낸 목소리라면 어떤 일이 벌어질까요? 그리고 그 컴퓨터가 만든 목소리가 사람처럼 보이고 들리면 어떻게 될까요? 운이 좋다면 인공지능이 생성하거나 인공지능이 조작한 오디오와 비디오는 정치 영역에서 잠깐의 혼란을 야기할 뿐입니다. 그렇지 않다면 정치와 사회를 영구적으로 뒤흔들 위험이 있습니다.
우리의 운명은 우리가 보고 있는 것에 대한 친숙함에 달려 있습니다. 봇을 예로 들어보겠습니다. 이러한 자동화 또는 반자동 프로그램은 AI를 기반으로 하며, 소셜 미디어 플랫폼에는 이미 봇이 넘쳐나고 있습니다. 봇은 팔로워 수를 조작하고, 고객 문의에 자동 응답하고, 뉴스 속보를 제공하는 데 주로 사용됩니다. 더 우려스러운 것은 이러한 봇이 공개 토론에 영향을 미치거나 경우에 따라 사람들을 괴롭히기 위한 캠페인에도 사용된다는 것입니다. 하지만 이러한 종류의 봇은 여전히 텍스트 기반입니다. 앨버타 당이 만든 봇과 다른 사람들이 만든 봇은 많이 다릅니다. 우리가 보고 듣는 것에 도전합니다.
2018년 배우이자 감독인 조던 필은 자신의 목소리를 디지털 방식으로 변경한 후 버락 오바마 전 대통령의 조작된 동영상에 접목하여 전 미국 대통령이 실제로 필의 대본대로 말하는 것처럼 보이도록 했습니다. 이러한 종류의 동영상은 제너레이티브 AI로 제작되며 "딥페이크"라고 불립니다. 필은 2020년 미국 대선을 포함하여 향후 정교한 허위 정보 캠페인이 발생할 가능성에 대한 경고로 제작되었습니다. 그러나 그 선거는 인공지능으로 인한 큰 혼란 없이 지나갔습니다. 대신 "선택적 편집이나 노골적인 거짓말과 같은 단순한 속임수는 잘 먹혔습니다."라고 그해 NPR은 딥페이크의 부재를 설명하기 위해 결론을 내렸습니다.
하지만 당시에는 기술적, 비용적 한계가 있었습니다. 한 전문가는 방송사에 "앱 하나만 다운로드하면 대본 같은 것을 제공하고 딥페이크 형식을 만들어서 [개인이] 이렇게 말하도록 할 수 있는 것은 아닙니다."라고 말했습니다. "아마도 앞으로 몇 년 안에 그 시점에 도달하게 될 것이며, 그러면 매력적인 조작을 만드는 것이 매우 쉬워질 것입니다."
우리는 지금 거기에 있습니다.
지난 2월, 한 인스타그램 계정에 조 바이든 대통령이 트랜스젠더 여성에 대해 모욕적인 발언을 하는 것으로 추정되는 동영상이 게시되었습니다. 이 오디오는 실제 목소리를 모방하는 AI 프로그램을 사용하여 생성된 것이었습니다. 이 동영상은 소셜 미디어에서 '변조된 동영상'으로 신고되었지만, 일부 우파 미국 언론 매체에 의해 다시 게시되어 주목을 받았습니다. 심지어 바이든의 지지자들도 그의 목소리를 조작하는 데 동참했습니다. 오바마 행정부 시절 백악관 참모였던 팟 세이브 아메리카의 공동 진행자 토미 비에토르는 최근 에피소드에서 바이든처럼 들리는 영상을 재생하기 전에 "주말에 매우 중요한 친구를 만났다"고 말했습니다. 비에토르는 이 클립을 제작하기 위해 elevenlabs.com에서 5달러를 지불했다고 재빨리 인정했습니다.
앨버타 당이 게시한 것(전적으로 컴퓨터로 만든 사람)과 현직 대통령처럼 실제 사람의 시청각적 표현을 합성한 딥페이크 사이에는 중요한 차이가 있습니다. 그럼에도 불구하고 사람들은 혼란스러워하는 등 두 가지에 대한 반응은 비슷합니다. 그 이유 중 하나는 낯설기 때문입니다. 오타와 대학교의 정치, 커뮤니케이션 및 기술 연구 위원장이자 부교수인 엘리자베스 더부아이는 "중요한 것 중 하나는 대중의 관점에서 디지털 리터러시입니다."라고 말합니다. "이러한 혁신이 캠페인에 더 많이 포함됨에 따라 사람들은 일반적으로 무슨 일이 일어나고 있는지, 그리고 화면에 어떻게 표시되는지에 대해 잘 알게 될 것입니다. 하지만 이러한 실험이 이루어지는 초기 단계에서는 하지만 이러한 실험이 진행되는 초기 단계에서는 사람들이 무슨 일이 일어나고 있는지 제대로 이해하지 못할 가능성이 가장 높습니다.“
하지만 조작을 당하는 미디어도 중요합니다. 캐나다 요크대학교의 사회적 추론 연구 위원장인 레지나 리니는 비디오와 오디오를 조작함으로써 객관적 진실과의 관계에 대한 사회적 기대치를 뒤엎는다고 말합니다. 기술적으로 봇은 구두 또는 텍스트를 사용하여 말을 합니다. 리니는 일반적으로 구두 또는 서면 진술이 사실이 아니거나 실수 또는 기만적일 수 있다는 것을 선천적으로 이해하고 있지만, 시청각 미디어의 경우 회의적인 경향이 덜하다고 말합니다. "기존 사진을 위조할 수 있다는 것은 누구나 알고 있습니다. . . . 동영상도 조작이 가능하다는 것을 알고 있습니다."라고 리니는 말합니다. "하지만 오디오 및 비디오 녹화에 대한 기본 회의론의 정도는 훨씬 낮았습니다." 제너레이티브 AI가 이를 바꾸고 있습니다.
우리가 텍스트 기반 봇에 익숙해졌듯이, 일상적인 담론에 AI로 조작된 비디오와 오디오가 점진적으로 도입되면 일반 대중이 이에 적응할 가능성이 있습니다. 반면에 우리가 준비되기도 전에 많은 사람들이 비디오나 오디오 클립의 진위 여부를 평가해야 한다면 모든 것이 엉망이 될 수 있습니다. 리니는 악몽 같은 시나리오를 예로 들며, 조 바이든과 블라디미르 푸틴의 가짜 대화처럼 지정학적으로 중대한 영향을 미치는 기만적인 동영상이 퍼져나가는 경우, 즉 "전쟁을 일으킬 수 있는 그런 것"을 예로 들었습니다. 하지만 이러한 가짜 뉴스는 천천히 흘러가더라도 우리가 공유하는 현실의 토대를 약화시킬 수 있습니다. "저를 두렵게 하는 것은 우리가 그들에게 속지 않거나 우리 대부분이 속지 않지만 시간이 지남에 따라 계속해서 하나씩 튀어나온다는 것입니다. 그리고 우리는 최신 미디어 사례를 믿을지 말지를 놓고 끊임없이 싸우고 있습니다."라고 리니는 말합니다. "시간이 지남에 따라 수많은 작은 사례와 일부 큰 사례가 누적되면 결국에는 미디어 전반을 더 이상 신뢰하지 않게 되는 지경에 이르게 됩니다."
이것이 터무니없다고 생각하신다면 정치권 밖의 예를 생각해 보세요. 지난 3월, '카바 바바 레이브'라는 이름의 비디오 클립이 트위터에 유포되었고, 이는 TikTok의 Libs와 같은 우파 계정에 의해 증폭되었습니다. 카바 바바 레이브는 영국에 기반을 둔 드래그 카바레입니다. 이 바이럴 영상은 여장남자와 논바이너리 출연자들이 어린 자녀를 둔 부모를 위해 공연을 펼치는 이벤트를 보여주었습니다. 카바 바바 레이브는 "아기를 위한 감각적인 순간과 함께 부모를 위해 고안된 카바레 쇼"라고 소개했습니다. 이 영상은 내용뿐만 아니라 영상이 조작되었다는 주장까지 더해져 큰 파장을 일으켰습니다. 곧이어 누군가가 이념적 주장을 하기 위해 영상을 조작한 것이 아니냐는 하위 담론이 형성되었습니다. 하지만 카바바 레이브가 확인한 것처럼 이 동영상은 진짜였습니다. 그럼에도 불구하고 일부 사용자는 여전히 이 영상을 믿지 않았습니다.
소셜 미디어 사용자가 동영상이 딥페이크이거나 조작된 것이라고 확신하지 않더라도, 현재 가장 무난한 클립에 대한 조사 수준, 특히 TikTok의 조사 수준을 보면 동영상과 오디오의 진실성에 대한 논쟁에 대한 욕구가 끝이 없음을 알 수 있습니다. 다시 말해, 인터넷은 리니가 경고한 바로 그 종류의 싸움, 즉 끝없는 메타 회의론과의 전쟁을 앞두고 있습니다.
현실의 틀이 우리의 이해를 넘어서 왜곡되는 지점에 도달할 수 있는 또 다른, 덜 알려진 방법이 있습니다. AI는 온라인에서 공론의 장의 조건을 변화시키지만, 눈에 잘 띄지 않는 방식으로도 활용될 것입니다.
소셜 미디어를 포함한 공론의 장은 이미 봇이 생성한 메시지로 넘쳐나고 있지만, AI는 잠재적으로 더 효과적이면서도 성가신 시나리오를 제공할 수 있습니다. 다음은 하버드대학교 버크만 클라인 센터의 데이터 과학자 네이선 샌더스(Nathan E. Sanders)와 하버드 케네디 스쿨의 보안 기술자인 브루스 슈나이더(Bruce Schneier)가 2월에 발표한 연구 결과의 개요입니다. 정치 행위자(자금력이 풍부한 로비 회사라고 가정해 보겠습니다.)가 직위, 연공서열, 직급, 과거 투표 동향, 성명서 또는 기타 여러 요인을 기반으로 의원 네트워크를 그래프로 표시하도록 설계된 머신러닝 프로그램을 만들어 로비 활동을 주어진 입법 전략에서 가장 영향력이 있을 것으로 예상되는 정치인에게 집중할 수 있도록 합니다.
비에토르가 팟캐스트에서 소개한 도구는 훨씬 더 기발한 가능성을 제시합니다. 예측 머신러닝 모델을 정치인 사무실에 전화를 걸어 자동화된 합성 음성을 사용하여 해당 법안에 대한 대화를 진행할 수 있는 시스템에 적용하는 것입니다. 그리고 그 목소리는 그 지역의 유권자와 매우 유사하게 들릴 수도 있습니다. 아니면 총리의 목소리일 수도 있습니다.
"이렇게 편향되고 정치 과정을 왜곡하는 것을 어떻게 막을 수 있을까요?" 샌더스는 대화 도중 이렇게 물었습니다. "그 체제에 대한 우리의 근본적인 권고는 사람들이 더 쉽게 참여할 수 있도록 하는 것입니다. . . . 실제 사람들이 자신의 목소리를 더 쉽게 낼 수 있도록 하는 것입니다." 샌더스는 일부 사람들이 자신의 언어에서 대표자의 언어로 메시지를 번역하여 대표자와 더 쉽게 연락할 수 있도록 해주는 Google 번역과 같은 도구를 포함하여 일부 AI 도구가 이미 그렇게 하고 있다고 지적했습니다.
분명한 것은 기술이 정치에 낯선 존재가 아니라는 것입니다. "새로운 기술이 등장하면 사람들은 정치를 더 좋고, 더 효과적이고, 더 저렴하게 만들 수 있는 방법이 있는지 알아내려고 노력할 것입니다."라고 Dubois는 말합니다. 샌더스도 이에 동의하며, 개인화된 메시지를 대량으로 전송하는 방법인 메일 병합과 같은 기존 도구는 정당과 후보자들이 수년 동안 사용해 온 방법이라고 지적합니다. "AI 도구를 사용하여 사용자에 대한 서너 가지 사실을 취한 다음 더 개인화된 메시지를 생성하려고 하는 것과 크게 다르지 않다고 생각합니다."
캐나다에서는 선거 운동 중 AI 사용을 규제하는 규정이 선거법에 구체적으로 명시되어 있지 않습니다. 그러나 캐나다 선거관리위원회에는 오해를 불러일으킬 의도로 사칭 또는 허위 표현을 금지하는 규정이 있습니다. "또한 '오해를 불러일으킬 수 있는 출판물'도 금지되는데, 이는 선거관리책임자, 선거관리위원 또는 정치 후보자가 보낸 것으로 주장하는 '형식에 관계없이 모든 자료'를 의미합니다. 캐나다 선거관리국은 사칭 또는 오해의 소지가 있는 게시와 관련된 경우를 제외하고는 "딥페이크, 가짜 이미지 및 동영상을 적극적으로 찾지 않는다"고 이메일을 통해 밝혔습니다.
하지만 캐나다 선거관리국은 선거 기간에만 관심을 두고 있습니다. 그 외의 모든 사항은 정부 법률이 적용됩니다. 그러나 의회를 통과 중인 캐나다의 새로운 AI 법안에는 정치적 목적의 AI 사용에 대한 언급이 없는 것으로 보이며, 이에 대한 설명을 요청하는 이메일을 혁신, 과학 및 산업부 장관실에 보냈지만 답변을 받지 못했습니다.
비엔나 대학교의 미디어 및 기술 철학 교수인 마크 코켈버그는 AI가 일반적인 설득을 더 부정적인 것으로 만드는 데 도움이 될 수 있다고 말합니다. 그는 정치인들은 당연히 우리에게 영향을 미치려고 하지만, "이러한 많은 기술의 문제점은 논증과 정보에 의한 설득보다는 조작적인 측면이 더 강하다는 것"이라고 말합니다. "당신이 하는 일은 사람들을 자율적이고 계몽된 주체로 대하는 것이 아니라 실험용 쥐나 데이터를 가져와 조작할 수 있는 모든 종류의 대상처럼 대하는 것입니다."
이러한 조작이 실제로 어디까지 가능할까요? 정치인과 정치 후보자들은 이미 유권자들에게 거짓말을 할 수 있습니다. 최근의 유명한 사례 중 하나로, 공화당 소속 조지 산토스 의원은 미국 하원의원 선거에 출마해 당선된 자신의 이력서가 학력과 경력을 포함해 조작된 내용으로 가득 차 있음을 시인했습니다. 실제 사람도 유권자를 그렇게 쉽게 속일 수 있다면, 조작된 사람도 그렇게 할 수 있을까요?
작년에 예술가 집단과 기술 조직이 설립한 덴마크 정당인 신데틱 파티(the Synthetic Party)는 리더 라스(Leader Lars)라는 이름의 AI 채팅 봇이 이끄는 후보를 출마시켜 주목을 끌었습니다. 캐나다에서 실제 AI가 생성한 후보를 선거에 출마시키려면 어느 정도의 사기가 필요할 것입니다. 그러나 신원 확인(허용되는 서류 목록이 길고 모두 사진이 필요한 것은 아님)과 거주자의 150명 추천 서명이라는 가장 까다로운 장벽은 극복하기 어렵지 않습니다. 캠페인은 소셜 미디어를 통해 이루어집니다. 토론회는 실제 후보자들과 마찬가지로 무시될 수 있습니다. 이런 상황에서 인공지능으로 생성된 후보가 사람들이 가짜라는 사실을 모르게 투표하도록 설득할 수 있을까요?
샌더스는 완전한 인공지능 후보가 경선을 통과할 것이라고 생각하지 않습니다. 그는 "일반적으로는 불가능할 것이라고 생각합니다."라고 말하며, 우리 사회가 이런 일이 일어나기 전에 미리 알아차릴 수 있을 것이라고 지적합니다. 두보아는 조 바이든의 가짜 영상과 같은 패러디 콘텐츠가 실제 후보의 커뮤니케이션으로 오인될 가능성이 높은 시나리오를 제시합니다. "사람들이 빠르게 스크롤할 때 가끔 혼란스러워하고, 라벨을 알아채지 못하고, 정말 재미있다고 생각하기 때문에 어쨌든 공유하게 된다는 것을 알고 있습니다."라고 그녀는 말합니다. "그리고 그들이 공유를 했기 때문에 다른 사람에게 신뢰할 수 있는 출처가 되고, 또 다른 누군가가 그것을 보게 됩니다. 그런 종류의 연쇄 반응을 상상할 수 있습니다."
리니는 "누군가 스턴트처럼 이 방법을 시도할 것이라고 생각합니다."라고 말하며, 유권자들이 직접 행사에 참석할 가능성이 적은 시골 지역과 같이 지역에 따라 성공 여부가 달라질 수 있다고 덧붙였습니다. 또는 적절한 기회와 파티를 찾는 것일 수도 있습니다. "미국에서 경쟁이 극도로 치열하지 않은 하원 의석을 목표로 삼았다면. 그리고 어떤 이유로든 예비선거에서 치열한 경합이 벌어지지 않았다면, [이를] 성공하는 것이 어렵지 않을 수 있습니다." 이중 언어를 사용하는 캐나다의 정치 환경은 후보를 조작하는 것이 아니라 영어권 후보를 프랑스어에 유창하게 만드는 딥페이크와 같은 다른 종류의 기회를 제공할 수 있습니다. 코켈버그는 인공지능이 만들어낸 후보의 가능성에 대해 더욱 확신합니다. "물론이죠. 그렇게 될 겁니다."
사실, 굳이 숨길 필요조차 없을지도 모릅니다. 블랙 미러의 '왈도 모멘트'의 3분의 2 정도에서 TV 임원인 잭은 만화 곰의 인간 제작자이자 목소리인 제이미와 왈도의 후보로서의 정당성에 대해 논쟁을 벌입니다. "왈도는 진짜가 아니에요!" 제이미가 말합니다. "맞아요. 그는 진짜는 아니지만 다른 모든 후보들보다 더 진짜 같아요."라고 잭이 대답합니다. "그는 아무것도 옹호하지 않아요." 제이미가 말합니다. "적어도 그런 척은 안 하잖아요!" 잭이 말합니다.
우리 모두 잭의 편에 서서 더 이상 정치적 신념에 대해 논쟁하지 않고, 믿기는커녕 믿을 수 있는 것조차도 믿지 않게 될 가능성이 있습니다. 현실에 대한 논쟁보다 이런 논쟁을 더 선호하게 될 가능성도 있습니다. 어쨌든 이 토론이 더 흥미로울 수도 있습니다.
'인공지능이야기' 카테고리의 다른 글
지능 없는 행위자로서의 AI: ChatGPT, 대규모 언어 모델 및 기타 생성 모델 (0) | 2023.05.12 |
---|---|
플로리디, GPT‑3: 특성, 범위, 한계 및 결과 (1) | 2023.05.12 |
ChatGPT와 생성인공지능의 호황과 매우 비싼 가격 (1) | 2023.05.12 |
인공지능 이야기 (0) | 2023.05.12 |