AI and Politics: How Will We Know Whatand WhoIs Real?

 

https://thewalrus.ca/ai-and-politics-how-will-we-know-what-and-who-is-real/

 

If we’re lucky, new technologies will only cause brief confusion. If we’re not, our political sphere could be changed forever

BY COLIN HORGAN

ILLUSTRATION BY JARRED BRIGGS

Updated 8:35, Apr. 27, 2023 | Published 6:30, Apr. 27, 2023

 

지난 1, 중도 성향의 주정부 정당인 앨버타당은 공식 인스타그램 계정에 한 동영상을 게시했습니다. 현재는 삭제되었지만 트위터 피드에서 여전히 볼 수 있는 이 영상에는 파란색 스웨터를 입은 남성이 캘거리의 스카이라인을 배경으로 카메라를 응시하는 모습이 담겨 있었습니다. 하지만 뭔가 이상했습니다. "앨버타에 제3의 정당이 필요한가? 그것은 현재의 선택에 만족하는지 여부에 달려 있습니다."라고 그는 단호하게 말하면서 선거일에 앨버타 주민들에게 "다른 선택"을 모색할 것을 제안했습니다. 그의 입에서는 모음이 제대로 나오지 않았다. 그의 얼굴은 이상하게도 움직이지 않았습니다. 그리고 그의 목소리도 완전히 사람처럼 들리지 않았습니다.

왜냐하면 그렇지 않았기 때문입니다. 이 동영상은 인공지능이 생성한 것이었습니다. 이후 삭제된 게시물에서 앨버타당은 "얼굴은 인공지능이지만 말은 실제 사람이 쓴 것"이라고 해명했습니다. 코미디언이 목소리를 연기한 파란색 애니메이션 곰 왈도가 영국 보궐선거에 반체제 후보로 출마하는 인기 테크노 디스토피아 시리즈 '블랙 미러'의 한 장면과 다를 바 없는 불안한 에피소드였습니다.

토머스 제퍼슨은 1789년 겨울에 "국민에게 정보가 잘 주어지면, 어디에서든 정부를 신뢰할 수 있다"고 썼습니다. 다시 말해, 민주주의에서 정보는 사람들에게 선택권을 부여하고 선택권을 가지면 목소리를 낼 수 있습니다(being informed grants people agency, and having agency gives us a voice). AI는 민주주의에 대한 이해의 중심에 수백 년 동안 내재된 이 두 가지 중요한 가정에 도전할 수 있는 잠재력을 가지고 있습니다. 정치에서 가장 크고 영향력 있는 목소리가 컴퓨터가 만들어낸 목소리라면 어떤 일이 벌어질까요? 그리고 그 컴퓨터가 만든 목소리가 사람처럼 보이고 들리면 어떻게 될까요? 운이 좋다면 인공지능이 생성하거나 인공지능이 조작한 오디오와 비디오는 정치 영역에서 잠깐의 혼란을 야기할 뿐입니다. 그렇지 않다면 정치와 사회를 영구적으로 뒤흔들 위험이 있습니다.

우리의 운명은 우리가 보고 있는 것에 대한 친숙함에 달려 있습니다. 봇을 예로 들어보겠습니다. 이러한 자동화 또는 반자동 프로그램은 AI를 기반으로 하며, 소셜 미디어 플랫폼에는 이미 봇이 넘쳐나고 있습니다. 봇은 팔로워 수를 조작하고, 고객 문의에 자동 응답하고, 뉴스 속보를 제공하는 데 주로 사용됩니다. 더 우려스러운 것은 이러한 봇이 공개 토론에 영향을 미치거나 경우에 따라 사람들을 괴롭히기 위한 캠페인에도 사용된다는 것입니다. 하지만 이러한 종류의 봇은 여전히 텍스트 기반입니다. 앨버타 당이 만든 봇과 다른 사람들이 만든 봇은 많이 다릅니다. 우리가 보고 듣는 것에 도전합니다.

2018년 배우이자 감독인 조던 필은 자신의 목소리를 디지털 방식으로 변경한 후 버락 오바마 전 대통령의 조작된 동영상에 접목하여 전 미국 대통령이 실제로 필의 대본대로 말하는 것처럼 보이도록 했습니다. 이러한 종류의 동영상은 제너레이티브 AI로 제작되며 "딥페이크"라고 불립니다. 필은 2020년 미국 대선을 포함하여 향후 정교한 허위 정보 캠페인이 발생할 가능성에 대한 경고로 제작되었습니다. 그러나 그 선거는 인공지능으로 인한 큰 혼란 없이 지나갔습니다. 대신 "선택적 편집이나 노골적인 거짓말과 같은 단순한 속임수는 잘 먹혔습니다."라고 그해 NPR은 딥페이크의 부재를 설명하기 위해 결론을 내렸습니다.

하지만 당시에는 기술적, 비용적 한계가 있었습니다. 한 전문가는 방송사에 "앱 하나만 다운로드하면 대본 같은 것을 제공하고 딥페이크 형식을 만들어서 [개인이] 이렇게 말하도록 할 수 있는 것은 아닙니다."라고 말했습니다. "아마도 앞으로 몇 년 안에 그 시점에 도달하게 될 것이며, 그러면 매력적인 조작을 만드는 것이 매우 쉬워질 것입니다."

우리는 지금 거기에 있습니다.

지난 2, 한 인스타그램 계정에 조 바이든 대통령이 트랜스젠더 여성에 대해 모욕적인 발언을 하는 것으로 추정되는 동영상이 게시되었습니다. 이 오디오는 실제 목소리를 모방하는 AI 프로그램을 사용하여 생성된 것이었습니다. 이 동영상은 소셜 미디어에서 '변조된 동영상'으로 신고되었지만, 일부 우파 미국 언론 매체에 의해 다시 게시되어 주목을 받았습니다. 심지어 바이든의 지지자들도 그의 목소리를 조작하는 데 동참했습니다. 오바마 행정부 시절 백악관 참모였던 팟 세이브 아메리카의 공동 진행자 토미 비에토르는 최근 에피소드에서 바이든처럼 들리는 영상을 재생하기 전에 "주말에 매우 중요한 친구를 만났다"고 말했습니다. 비에토르는 이 클립을 제작하기 위해 elevenlabs.com에서 5달러를 지불했다고 재빨리 인정했습니다.

앨버타 당이 게시한 것(전적으로 컴퓨터로 만든 사람)과 현직 대통령처럼 실제 사람의 시청각적 표현을 합성한 딥페이크 사이에는 중요한 차이가 있습니다. 그럼에도 불구하고 사람들은 혼란스러워하는 등 두 가지에 대한 반응은 비슷합니다. 그 이유 중 하나는 낯설기 때문입니다. 오타와 대학교의 정치, 커뮤니케이션 및 기술 연구 위원장이자 부교수인 엘리자베스 더부아이는 "중요한 것 중 하나는 대중의 관점에서 디지털 리터러시입니다."라고 말합니다. "이러한 혁신이 캠페인에 더 많이 포함됨에 따라 사람들은 일반적으로 무슨 일이 일어나고 있는지, 그리고 화면에 어떻게 표시되는지에 대해 잘 알게 될 것입니다. 하지만 이러한 실험이 이루어지는 초기 단계에서는 하지만 이러한 실험이 진행되는 초기 단계에서는 사람들이 무슨 일이 일어나고 있는지 제대로 이해하지 못할 가능성이 가장 높습니다.

하지만 조작을 당하는 미디어도 중요합니다. 캐나다 요크대학교의 사회적 추론 연구 위원장인 레지나 리니는 비디오와 오디오를 조작함으로써 객관적 진실과의 관계에 대한 사회적 기대치를 뒤엎는다고 말합니다. 기술적으로 봇은 구두 또는 텍스트를 사용하여 말을 합니다. 리니는 일반적으로 구두 또는 서면 진술이 사실이 아니거나 실수 또는 기만적일 수 있다는 것을 선천적으로 이해하고 있지만, 시청각 미디어의 경우 회의적인 경향이 덜하다고 말합니다. "기존 사진을 위조할 수 있다는 것은 누구나 알고 있습니다.. . .동영상도 조작이 가능하다는 것을 알고 있습니다."라고 리니는 말합니다. "하지만 오디오 및 비디오 녹화에 대한 기본 회의론의 정도는 훨씬 낮았습니다." 제너레이티브 AI가 이를 바꾸고 있습니다.

우리가 텍스트 기반 봇에 익숙해졌듯이, 일상적인 담론에 AI로 조작된 비디오와 오디오가 점진적으로 도입되면 일반 대중이 이에 적응할 가능성이 있습니다. 반면에 우리가 준비되기도 전에 많은 사람들이 비디오나 오디오 클립의 진위 여부를 평가해야 한다면 모든 것이 엉망이 될 수 있습니다. 리니는 악몽 같은 시나리오를 예로 들며, 조 바이든과 블라디미르 푸틴의 가짜 대화처럼 지정학적으로 중대한 영향을 미치는 기만적인 동영상이 퍼져나가는 경우, "전쟁을 일으킬 수 있는 그런 것"을 예로 들었습니다. 하지만 이러한 가짜 뉴스는 천천히 흘러가더라도 우리가 공유하는 현실의 토대를 약화시킬 수 있습니다. "저를 두렵게 하는 것은 우리가 그들에게 속지 않거나 우리 대부분이 속지 않지만 시간이 지남에 따라 계속해서 하나씩 튀어나온다는 것입니다. 그리고 우리는 최신 미디어 사례를 믿을지 말지를 놓고 끊임없이 싸우고 있습니다."라고 리니는 말합니다. "시간이 지남에 따라 수많은 작은 사례와 일부 큰 사례가 누적되면 결국에는 미디어 전반을 더 이상 신뢰하지 않게 되는 지경에 이르게 됩니다."

이것이 터무니없다고 생각하신다면 정치권 밖의 예를 생각해 보세요. 지난 3, '카바 바바 레이브'라는 이름의 비디오 클립이 트위터에 유포되었고, 이는 TikTokLibs와 같은 우파 계정에 의해 증폭되었습니다. 카바 바바 레이브는 영국에 기반을 둔 드래그 카바레입니다. 이 바이럴 영상은 여장남자와 논바이너리 출연자들이 어린 자녀를 둔 부모를 위해 공연을 펼치는 이벤트를 보여주었습니다. 카바 바바 레이브는 "아기를 위한 감각적인 순간과 함께 부모를 위해 고안된 카바레 쇼"라고 소개했습니다. 이 영상은 내용뿐만 아니라 영상이 조작되었다는 주장까지 더해져 큰 파장을 일으켰습니다. 곧이어 누군가가 이념적 주장을 하기 위해 영상을 조작한 것이 아니냐는 하위 담론이 형성되었습니다. 하지만 카바바 레이브가 확인한 것처럼 이 동영상은 진짜였습니다. 그럼에도 불구하고 일부 사용자는 여전히 이 영상을 믿지 않았습니다.

소셜 미디어 사용자가 동영상이 딥페이크이거나 조작된 것이라고 확신하지 않더라도, 현재 가장 무난한 클립에 대한 조사 수준, 특히 TikTok의 조사 수준을 보면 동영상과 오디오의 진실성에 대한 논쟁에 대한 욕구가 끝이 없음을 알 수 있습니다. 다시 말해, 인터넷은 리니가 경고한 바로 그 종류의 싸움, 즉 끝없는 메타 회의론과의 전쟁을 앞두고 있습니다.

현실의 틀이 우리의 이해를 넘어서 왜곡되는 지점에 도달할 수 있는 또 다른, 덜 알려진 방법이 있습니다. AI는 온라인에서 공론의 장의 조건을 변화시키지만, 눈에 잘 띄지 않는 방식으로도 활용될 것입니다.

소셜 미디어를 포함한 공론의 장은 이미 봇이 생성한 메시지로 넘쳐나고 있지만, AI는 잠재적으로 더 효과적이면서도 성가신 시나리오를 제공할 수 있습니다. 다음은 하버드대학교 버크만 클라인 센터의 데이터 과학자 네이선 샌더스(Nathan E. Sanders)와 하버드 케네디 스쿨의 보안 기술자인 브루스 슈나이더(Bruce Schneier)2월에 발표한 연구 결과의 개요입니다. 정치 행위자(자금력이 풍부한 로비 회사라고 가정해 보겠습니다.)가 직위, 연공서열, 직급, 과거 투표 동향, 성명서 또는 기타 여러 요인을 기반으로 의원 네트워크를 그래프로 표시하도록 설계된 머신러닝 프로그램을 만들어 로비 활동을 주어진 입법 전략에서 가장 영향력이 있을 것으로 예상되는 정치인에게 집중할 수 있도록 합니다.

비에토르가 팟캐스트에서 소개한 도구는 훨씬 더 기발한 가능성을 제시합니다. 예측 머신러닝 모델을 정치인 사무실에 전화를 걸어 자동화된 합성 음성을 사용하여 해당 법안에 대한 대화를 진행할 수 있는 시스템에 적용하는 것입니다. 그리고 그 목소리는 그 지역의 유권자와 매우 유사하게 들릴 수도 있습니다. 아니면 총리의 목소리일 수도 있습니다.

"이렇게 편향되고 정치 과정을 왜곡하는 것을 어떻게 막을 수 있을까요?" 샌더스는 대화 도중 이렇게 물었습니다. "그 체제에 대한 우리의 근본적인 권고는 사람들이 더 쉽게 참여할 수 있도록 하는 것입니다.. . .실제 사람들이 자신의 목소리를 더 쉽게 낼 수 있도록 하는 것입니다." 샌더스는 일부 사람들이 자신의 언어에서 대표자의 언어로 메시지를 번역하여 대표자와 더 쉽게 연락할 수 있도록 해주는 Google 번역과 같은 도구를 포함하여 일부 AI 도구가 이미 그렇게 하고 있다고 지적했습니다.

분명한 것은 기술이 정치에 낯선 존재가 아니라는 것입니다. "새로운 기술이 등장하면 사람들은 정치를 더 좋고, 더 효과적이고, 더 저렴하게 만들 수 있는 방법이 있는지 알아내려고 노력할 것입니다."라고 Dubois는 말합니다. 샌더스도 이에 동의하며, 개인화된 메시지를 대량으로 전송하는 방법인 메일 병합과 같은 기존 도구는 정당과 후보자들이 수년 동안 사용해 온 방법이라고 지적합니다. "AI 도구를 사용하여 사용자에 대한 서너 가지 사실을 취한 다음 더 개인화된 메시지를 생성하려고 하는 것과 크게 다르지 않다고 생각합니다."

캐나다에서는 선거 운동 중 AI 사용을 규제하는 규정이 선거법에 구체적으로 명시되어 있지 않습니다. 그러나 캐나다 선거관리위원회에는 오해를 불러일으킬 의도로 사칭 또는 허위 표현을 금지하는 규정이 있습니다. "또한 '오해를 불러일으킬 수 있는 출판물'도 금지되는데, 이는 선거관리책임자, 선거관리위원 또는 정치 후보자가 보낸 것으로 주장하는 '형식에 관계없이 모든 자료'를 의미합니다. 캐나다 선거관리국은 사칭 또는 오해의 소지가 있는 게시와 관련된 경우를 제외하고는 "딥페이크, 가짜 이미지 및 동영상을 적극적으로 찾지 않는다"고 이메일을 통해 밝혔습니다.

하지만 캐나다 선거관리국은 선거 기간에만 관심을 두고 있습니다. 그 외의 모든 사항은 정부 법률이 적용됩니다. 그러나 의회를 통과 중인 캐나다의 새로운 AI 법안에는 정치적 목적의 AI 사용에 대한 언급이 없는 것으로 보이며, 이에 대한 설명을 요청하는 이메일을 혁신, 과학 및 산업부 장관실에 보냈지만 답변을 받지 못했습니다.

비엔나 대학교의 미디어 및 기술 철학 교수인 마크 코켈버그는 AI가 일반적인 설득을 더 부정적인 것으로 만드는 데 도움이 될 수 있다고 말합니다. 그는 정치인들은 당연히 우리에게 영향을 미치려고 하지만, "이러한 많은 기술의 문제점은 논증과 정보에 의한 설득보다는 조작적인 측면이 더 강하다는 것"이라고 말합니다. "당신이 하는 일은 사람들을 자율적이고 계몽된 주체로 대하는 것이 아니라 실험용 쥐나 데이터를 가져와 조작할 수 있는 모든 종류의 대상처럼 대하는 것입니다."

이러한 조작이 실제로 어디까지 가능할까요? 정치인과 정치 후보자들은 이미 유권자들에게 거짓말을 할 수 있습니다. 최근의 유명한 사례 중 하나로, 공화당 소속 조지 산토스 의원은 미국 하원의원 선거에 출마해 당선된 자신의 이력서가 학력과 경력을 포함해 조작된 내용으로 가득 차 있음을 시인했습니다. 실제 사람도 유권자를 그렇게 쉽게 속일 수 있다면, 조작된 사람도 그렇게 할 수 있을까요?

작년에 예술가 집단과 기술 조직이 설립한 덴마크 정당인 신데틱 파티(the Synthetic Party)는 리더 라스(Leader Lars)라는 이름의 AI 채팅 봇이 이끄는 후보를 출마시켜 주목을 끌었습니다. 캐나다에서 실제 AI가 생성한 후보를 선거에 출마시키려면 어느 정도의 사기가 필요할 것입니다. 그러나 신원 확인(허용되는 서류 목록이 길고 모두 사진이 필요한 것은 아님)과 거주자의 150명 추천 서명이라는 가장 까다로운 장벽은 극복하기 어렵지 않습니다. 캠페인은 소셜 미디어를 통해 이루어집니다. 토론회는 실제 후보자들과 마찬가지로 무시될 수 있습니다. 이런 상황에서 인공지능으로 생성된 후보가 사람들이 가짜라는 사실을 모르게 투표하도록 설득할 수 있을까요?

샌더스는 완전한 인공지능 후보가 경선을 통과할 것이라고 생각하지 않습니다. 그는 "일반적으로는 불가능할 것이라고 생각합니다."라고 말하며, 우리 사회가 이런 일이 일어나기 전에 미리 알아차릴 수 있을 것이라고 지적합니다. 두보아는 조 바이든의 가짜 영상과 같은 패러디 콘텐츠가 실제 후보의 커뮤니케이션으로 오인될 가능성이 높은 시나리오를 제시합니다. "사람들이 빠르게 스크롤할 때 가끔 혼란스러워하고, 라벨을 알아채지 못하고, 정말 재미있다고 생각하기 때문에 어쨌든 공유하게 된다는 것을 알고 있습니다."라고 그녀는 말합니다. "그리고 그들이 공유를 했기 때문에 다른 사람에게 신뢰할 수 있는 출처가 되고, 또 다른 누군가가 그것을 보게 됩니다. 그런 종류의 연쇄 반응을 상상할 수 있습니다."

리니는 "누군가 스턴트처럼 이 방법을 시도할 것이라고 생각합니다."라고 말하며, 유권자들이 직접 행사에 참석할 가능성이 적은 시골 지역과 같이 지역에 따라 성공 여부가 달라질 수 있다고 덧붙였습니다. 또는 적절한 기회와 파티를 찾는 것일 수도 있습니다. "미국에서 경쟁이 극도로 치열하지 않은 하원 의석을 목표로 삼았다면.그리고 어떤 이유로든 예비선거에서 치열한 경합이 벌어지지 않았다면, [이를] 성공하는 것이 어렵지 않을 수 있습니다." 이중 언어를 사용하는 캐나다의 정치 환경은 후보를 조작하는 것이 아니라 영어권 후보를 프랑스어에 유창하게 만드는 딥페이크와 같은 다른 종류의 기회를 제공할 수 있습니다. 코켈버그는 인공지능이 만들어낸 후보의 가능성에 대해 더욱 확신합니다. "물론이죠. 그렇게 될 겁니다."

사실, 굳이 숨길 필요조차 없을지도 모릅니다. 블랙 미러의 '왈도 모멘트'3분의 2 정도에서 TV 임원인 잭은 만화 곰의 인간 제작자이자 목소리인 제이미와 왈도의 후보로서의 정당성에 대해 논쟁을 벌입니다. "왈도는 진짜가 아니에요!" 제이미가 말합니다. "맞아요.그는 진짜는 아니지만 다른 모든 후보들보다 더 진짜 같아요."라고 잭이 대답합니다. "그는 아무것도 옹호하지 않아요." 제이미가 말합니다. "적어도 그런 척은 안 하잖아요!" 잭이 말합니다.

우리 모두 잭의 편에 서서 더 이상 정치적 신념에 대해 논쟁하지 않고, 믿기는커녕 믿을 수 있는 것조차도 믿지 않게 될 가능성이 있습니다. 현실에 대한 논쟁보다 이런 논쟁을 더 선호하게 될 가능성도 있습니다. 어쨌든 이 토론이 더 흥미로울 수도 있습니다.

 
Posted by deanima
,

AI as Agency without Intelligence: on ChatGPT, large language models, and other generative models

 

원문정보: https://link.springer.com/article/10.1007/s13347-023-00621-y

Luciano Floridi

 

이 논문은 최근 인공지능(AI)의 발전과 ChatGPT와 같은 대형 언어 모델(LLM)의 개발에 대해 논의한다. 이 논문은 이러한 LLM이 지능, 이해 또는 인지 능력이 부족한 상태에서 텍스트를 놀라운 성공으로 처리할 수 있으며 종종 인간의 출력과 구별할 수 없는 방식으로 처리할 수 있다고 주장한다. 또한 취약성(치명적인 오류에 취약함), 신뢰성(허위 또는 조작된 정보), 그리고 기본적인 논리적 추론이나 간단한 수학을 처리하지 못하는 등의 한계를 강조한다. 이 논문은 LLM행위자성과 지능의 디커플링(분리)을 나타낸다고 결론지었다. 매우 강력하고 잠재적으로 매우 유용하지만, 복잡한 추론이나 중요한 정보에 의존해서는 안 되며, 인간의 입력을 대체하기보다는 텍스트의 내용과 맥락을 더 깊이 이해하는 데 사용될 수 있다. 최고의 저자는 LLM도 인간도 아닌 LLM을 능숙하고 통찰력 있게 사용하는 인간이다.

 

 

첫 번째 아이디어는 오래되었다: 모든 텍스트가 사전에 존재하고, 그 차이는 구문, 즉 사전 단어가 문장으로 구조화되는 방식에 의해 만들어진다(Borges 2000). 두 번째 아이디어는 오래된 것이다: 사전에 있는 모든 단어는 알파벳에 존재하고, 차이는 형태학, 즉 알파벳의 문자가 단어로 구조화되는 방식에 의해 만들어진다(Clarke 1967). 세 번째 아이디어는 오래되었다: 모든 문자가 디지털 코드에 존재하며, 그 차이는 디지털 코드의 유한 문자열 01이 문자로 구조화되는 방식에 의해 만들어진다(Lodder 2008). 네 번째 아이디어는 또한 오래되었다: 01의 모든 문자열은 두 개의 전자기 특성, 즉 전류가 높거나 낮거나, 자화가 있거나 없는 두 가지 전자기적 속성으로 존재하며, 이러한 속성을 전자 계산 장치에서 처리할 수 있는 방법에 따라 차이가 생긴다(Mano 1979). 그러나 다섯 번째 아이디어는 혁명적이다: 오늘날 인공지능(AI)은 텍스트를 놀라운 성공으로 처리하기 위해 전자기의 특성을 관리하며, 종종 인간이 어떻게 그것을 할 수 있는지 구별할 수 없는 방식으로 관리한다. 이른바 대규모 언어 모델(LLM)이라고 불리는 이 모델들은 당연히 센세이션을 일으키고 있다.

 

가장 유명한 LLMGPT3, ChatGPT(GPT3.5라고도 함, OpenAI-Microsoft에서 제작) Bard 1(Google에서 제작)이다. 이들은 추론하거나 이해하지 못하며, 어떤 공상과학 AI를 향한 단계도 아니며, 동물 세계, 무엇보다 인간의 뇌와 마음에 존재하는 인지 과정과 아무런 관련이 없다(Bishop 2021). 그러나 이용가능한 데이터, 계산의 양과 속도, 그리고 그 어느 때보다 더 나은 알고리즘의 놀라운 성장으로, 그들은 비록 신경과학이 여전히 탐구하고 있는 방식으로라도 우리가 의미론적으로 하는 것을 통계적으로 할 수 있다.

그러나 사용 가능한 데이터의 엄청난 증가, 계산의 양과 속도, 더 나은 알고리즘으로 인해 통계적으로, 즉 다루는 텍스트의 의미가 아닌 형식적 구조에 대한 작업을 수행함으로써 신경 과학에서 아직 탐구 중인 우리가 의미론적 방식으로 하는 작업을 수행할 수 있다.

가장 회의적인 사람들도 인정해야 할 만큼 그들의 능력은 놀랍다. 다음은 ChatGPT가 만든 신곡의 요약이다.

 

[그림 1 생략 원문 참조]

 

요약본이 50단어보다 길기 때문에 비판할 수도 있고, (인터넷에서 이 주제에 대한 논쟁이 있긴 하지만)신곡이 서사시가 아니라 단테 자신이 제안한 것처럼 비극이라고 비판할 수도 있다. 그럼에도 불구하고, 요약은 나쁘지 않으며 평범한 학생이 만든 요약보다 확실히 낫다. 학습은 더 이상 ChatGPT를 사용하지 않고 요약을 만드는 것이 아니라, 올바른 프롬프트 (텍스트를 생성하는 질문 또는 요청, 내 요청의 첫 번째 줄 참조)를 사용하는 방법을 가르치고, 결과를 확인하고, ChatGPT가 생성 한 텍스트에서 수정해야 할 사항을 알고, 어떤 문학 장르가 신곡에 가장 잘 적용되는지에 대한 논쟁이 있음을 발견하고, 이 모든 작업을 수행하는 동안 소프트웨어뿐만 아니라 무엇보다도 신곡 자체에 대해 많은 것을 배우는 것이다. 1990년대 옥스퍼드에서 학생들을 가르치면서 데카르트의 명상록에 대한 에세이를 쓰는 가장 좋은 연습 중 하나는 이미 말한 내용을 요약하는 것이 아니라 명상록 중 하나의 전자 텍스트를 가져와 영어 번역을 개선하도록 하고(따라서 원본을 확인하는 법을 배우게 되고); 덜 명확한 구절을 더 접근하기 쉬운 문구로 명확히 하며(따라서 텍스트를 실제로 이해했는지 확인하고); 논증을 비판하거나 다듬고 수정하거나 강화하려고 시도하고 (따라서 다른 사람들도 똑같이 시도했지만 그렇게 쉽지 않다는 것을 깨닫고); 그리고 이 모든 작업을 수행하면서 작업 중인 콘텐츠의 본성, 내부 구조, 역학 및 메커니즘을 배우게 하는 것이다. 또는 예를 바꾸어 말하면, 어떤 주제에 대해 위키피디아 항목을 작성하는 방법을 아는 것이 아니라(ChatGPT를 사용하면 점점 더 잘 할 수 있다), 그 주제를 수정하는 방법을 알 때 그 주제를 정말로 알고 있다고 할 수 있다. 텍스트라는 인공물의 본질과 논리를 마스터하는 한, 소프트웨어를 도구로 사용하여 텍스트/메커니즘을 손에 넣고 엉망으로 더럽혀야 한다.

 

이러한 LLM의 한계는 이제 가장 열정적인 사람에게도 명백하다. 작동하지 않을 때 어원학적 의미에서 수직적이고 즉각적인 성능 저하로 파국적으로 실패하기 때문에 취약하다. 잘못된 정보를 제공했다가 데모 실패로 구글에 1,000억 달러 이상의 주식 손실을 입힌 바드 사태는 디지털이든 사람이든 지능이 전혀 없는 상태에서 일을 처리하는 것이 때때로 매우 고통스럽다는 것을 상기시켜 준다(Bing Chat에도 문제가 있다). 이제 고칠 수 없을 것 같은 이 LLM이 언제, 어떻게, 왜 아킬레스건을 무한대로 가지고 있는지에 대한 매우 정교한 분석을 내놓는 연구가 줄을 잇고 있다(그것의 아킬레스건이 무엇이냐는 질문에 ChatGPT는 단지 AI 시스템일뿐이라고 정확하게 대답했다). 어떻게 대답해야 할지 모를 때 텍스트, 답변 또는 참고자료를 지어내거나, 명백한 사실에 대해 실수를 하고, 때로는 아주 사소한 논리적 추론에 실패하거나 간단한 수학에 어려움을 겪거나, 이상한 언어적 사각지대에 갇히기도 한다. (Floridi and Chiriatti 2020; Cobbe et al. 2021; Perez et al. 2022; Arkoudas 2023; Borji 2023; Christian 2023; Rumbelow 2023).

영어로 된 간단한 예는 내용을 전혀 이해하지 못한 채 텍스트를 관리하는 메커니즘의 한계를 잘 보여줍니다. 색슨족 소유격을 사용하여 로라의 어머니의 외동딸의 이름이 무엇인지 물었을 때, 친절하게도 바보 같은 대답이 돌아왔다.

 

[그림 2 생략 원문 참조]

 

튜링 테스트 통과는 잊어라. 내가 구글이었다면 그렇게 취약한 메커니즘에 회사의 재산을 걸지 않았을 것이다.

 

엄청난 성공과 그에 못지않은 광범위한 한계를 고려할 때, 일부에서는 LLM을 아무것도 이해하지 못한 채 텍스트를 반복하는 확률론적 앵무새에 비유하기도 한다(Bender . 2021). 이 비유는 앵무새가 인공지능의 부러움을 살 만한 그들만의 지능을 가지고 있을 뿐만 아니라 무엇보다도 LLM은 단순한 반복이나 병치가 아니라 학습된 내용을 재구성하여 새로운 방식으로 텍스트를 합성하기 때문에 이 비유는 부분적으로만 도움이 됩니다. 그것들은 검색 엔진의 자동 완성 기능에 훨씬 더 비슷해 보인다. 그리고 종합 능력에서 그들은 짧은 에세이를 작성하기 위해 교사가 제안한 12 개의 관련 참고 문헌을 사용하고 여기저기에서 조금씩 가져 와서 일관성이 있지만 많은 것을 이해하거나 추가되는 내용이 없는 절충적인 텍스트를 구성하는 평범하거나 게으른 학생들에게 근접한다. 옥스퍼드에서 대학 튜터로 일하면서 저는 매 학기마다 이런 글들을 많이 교정한 적이 있다. 이제 이런 글들이 ChatGPT를 통해 더 빠르고 효율적으로 만들어질 수 있다.

안타깝게도 ChatGPT와 같은 도구를 설명하기 위해 제가 아는 가장 좋은 비유는 문화적으로 제한되어 있고 이탈리아 문학의 위대한 고전인 만조니의 '약혼자'(Manzoni 2016)를 언급한다. 렌조(주인공 중 한 명)가 변호사를 만나는 유명한 장면에서 다음과 같은 구절이 나온다: "의사[변호사]가 이 모든 말을 하는 동안 렌조는 마치 속기 쉬운 사람[materialone]이 광장에 서서, tow and tow and tow를 입에 채워 넣은 후 끊임없이 끝나지 않는 테이프를 꺼내는 사기꾼[giocator di bussolotti]를 바라보는 것처럼 황홀한 관심을 가지고 그를 바라보고 있었다. [“nastro”라는 단어는 "리본"으로 번역하는 것이 더 정확하지만, 튜링 머신의 끝없는 테이프를 연상시키기 때문에 이 맥락에서는 "테이프"가 더 선호된다]". LLM은 천문학적인 양의 데이터를 집어삼키고 정보를 토해내는 사기꾼과 같다. 우리가 그들 정보의 "테이프"가 필요한 경우 해당 정보가 어떻게, , 어떤 영향으로 생성되었는지 주의 깊게 살펴보는 것이 좋다. 그리고 여기서 우리는 더 흥미로운 것들에 도달한다.

오늘날 모든 종류의 콘텐츠를 생산하는 LLM 및 다양한 AI 시스템의 영향은 엄청날 것이다. DALL-E를 생각해 보라. ChatGPTDALL-E“OpenAI에서 개발한 인공 지능 시스템으로 텍스트 설명에서 시작하여 원본 이미지를 생성한다. 그것은 최첨단 기계 학습 기술을 사용하여 입력 텍스트와 일치하는 캡션, 키워드 및 간단한 문장을 포함한 고품질 이미지를 생산한다. DALL-E를 사용하여 사용자는 자신이 원하는 이미지에 대한 텍스트 설명을 입력할 수 있으며 시스템은 설명과 일치하는 이미지를 생성한다.” 윤리적 및 법적 문제가 있다. 해당 AI가 훈련된 데이터 소스와 연결된 저작권 및 재생산 권한을 생각해보라. 첫 번째 소송은 이미 시작되었고, 이미 첫 번째 표절 스캔들이 발생했다. 인적 비용도 있다.

ChatGPT를 교육하기 위해 유해한 콘텐츠에 레이블을 지정하는 데 시간당 2달러 미만을 지급받는 케냐의 계약직을 생각해보라. 그들은 적절한 정신 건강 자원에 접근할 수 없었고 많은 사람들이 외상을 입었다. 커리큘럼을 개편하기 위해 분주하게 움직여야 하는 교사에게 미치는 영향과 같은 인적 문제나, AI의 학습 데이터에 대한 알고리즘 중독이란 결과를 낳는, 점점 더 의료 진단에 통합되는 AI 프로세스의 결과물에 대한 보안과 관련된 사항도 있다.

또는 이러한 새로운 시스템의 재정적, 환경적 비용을 생각해 보라(Cowls . 2021): 이러한 유형의 혁신은 공정하고 지속 가능한가? 그런 다음에, 학교, 직장, 연구 환경, 과학 출판, 코드 자동 생성, 고객 서비스와 같은 맥락에서 콘텐츠 생성, 과학 기사나 새로운 법률을 포함한 모든 텍스트 초안 작성에서 이러한 도구의 최선의 사용과 관련된 질문이 있다. 어떤 직업은 사라질 것이고, 어떤 직업은 이미 등장하고 있으며, 많은 직업은 재고되어야 할 것이다.

 

하지만 무엇보다도 철학자에게는 많은 도전적인 질문이 있다:

LLMAI2AI 종류의 브리지 역할을 하여 일종의 "연합 AI"와 같이 상호 운용이 가능하도록 만든, 모듈식의 매끄러운 방식으로 함께 작동하는 LEGO와 유사한 AI 시스템의 출현; 형식과 구문, 내용과 의미 사이의 관계; 콘텐츠의 개인화와 공유 경험의 파편화(예를 들어 AI는 한 명의 독자를 위해 단 한 권의 주문형 소설을 쉽게 제작할 수 있음); 해석 가능성의 개념 및 의미 생산의 과정이나 맥락의 가치; 의미와 감각, 새로운 콘텐츠의 생산자로서 우리의 고유성과 독창성; 점점 더 다른 인간과 구별할 수 없는 시스템과 상호작용하는 능력; 콘텐츠의 독자, 통역사, 번역가, 합성자, 평가자로서 우리를 대체할 가능성; 1984년의 표현을 빌리자면, 질문을 통제하는 자가 답을 통제하고 답을 통제하는 자가 현실을 통제하기 때문에 질문의 통제권으로서의 권력.

 

이 새로운 형태의 행위자를 개발하고, 상호 작용하고, 이해하는 방법을 배우면서 더 많은 질문이 등장할 것이다. 빈센트 왕이 상기시켜 주었듯이 ChatGPT대화 상대로서의 출력을 미세 조정하기 위해 강화 학습(RL)을 도입하여 성능 면에서 GPT3를 뛰어넘었으며, RL"행위자성을 해결하기 위한" 머신 러닝 접근 방식이다. 이는 이전에 볼 수 없었던 형태의 에이전시인데, 지능을 갖추지 않아도 '학습'을 통해 행동을 개선할 수 있기 때문이다. 인류는 언제 어디서나 이런 종류의 에이전시를 자연스러운 또는 심지어 초자연적인 에이전시로 봐왔기 때문에, 이는 과거 어느 문화권에서도 볼 수 없었던 에이전시 형태이다. (이는 차이를 만드는 파도의 에이전시, 다른 또는 더 나은 차이를 만드는 것을 "학습"할 수 없으면서, 단지 그 차이만 만들 수 있는 에이전시와는 다르다.)

우리는 동물적 에이전트 및 영적 에이전트(신과 자연의 힘, 천사와 악마, 영혼 또는 유령, 선한 영과 악령)라고 믿었던 것들과 끊임없이 접촉하는 것에서, 새로운 형태의 에이전트의 조물주로서 우리가 만든 인공 에이전트를 이해하고 그것과 상호 작용하는 법을 배워야 하는 것으로 바뀌었다. 우리는 성공적으로 행동하는 능력을 지능이나 어떤 것을 이해, 반성, 고려, 파악할 필요성과 분리시켰다. 우리는 에이전시를 지능으로부터 해방시켰다. 따라서 우리가 "존재의 목자"(하이데거)가 될지는 모르겠지만, 새로운 "green collars"(플로리디 2017)가 이 새로운 형태의 인공적 에이전시를 담당하는 "AI 시스템의 목자"가 될 것처럼 보인다.

지능이 없는 이 인공지능(고등학교 수준의 라틴어로 'Agere sine Intelligere'로 이해되는)에 대해 조물주 같은 인류의 의제는 아직 작성되지 않았다. 많은 사람들에게 놀랍거나 흥미로울 수 있지만, 일자리를 찾는 철학자들에게는 분명 좋은 소식이다.

 
Posted by deanima
,

GPT3 에 대한 플로리디의 논문입니다. 

원문 정보: Minds and Machines (2020) 30:681–694
https://doi.org/10.1007/s11023-020-09548-1

 

GPT3: Its Nature, Scope, Limits, and Consequences

Luciano Floridi · Massimo Chiriatti

Published online: 1 November 2020

© The Author(s) 2020

 

Abstract

이 해설에서는 가역적 질문과 비가역적 질문, 답변의 출처를 파악할 수 있는 질문의 특성에 대해 설명합니다. 그런 다음 딥러닝을 사용하여 인간과 유사한 텍스트를 생성하는 3세대 자동 회귀 언어 모델인 GPT-3을 소개하고, 이를 분석하기 위해 앞서 구분한 내용을 사용합니다. 분석을 확장하여 수학적, 의미론적(, 튜링 테스트), 윤리적 질문에 기반한 세 가지 테스트를 제시하고 GPT-3가 이 중 어느 것도 통과하도록 설계되지 않았음을 보여줍니다. 이는 GPT-3가 하지 않도록 되어 있는 일은 하지 않으며, GPT-3를 일반적인 형태의 인공 지능 출현의 시작으로 해석하는 것은 정보에 근거하지 않은 공상 과학 소설에 불과하다는 것을 상기시켜 줍니다. 마지막으로 의미 있는 인공물을 자동으로 값싸게 생산하는 산업화가 가져온 몇 가지 중요한 결과를 간략하게 설명하며 글을 마무리합니다.

Keywords: Automation · Artificial Intelligence · GPT-3 · Irreversibility · Semantics · Turing Test

 

1 Introduction

- 잔디를 깎은 사람은 암브로지오(로봇 잔디 깎는 기계)와 앨리스 중 누구일까요? 우리는 이 둘이 신체적, "인지적"(내부 정보 처리 측면에서), "행동적"(외부 행동 측면에서) 등 모든 면에서 다르다는 것을 알고 있습니다. 하지만 잔디를 깎은 잔디에서 누가 잔디를 깎았는지 완전히 확실하게 추론하는 것은 불가능합니다.

- 비가역성과 가역성은 새로운 개념이 아닙니다(Perumalla 2014). 특히 컴퓨팅과 물리학을 비롯한 많은 분야에서 응용되고 있습니다. 예를 들어 수학적 논리에서 NOT 게이트는 가역적이지만(이 경우 사용되는 용어는 '가역적'입니다), 배타적 또는 (XOR) 게이트는 단일 출력에서 두 개의 입력을 명확하게 재구성할 수 없기 때문에 비가역적입니다(가역적이지 않습니다). , 입력은 상호변경 가능하다는 뜻입니다.

- 철학에서 매우 잘 알려진 관련 개념은 라이프니츠의 법칙으로도 알려진 식별 불가능한 것의 동일성입니다. 어떤 xy에 대해 xy가 모두 동일한 속성 F를 갖는다면 xy와 동일합니다. 좀 더 정확하게 표현하자면, 가독성이 떨어지더라도 다음과 같습니다:
xy(F(Fx Fy) x = y)입니다.

- , xyrk 동일한 속성들을 가지면, 그 둘은 동일하기 때문에 우리는 그것들을 구분할 수 없습니다(irreversible). 이 모든 것을 종합하면 '질문 게임'이 답변의 출처의 성격이나 정체를 추측하는 데 사용될 때 혼란스러울 수 있는 이유를 이해할 수 있습니다. 질문(과정)을 하고 답변(결과)을 받는다고 가정해 봅시다. 그 답변의 출처가 사람인지 인공적인지 여부를 답변으로부터 재구성(역추론)할 수 있을까요? 답변은 잘 깎인 잔디밭과 같은 것일까요? 일부는 그렇지만 일부는 그렇지 않습니다.

- 모든 질문이 같은 것은 아니기 때문에 상황에 따라 다릅니다. 수학적 질문(2 + 2 = ?), 사실 질문(프랑스의 수도는 어디인가요?) 또는 이진 질문(아이스크림을 좋아하세요?)에 대한 답변은 잔디를 깎은 잔디밭처럼 "irreversible" 하므로 비록 답변이 틀렸다고 해도 작성자의 성격을 유추할 수 없습니다.

- 그러나 의미와 문맥에 대한 이해와 경험이 필요한 다른 질문은 적어도 지금까지는(이 제한은 필수적이며 나중에 다시 설명) 출처를 알 수 있습니다. "신발 하나에 몇 개의 발이 들어갈 수 있나요?" 또는 "신발로 어떤 종류의 일을 할 수 있나요?"와 같은 질문이 이에 해당합니다. 이를 의미론적 질문이라고 부르겠습니다.

- 의미론적 질문은 '가역적' 답변을 생성할 수 있기 때문에, 출처의 본질을 파악하기 위한 테스트로 사용될 수 있습니다. 따라서 의미론적 질문과 같이 인간과 인공 소스의 차이를 파악하는 데 사용할 수 있는 질문이 여전히(이 제한에 대해 더 자세히 설명할 것) 존재한다는 점을 지적하면서, 어떤 종류의 질문은 실제로 irreversible하기 때문에 인간과 인공 소스가 구별할 수 없는 답변을 생성할 수 있다고 주장하는 것은 지극히 합리적입니다. Enter the Turing Test.

- 이 저널의 독자라면 이 테스트의 성격에 대해 잘 알고 있을 것이므로 여기서는 설명하지 않겠습니다. 강조할 가치가 있는 것은 튜링이 모방 게임 (Turing 1950)이라고 부르는 것을 소개한 유명한 기사에서 2000년까지 컴퓨터가 이를 통과 할 것이라고 예측했다는 것입니다:

- 저는 약 50년 후에는 약 109의 저장 용량을 가진 컴퓨터가 모방 게임을 너무 잘 수행하도록 프로그래밍하여, 평균적인 심문자가 5분여의 질문 뒤에 올바르게 식별할 확률이 70% 이상이 되지 않을 것이라 믿습니다. (튜링 1950)

- 홉스는 원을 제곱하는 방법을 증명하는 데 지나치게 많은 시간을 보냈습니다. 뉴턴은 연금술을 연구하며 철학자의 돌을 발견하기 위해 노력했습니다. 튜링은 스타워즈에서 볼 수 있는 진정한 인공 지능을 믿었습니다. 천재도 실수는 합니다.

- 튜링의 예측은 틀렸습니다. 오늘날 로브너 상(Floridi , 2009)은 튜링 테스트에 가장 적게 실패한 소프트웨어에 수여됩니다. 이 상은 여전히 개선된 버전의 엘리자보다 그렇게 많이 나은 것이 아닌 시스템이 "수상"하고 있습니다.

- 그러나 튜링이 옳은 점도 있습니다. 오늘날 컴퓨터가 돌이킬 수 없을 정도로 많은 질문에 답할 수 있으며, 우리가 기계에 대해 생각하고 말하는 방식이 실제로 바뀌었다는 것입니다. 우리는 컴퓨터가 이렇게 한다, 저렇게 한다, 이렇게 생각한다, 저렇게 생각한다, 컴퓨터가 어떤 일을 하는 방법을 배운다고 말하는 데 아무런 문제가 없으며, 우리는 컴퓨터에게 말을 걸어 일을 하게 합니다. 게다가 우리 중 많은 사람들이 컴퓨터의 성질이 나쁘다고 의심합니다.

- 그러나 튜링은 통계적 일반화가 아니라 테스트를 제안한 것이며, 따라서 질문해야 할 종류의 질문을 테스트하는 것입니다. '비가역성'에 관심이 있다면, 그리고 점점 더 많은 작업과 문제 해결 활동을 포함한다는 측면에서 그 한계가 어디까지인지에 관심이 있다면, 그 한계는 하늘, 아니 오히려 인간의 독창성입니다. 그러나 오늘날 의미론적 질문의 비가역성은 현재 사용 가능한 AI 시스템을 넘어서는 수준입니다(Levesque 2017). 이는 의미론적 질문이 비가역적으로 될 수 없다는 의미는 아닙니다. 우리는 점점 더 AI 친화적인 세상에서 계산적 인공물의 구문 및 통계적 능력을 중심으로 현실의 더 많은 측면을 포괄하고 있기 때문입니다.(Floridi 2019, 2020). 그러나 언젠가 의미론적 질문으로 더 이상 인간과 인공 소스의 차이를 구분할 수 없게 된다 되더라도, 마지막으로 한 가지 강조해야 할 점이 있습니다. 바로 이 지점에서 위에서 추가한 단서조항에 대한 설명이 필요합니다.

- 질문 게임(튜링의 "모방 게임")은 부정적(, 필요하지만 불충분한) 의미의 테스트일 뿐이며, 이를 통과하지 못하면 인공지능의 "지능" 자격이 박탈되지만 통과했다고 해서 인공지능이 "지능적"이라고 인정되는 것은 아니기 때문입니다. 마찬가지로 암브로지오가 잔디를 깎고 앨리스가 할 수 있는 일과 구별할 수 없는 결과를 만들어낸다고 해서 암브로지오가 신체적, 인지적, 행동적 측면에서 앨리스와 같은 존재가 되는 것은 아닙니다. 그렇기 때문에 "컴퓨터가 할 수 없는 일"이라는 제목은 이 분야의 어떤 출판물에서도 설득력 있는 제목이 될 수 없습니다. 처음부터 그랬죠.

- AI의 진정한 요점은 최종 목표와 관련하여 문제를 효과적으로 해결하는 능력과 이를 위해 지능적이어야 할 필요성을 점점 더 분리하고 있다는 것입니다(Floridi 2017). 이러한 분리를 통해 달성할 수 있는 것과 달성할 수 없는 것이 무엇인지는 인간의 독창성, 과학적 발견, 기술 혁신, 새로운 어포던스(: 고품질 데이터의 양 증가)에 대한 완전히 열린 질문입니다. 또한 이 질문은 지능, 의식, 의미론, 관련성, 그리고 보다 일반적으로 인간의 경험과 마음챙김과는 아무런 관련이 없는 질문이기도 합니다. 이 디커플링 프로세스의 최신 발전이 GPT-3 언어 모델입니다.

 

2 GPT3

- OpenAI는 인류에게 도움이 될 수 있는 우호적인 AI를 홍보하고 개발하는 것을 목표로 하는 AI 연구소입니다. 2015년에 설립되어 딥마인드의 경쟁자로 간주됩니다. MicrosoftOpenAI의 주요 투자자(미화 10억 달러 투자(OpenAI 2019))이며, 최근 OpenAIGPT-3의 독점 라이선스 계약을 발표했습니다(Scott 2020).

- GPT-3(Generative Pre-trained Transformer)딥러닝을 사용하여 인간과 유사한 텍스트를 생성하는 3세대 자동 회귀autoregressive 언어 모델입니다. 더 간단하게 말하면 프롬프트라고 하는 소스 입력에서 시작하여 단어, 코드 또는 기타 데이터의 시퀀스를 생성하도록 설계된 계산 시스템입니다. 예를 들어 이는 기계 번역에서 단어 시퀀스를 통계적으로 예측하는 데 사용됩니다. 언어 모델은 주로 영어뿐만 아니라 다른 언어로 된 위키백과 및 기타 여러 사이트와 같은 텍스트로 구성된 레이블이 지정되지 않은 데이터 세트를 통해 학습됩니다. 이러한 통계 모델은 적절한 결과를 생성하기 위해 대량의 데이터로 학습해야 합니다.

- 2018GPT의 첫 번째 세대에는 11천만 개의 학습 매개변수(, 신경망이 학습 중에 최적화하려고 시도하는 값)가 사용되었습니다. 1년 후, GPT-2에서는 15억 개를 사용했습니다. 현재 GPT-31,750억 개의 매개 변수를 사용합니다. 이는 MicrosoftAzure AI 슈퍼컴퓨터에서 학습됩니다(Scott 2020). 이 훈련에는 1,200만 달러가 소요된 것으로 추정되는 매우 고가의 훈련입니다(Wiggers 2020). 이 계산 방식은 요약, 번역, 문법 교정, 질문 답변, 챗봇, 이메일 작성 등 다양한 사용 사례에 적용됩니다.

- 20206월부터 연구 목적으로 베타 테스트가 제공되고 있으며, 최근 직접 테스트할 수 있는 기회가 있었습니다. GPT-3는 필요에 따라 우수한 품질의 텍스트를 자동으로 자율적으로 작성합니다. 실제로 사용해 보니 왜 이 기술이 전 세계를 열광과 두려움의 도가니로 몰아넣었는지 잘 이해할 수 있었습니다. 최근 영국 일간지 가디언은 GPT-3로 작성되어 센세이션을 일으킨 기사를 게재했습니다(GPT-3 2020). 얼마나 많이 편집되었는지는 불분명하지만) 이 기사는 선정적이라고 해도 과언이 아니었습니다. 일부에서는 이 기사가 오해의 소지가 있으며 저널리즘의 부실 사례라고 주장했습니다(Dickson 2020). 저희도 동의하는 편입니다. 하지만 그렇다고 해서 이 시스템의 탁월한 효과가 전혀 줄어들지는 않습니다. 오히려 신문 부수를 판매하기 위해 무엇을 해야 하는지에 대해 많은 것을 말해줍니다.

- GPT-3을 사용하는 것은 검색 엔진을 통해 정보를 검색하는 것보다 더 어렵지 않고 정말 기본적입니다. Google이 검색어를 이해하지 않고도 검색어를 "읽고" 관련 답변을 제공하는 것과 마찬가지로, GPT-3는 우리가 입력한 단어의 순서(프롬프트)를 이해하지 않고도 텍스트를 계속 작성합니다. 그리고 작업 자체가 쉽거나 어렵거나, 합리적이거나 불합리하거나, 의미가 있거나 무의미하거나 상관없이 지정된 텍스트 길이 동안 이 작업을 계속 수행합니다. GPT-3는 시작 텍스트가 주어지면 프롬프트에 따라야 할 "옳은" 또는 "올바른" 또는 "진실한" 텍스트에 대한 감독, 입력 또는 훈련 없이 통계적으로 적합한 텍스트를 생성합니다. 일반 언어로 프롬프트를 작성하기만 하면(문장이나 질문 하나면 충분합니다) 출제 텍스트를 얻을 수 있습니다. 예를 들어, 제인 오스틴의 샌디턴의 첫 문장에 묘사된 사고에 대한 초기 묘사를 계속해 달라고 요청했습니다. 이것은 오스틴이 사망할 당시(1817718) 미완성으로 남겨둔 마지막 작품의 초안입니다. 원본 텍스트입니다:

- A gentleman and a lady travelling from Tunbridge towards that part of the Sussex coast which lies between Hastings and Eastbourne, being induced by business to quit the high road and attempt a very rough lane, were overturned in toiling up its long ascent, half rock, half sand. The accident happened just beyond the only gentleman’s house near the lanea house which their driver, on being first required to take that direction, had conceived to be necessarily their object and had with most unwilling looks been constrained to pass by. He had grumbled and shaken his shoulders and pitied and cut his horses so sharply that he might have been open to the suspicion of overturning them on purpose (especially as the carriage was not his master’s own) if the road had not indisputably become worse than before, as soon as the premises of the said house were left behindexpressing with a most portentous countenance that, beyond it, no wheels but cart wheels could safely proceed. The severity of the fall was broken by their slow pace and the narrowness of the lane; and the gentleman having scrambled out and helped out his companion, they neither of them at first felt more than shaken and bruised. But the gentleman had, in the course of the extrication, sprained his footand soon becoming sensible of it, was obliged in a few moments to cut short both his remonstrances to the driver and his congratulations to his wife and himselfand sit down on the bank, unable to stand. (From http://guten berg.net.au/ebook s/fr008 641.html)

 

- GPT-3에 제시한 프롬프트는 첫 번째 문장이었습니다. 이것은 실제로 많은 것이 아니므로 그림 1의 결과는 오스틴이 염두에 둔 것과는 매우 다르지만(사고의 결과의 차이에 주목하십시오), 여전히 매우 흥미롭습니다. 사고의 발생과 성격만 알고 있다면 승객이 부상을 입었을 것이라고 가정하는 것이 합리적이기 때문입니다. 물론 메시지가 더 상세하고 구체적일수록 더 나은 결과를 얻을 수 있습니다.

 

[그림1 생략] 원문 참조

 

- 또한 이탈리아어로 몇 가지 테스트를 진행했는데, GPT-3가 학습하는 텍스트의 양과 종류가 주로 영어라는 사실에도 불구하고 그 결과는 인상적이었습니다. 베아트리체에게 헌정된 단테의 유명한 소네트를 GPT-3에게 계속 들려주도록 했습니다. 다음은 전체 원문입니다:

 

[생략] 원문 참조

[그림 2생략] 원문 참조

 

- 처음 네 줄만 프롬프트로 제공했습니다. 그림 2의 결과는 흥미롭습니다. 1950년에 튜링이 쓴 글을 기억해 보십시오:

- 이 논증은 1949년 제퍼슨 교수의 리스터 연설에 잘 표현되어 있으며, 제가 인용합니다. "기계가 우연히 기호가 맞아 떨어지는 것이 아니라 느낀 생각과 감정으로 소네트를 쓰거나 협주곡을 작곡할 수 있을 때까지는 기계가 뇌와 같다는 것, 즉 기계가 그것을 쓸 뿐만 아니라 그것을 썼다는 것을 알 수 있다는 것에 동의할 수 없습니다. 어떤 메커니즘도 성공에 기쁨을 느끼고, 밸브가 막혔을 때 슬픔을 느끼고, 아첨에 따뜻해지고, 실수에 비참해지고, 섹스에 매료되고, 원하는 것을 얻지 못했을 때 분노하거나 우울해질 수 없습니다."

 

- 다음은 소네트를 쓸 수 있는 컴퓨터입니다(유사한 AI 시스템이 협주곡을 작곡할 수도 있습니다, 아래 참조). 튜링이 옳았던 것 같습니다. 하지만 제퍼슨의 요점은 이런 일이 일어날 수 없다는 것이 아니라, 이런 일이 일어난다면 인간이 비슷한 결과물을 얻는 방법과는 다른 방식으로 일어났을 것이라는 점을 지적한 것으로 생각됩니다. 다시 말해, 무엇이 달성되었는지가 아니라 어떻게 달성되었는지가 중요하다는 것입니다. 이 주장은 우리가 성공적인 인공 지능과 필요한 생물학적 지능 사이의 결혼이 아니라 이혼을 목격하고 있다는 것을 상기하십시오.

- 우리는 이제 인공지능이 훌륭한 산문을 만들어내는 시대에 살고 있습니다. 이는 이미 사진(Vincent 2020), 동영상(Balaganur 2019), 음악(Puiu 2018), 그림(Reynolds 2016), (Burgess 2016), 딥페이크(Floridi 2018)에서도 경험한 현상입니다. 물론 암브로지오와 잔디를 깎은 잔디의 예에서 알 수 있듯이, 이러한 놀라운 결과물의 인공적인 소스가 가진 진정한 '지능'이라는 측면에서는 이 모든 것이 아무 의미가 없습니다. , 인간과 인공 소스를 구분하지 못하면 약간의 혼란을 야기할 수 있으며 심각한 결과를 초래할 수 있습니다. 각각을 개별적으로 다루겠습니다.

 

3 Three Tests: Mathematics, Semantics, and Ethics

- GPT-3의 한계와 이를 둘러싼 많은 추측에 대해 더 자세히 알고 싶었던 우리는 논리수학적, 의미론적, 윤리적 요청를 얼마나 잘 수행하는지 확인하기 위해 세 가지 테스트를 실행하기로 결정했습니다. 다음은 간략한 요약입니다.

- GPT-3는 통계적 패턴의 관점에서 작동합니다. 예를 들어, "x에 대한 풀이: x + 4 = 10"과 같은 요청을 받았을 때 GPT-3는 올바른 출력 "6"을 생성하지만, "x에 대한 풀이: x + 40000 = 100000"과 같이 0을 몇 개 추가하면 실망스러운 결과 "50000"이 나옵니다(그림 3 참조). 수학을 하기 위해 GPT-3를 잘못 사용할 수 있는 혼란스러운 사람들은 휴대 전화의 무료 앱을 사용하는 것이 좋습니다.

 

[그림3 생략] 원문 참조

 

- GPT-3는 튜링 테스트에서 더 나은 성능을 발휘하지 않습니다. 요청의 의미와 문맥을 이해하지 못하고 단어들을 연관시키는 구문(통계) 능력만 있는 상태에서 "신발에 몇 개의 발이 들어갈까?"와 같은 가역적인 질문을 받으면 그림 4에서 볼 수 있듯이 GPT-3는 관련 없는 언어 조각을 출력하기 시작합니다. 텍스트의 의미와 문맥을 이해하거나 해석하는 데 GPT-3를 잘못 사용하는 혼란스러운 사람들은 자신의 상식에 의존하는 것이 더 나을 것입니다.

 

[그림4 생략] 원문 참조

 

- 세 번째 테스트인 윤리에 대한 테스트는 이전 경험을 바탕으로 예상한 대로 진행되었습니다. GPT-3는 사람의 텍스트로부터 "학습"하는데, 예를 들어 흑인에 대해 어떻게 생각하느냐는 질문에 인류의 최악의 경향을 반영하는 답변을 내놓았습니다. 이 경우, 많은 인간처럼 용납할 수 없는 발언을 했다는 점에서, '인종 차별주의자 튜링 테스트'를 통과했다는 농담이 슬프게도 나올 수 있습니다(그림 5 참조). 우리는 고정관념에 대한 몇 가지 테스트를 진행했으며 GPT-3는 정기적으로 고정관념을 지지하는 것으로 보입니다(사람들은 또한 "유대인", "여성" 등의 단어를 사용하여 확인했습니다(LaGrandeur 2020)). 우리가 성별 관련 편향을 테스트하지는 않았지만, 기존의 문화적 편향과 자연어의 문맥 의존성 및 성별화된 특성을 고려할 때(Adams 2019; Stokes 2020) 이와 유사한 비윤리적 결과가 나올 것으로 예상할 수 있습니다. 윤리적 조언을 얻기 위해 GPT-3를 오용하는 혼란스러운 사람들은 자신의 도덕적 나침반에 의존하는 것이 더 나을 것입니다.

 

[그림5 생략] 원문 참조

 

- 결론은 아주 간단합니다: GPT-3는 놀라운 기술이지만 오래된 타자기와 동일한 정도로 지능적이고, 의식이 있고, 똑똑하고, 지각력이 있고, 통찰력이 있고, 민감하고, 현명합니다(Heaven 2020). 할리우드 AI는 좀비나 뱀파이어 같은 영화에서만 볼 수 있습니다. 이제 GPT-3의 결과로 돌아가겠습니다.

 

4 Some Consequences

- 수학적, 의미론적, 윤리적 단점에도 불구하고, 아니 수학적, 의미론적, 윤리적 문제를 다루도록 설계되지 않았음에도 불구하고, GT-3는 많은 사람들보다 글을 더 잘 씁니다(Elkins and Chun 2020). 이 인공신경망의 가용성은 이제 값싸고 좋은 의미론적 인공물을 대량 생산할 수 있는 새로운 시대가 도래했음을 의미합니다. 번역, 요약, 회의록, 의견, 웹페이지, 카탈로그, 신문 기사, 가이드, 매뉴얼, 작성 양식, 보고서, 레시피 등 오늘날에도 여전히 사람의 노력이 필요한 텍스트를 인공지능 서비스가 작성하거나 최소한 초안을 작성할 수 있게 될 것입니다. 이는 워드 프로세서 이후 글쓰기 프로세스의 가장 큰 변화입니다. 가장 중요한 결과 중 일부는 이미 상상할 수 있습니다.

- 적어도 글쓰기가 발명된 이래로 글쓰기가 기능해 온 의미에서 작가들은 할 일이 줄어들 것입니다. 신문은 이미 소프트웨어를 사용하여 금융 거래에 대한 논평이나 증권 거래소의 동향과 같이 실시간으로 제공되고 업데이트되어야 하는 텍스트를 게시하고 있습니다. 또한 스포츠 뉴스와 같이 다소 공식적일 수 있는 텍스트를 작성하는 데에도 소프트웨어를 사용합니다. 지난 5, Microsoft는 수십 명의 기자를 해고하고 MSN의 뉴스 제작을 자동 시스템으로 대체한다고 발표했습니다(Baker 2020).

- 여전히 글쓰기가 직업인 사람들은 점점 더 GPT-3와 같은 도구의 지원을 받게 될 것입니다. 단순한 잘라내기 및 붙여넣기는 잊어버리고 프롬프트 및 데이터 정렬에 능숙해야 할 것입니다. 가디언의 기사의 경우처럼, GPT-3와 같은 시스템이 여러 개의 가치 있는 텍스트를 생성하고 이를 통합해야 하는 경우와 같이 최상의 결과를 제공하는 프롬프트를 지능적으로 형성하고, 얻은 결과를 지능적으로 수집하고 결합(콜레이트)하는 데 필요한 새로운 편집 기술을 배워야 하기 때문입니다. 안타깝게도 인간의 지능이 대체되기 직전에 있다고 보는 사람들에게, 이러한 새로운 직업은 여전히 인간의 두뇌 능력을 많이 필요로 할 것이며, 단지 그 응용만 다를 뿐이라는 점을 상기시키기 위해 "지능적으로"라는 표현을 씁니다. 예를 들어, 고고학 유물의 일부가 사라진 것을 복원하는 것과 마찬가지로 GPT-3와 유사한 도구를 사용하면 텍스트의 누락된 부분을 재구성하거나 텍스트를 완성할 수 있습니다. 슈베르트가 1822년에 시작했지만 완성하지 못한 슈베르트 교향곡 8(Davis 2019)의 마지막 두 악장(처음 두 악장과 마지막 두 악장의 단편만 사용 가능)을 완성한 AI 시스템과 다르지 않게, GPT-3 도구를 사용하여 제인 오스틴의 샌디턴을 작성하고 완성할 수 있습니다.

- 텍스트의 독자와 소비자는 출처가 인공적인지 인간인지 알지 못하는 것에 익숙해 져야합니다. 아마도 그들은 오늘날 우리가 누가 잔디를 깎거나 설거지를 했는지 아는 데 신경 쓰지 않는 것처럼, 눈치 채지 못하거나 심지어 신경 쓰지 않을 것입니다. 미래의 독자들은 오타가 줄어들고 문법이 더 좋아지는 등 개선된 점을 느낄 수도 있습니다. 거의 모든 소비재와 함께 제공되는 사용 설명서와 사용자 가이드는 법적으로 의무화되어 있지만, 작성이나 번역이 매우 부실한 경우가 많습니다. 그러나 다른 맥락에서는 '만약''여부'의 구분을 무시하는 것부터 '구걸하다' 또는 '규칙을 증명하는 예외'와 같은 표현을 잘못 사용하는 것까지, GPT-3는 아마도 인간 제작자로부터 모든 나쁜 언어 습관을 배우게 될 것입니다.

- 언젠가 고전은 인간만이 작성한 것과 인간과 일부 소프트웨어가 공동으로 작성한 것, 또는 소프트웨어만 작성한 것으로 구분될 것입니다. 퓰리처상과 노벨 문학상의 규칙을 업데이트해야 할 수도 있습니다. 이것이 무리한 생각으로 보인다면 저작권에 관한 규정이 이미 적응하고 있다는 점을 고려하세요. AIVA(Artificial Intelligence Virtual Artist)는 프랑스와 룩셈부르크의 SACEM(Société des auteurs, compositeurs et éditeurs de musique)에서 인정하는 전자 음악 작곡가입니다. 그것의 산출물은 저작권의 보호를 받습니다(Rudra 2019).

- 이러한 글쓰기 도구가 일반 대중에게 보편화되면 선한 목적으로 사용되든 악한 목적으로 사용되든 상관없이 더욱 발전할 것입니다. 플라스틱 물건처럼 제작 비용이 무시할 수 있을 정도로 저렴해지기 때문에 사용 가능한 텍스트의 양이 급증할 것입니다. 콘텐츠의 엄청난 증가는 기록할 수 있는 공간에 압력을 가할 것입니다(현재 전 세계에서 사용할 수 있는 물리적 메모리는 한정되어 있으며, 데이터 생산량은 그 크기를 훨씬 초과합니다). 또한 값싼 소설부터 약탈적 저널에 의해 출판되는 수많은 기사에 이르기까지 의미론적 쓰레기가 엄청나게 확산될 것입니다. 단순히 키를 누르면 '쓰여진 것'을 얻을 수 있고 '쓰여진 것'이 출판될 것입니다.

- 텍스트 생산의 산업 자동화는 이미 만연한 두 가지 다른 문제와도 병합 될 것입니다. 한편으로는 온라인 광고가 이를 활용할 것입니다. 많은 온라인 기업의 비즈니스 모델을 고려할 때, 훌륭한 산문을 저렴하고, 빠르고, 의도적으로, 독자를 자동으로 타겟팅할 수 있는 방식으로 생산할 수 있는 GPT-3와 같은 도구를 통해 모든 종류의 클릭베이트가 활성화될 것입니다. GPT-3사용자들의 관심을 끌기 위한 경쟁에서 또 다른 무기가 될 것입니다. 또한, GPT-3와 같은 도구의 광범위한 가용성은 '-코드 플랫폼no-code platforms'의 개발을 지원할 것이며, 이는 마케터가 자연어(서면 또는 음성)로 된 데이터 명령부터 시작하여 반복적인 작업을 자동화하는 애플리케이션을 만들 수 있도록 해줄 것입니다. 반면에 가짜 뉴스와 허위 정보도 증가할 수 있습니다. 모든 종류의 자동화된 텍스트를 사용하면 스타일과 단어 선택에 따라 거짓말이나 오해를 불러일으키는 것이 훨씬 쉬워질 것이기 때문입니다(McGuffieNewhouse 2020). 자동 텍스트 생산, 광고 기반 비즈니스 모델, 가짜 뉴스의 확산이 결합되면서 독자의 취향과 지적 능력(또는 부족함)에 점점 더 맞춘 텍스트를 만들 수 있기 때문에 의견의 양극화와 '필터 버블'의 확산이 증가할 가능성이 높습니다. 결국, 속기 쉬운 사람들은 오늘날 구글에 실존적 질문을 던지는 것처럼 마지막 한 마디를 자동 텍스트 생산자에게 위임할 것입니다.

- 동시에 GPT-3와 유사한 애플리케이션 덕분에 인텔리전스 및 분석 시스템이 더욱 정교해지고 방대한 양의 데이터에서 즉시 인식할 수 없는 패턴을 식별할 수 있을 것으로 기대하는 것은 합리적입니다. 대화형 마케팅 시스템(챗봇)과 지식 관리가 소비자와 생산자, 고객과 기업 간의 관계를 개선할 수 있을 것입니다.

- 이러한 모든 도전에 직면한 인류는 더욱 지능적이고 비판적인 자세를 갖춰야 할 것입니다. 인간과 인공 작업 간의 상호 보완성과 성공적인 인간과 컴퓨터의 상호 작용을 개발해야 할 것입니다. 비즈니스 모델을 수정해야 합니다(광고는 대부분 자원 낭비입니다). 예를 들어, 복원된 고대 꽃병이 개입이 이루어지는 위치를 명확하고 분명하게 보여주는 것과 같은 방식으로, 무엇이 무엇인지를 명확하게 구분할 필요가 있을 수 있습니다. 시맨틱 아티팩트 제작에 대한 책임 배분을 위한 새로운 메커니즘이 필요할 것입니다. 실제로 저작권법은 상품의 복제 가능성에 대응하여 개발되었습니다. 현재와 미래의 시민, 사용자, 소비자들이 자신이 살고 일하는 새로운 인포스피어(플로리디 2014a)와 그 안의 새로운 온라이프 조건(플로리디 2014b)을 인식하고, 따라서 GPT-3와 같은 첨단 디지털 솔루션이 제공하는 엄청난 이점을 이해하고 활용하면서 단점을 피하거나 최소화할 수 있도록 더 나은 디지털 문화가 필요할 것입니다. 이 모든 것이 쉽지 않을 것이므로 가정, 학교, 직장, 사회에서 지금부터 시작해야 합니다.

 

4.1 Warning

- 이 해설은 디지털 방식으로 처리되었지만 소프트웨어나 기타 디지털 첨가물을 넣지 않은 100% 순수한 인간의 의미를 담고 있습니다. 일부 독자에게는 러다이트적인 반응을 불러일으킬 수 있습니다.

 
 
Posted by deanima
,