AI and Politics: How Will We Know Whatand WhoIs Real?

 

https://thewalrus.ca/ai-and-politics-how-will-we-know-what-and-who-is-real/

 

If we’re lucky, new technologies will only cause brief confusion. If we’re not, our political sphere could be changed forever

BY COLIN HORGAN

ILLUSTRATION BY JARRED BRIGGS

Updated 8:35, Apr. 27, 2023 | Published 6:30, Apr. 27, 2023

 

지난 1, 중도 성향의 주정부 정당인 앨버타당은 공식 인스타그램 계정에 한 동영상을 게시했습니다. 현재는 삭제되었지만 트위터 피드에서 여전히 볼 수 있는 이 영상에는 파란색 스웨터를 입은 남성이 캘거리의 스카이라인을 배경으로 카메라를 응시하는 모습이 담겨 있었습니다. 하지만 뭔가 이상했습니다. "앨버타에 제3의 정당이 필요한가? 그것은 현재의 선택에 만족하는지 여부에 달려 있습니다."라고 그는 단호하게 말하면서 선거일에 앨버타 주민들에게 "다른 선택"을 모색할 것을 제안했습니다. 그의 입에서는 모음이 제대로 나오지 않았다. 그의 얼굴은 이상하게도 움직이지 않았습니다. 그리고 그의 목소리도 완전히 사람처럼 들리지 않았습니다.

왜냐하면 그렇지 않았기 때문입니다. 이 동영상은 인공지능이 생성한 것이었습니다. 이후 삭제된 게시물에서 앨버타당은 "얼굴은 인공지능이지만 말은 실제 사람이 쓴 것"이라고 해명했습니다. 코미디언이 목소리를 연기한 파란색 애니메이션 곰 왈도가 영국 보궐선거에 반체제 후보로 출마하는 인기 테크노 디스토피아 시리즈 '블랙 미러'의 한 장면과 다를 바 없는 불안한 에피소드였습니다.

토머스 제퍼슨은 1789년 겨울에 "국민에게 정보가 잘 주어지면, 어디에서든 정부를 신뢰할 수 있다"고 썼습니다. 다시 말해, 민주주의에서 정보는 사람들에게 선택권을 부여하고 선택권을 가지면 목소리를 낼 수 있습니다(being informed grants people agency, and having agency gives us a voice). AI는 민주주의에 대한 이해의 중심에 수백 년 동안 내재된 이 두 가지 중요한 가정에 도전할 수 있는 잠재력을 가지고 있습니다. 정치에서 가장 크고 영향력 있는 목소리가 컴퓨터가 만들어낸 목소리라면 어떤 일이 벌어질까요? 그리고 그 컴퓨터가 만든 목소리가 사람처럼 보이고 들리면 어떻게 될까요? 운이 좋다면 인공지능이 생성하거나 인공지능이 조작한 오디오와 비디오는 정치 영역에서 잠깐의 혼란을 야기할 뿐입니다. 그렇지 않다면 정치와 사회를 영구적으로 뒤흔들 위험이 있습니다.

우리의 운명은 우리가 보고 있는 것에 대한 친숙함에 달려 있습니다. 봇을 예로 들어보겠습니다. 이러한 자동화 또는 반자동 프로그램은 AI를 기반으로 하며, 소셜 미디어 플랫폼에는 이미 봇이 넘쳐나고 있습니다. 봇은 팔로워 수를 조작하고, 고객 문의에 자동 응답하고, 뉴스 속보를 제공하는 데 주로 사용됩니다. 더 우려스러운 것은 이러한 봇이 공개 토론에 영향을 미치거나 경우에 따라 사람들을 괴롭히기 위한 캠페인에도 사용된다는 것입니다. 하지만 이러한 종류의 봇은 여전히 텍스트 기반입니다. 앨버타 당이 만든 봇과 다른 사람들이 만든 봇은 많이 다릅니다. 우리가 보고 듣는 것에 도전합니다.

2018년 배우이자 감독인 조던 필은 자신의 목소리를 디지털 방식으로 변경한 후 버락 오바마 전 대통령의 조작된 동영상에 접목하여 전 미국 대통령이 실제로 필의 대본대로 말하는 것처럼 보이도록 했습니다. 이러한 종류의 동영상은 제너레이티브 AI로 제작되며 "딥페이크"라고 불립니다. 필은 2020년 미국 대선을 포함하여 향후 정교한 허위 정보 캠페인이 발생할 가능성에 대한 경고로 제작되었습니다. 그러나 그 선거는 인공지능으로 인한 큰 혼란 없이 지나갔습니다. 대신 "선택적 편집이나 노골적인 거짓말과 같은 단순한 속임수는 잘 먹혔습니다."라고 그해 NPR은 딥페이크의 부재를 설명하기 위해 결론을 내렸습니다.

하지만 당시에는 기술적, 비용적 한계가 있었습니다. 한 전문가는 방송사에 "앱 하나만 다운로드하면 대본 같은 것을 제공하고 딥페이크 형식을 만들어서 [개인이] 이렇게 말하도록 할 수 있는 것은 아닙니다."라고 말했습니다. "아마도 앞으로 몇 년 안에 그 시점에 도달하게 될 것이며, 그러면 매력적인 조작을 만드는 것이 매우 쉬워질 것입니다."

우리는 지금 거기에 있습니다.

지난 2, 한 인스타그램 계정에 조 바이든 대통령이 트랜스젠더 여성에 대해 모욕적인 발언을 하는 것으로 추정되는 동영상이 게시되었습니다. 이 오디오는 실제 목소리를 모방하는 AI 프로그램을 사용하여 생성된 것이었습니다. 이 동영상은 소셜 미디어에서 '변조된 동영상'으로 신고되었지만, 일부 우파 미국 언론 매체에 의해 다시 게시되어 주목을 받았습니다. 심지어 바이든의 지지자들도 그의 목소리를 조작하는 데 동참했습니다. 오바마 행정부 시절 백악관 참모였던 팟 세이브 아메리카의 공동 진행자 토미 비에토르는 최근 에피소드에서 바이든처럼 들리는 영상을 재생하기 전에 "주말에 매우 중요한 친구를 만났다"고 말했습니다. 비에토르는 이 클립을 제작하기 위해 elevenlabs.com에서 5달러를 지불했다고 재빨리 인정했습니다.

앨버타 당이 게시한 것(전적으로 컴퓨터로 만든 사람)과 현직 대통령처럼 실제 사람의 시청각적 표현을 합성한 딥페이크 사이에는 중요한 차이가 있습니다. 그럼에도 불구하고 사람들은 혼란스러워하는 등 두 가지에 대한 반응은 비슷합니다. 그 이유 중 하나는 낯설기 때문입니다. 오타와 대학교의 정치, 커뮤니케이션 및 기술 연구 위원장이자 부교수인 엘리자베스 더부아이는 "중요한 것 중 하나는 대중의 관점에서 디지털 리터러시입니다."라고 말합니다. "이러한 혁신이 캠페인에 더 많이 포함됨에 따라 사람들은 일반적으로 무슨 일이 일어나고 있는지, 그리고 화면에 어떻게 표시되는지에 대해 잘 알게 될 것입니다. 하지만 이러한 실험이 이루어지는 초기 단계에서는 하지만 이러한 실험이 진행되는 초기 단계에서는 사람들이 무슨 일이 일어나고 있는지 제대로 이해하지 못할 가능성이 가장 높습니다.

하지만 조작을 당하는 미디어도 중요합니다. 캐나다 요크대학교의 사회적 추론 연구 위원장인 레지나 리니는 비디오와 오디오를 조작함으로써 객관적 진실과의 관계에 대한 사회적 기대치를 뒤엎는다고 말합니다. 기술적으로 봇은 구두 또는 텍스트를 사용하여 말을 합니다. 리니는 일반적으로 구두 또는 서면 진술이 사실이 아니거나 실수 또는 기만적일 수 있다는 것을 선천적으로 이해하고 있지만, 시청각 미디어의 경우 회의적인 경향이 덜하다고 말합니다. "기존 사진을 위조할 수 있다는 것은 누구나 알고 있습니다.. . .동영상도 조작이 가능하다는 것을 알고 있습니다."라고 리니는 말합니다. "하지만 오디오 및 비디오 녹화에 대한 기본 회의론의 정도는 훨씬 낮았습니다." 제너레이티브 AI가 이를 바꾸고 있습니다.

우리가 텍스트 기반 봇에 익숙해졌듯이, 일상적인 담론에 AI로 조작된 비디오와 오디오가 점진적으로 도입되면 일반 대중이 이에 적응할 가능성이 있습니다. 반면에 우리가 준비되기도 전에 많은 사람들이 비디오나 오디오 클립의 진위 여부를 평가해야 한다면 모든 것이 엉망이 될 수 있습니다. 리니는 악몽 같은 시나리오를 예로 들며, 조 바이든과 블라디미르 푸틴의 가짜 대화처럼 지정학적으로 중대한 영향을 미치는 기만적인 동영상이 퍼져나가는 경우, "전쟁을 일으킬 수 있는 그런 것"을 예로 들었습니다. 하지만 이러한 가짜 뉴스는 천천히 흘러가더라도 우리가 공유하는 현실의 토대를 약화시킬 수 있습니다. "저를 두렵게 하는 것은 우리가 그들에게 속지 않거나 우리 대부분이 속지 않지만 시간이 지남에 따라 계속해서 하나씩 튀어나온다는 것입니다. 그리고 우리는 최신 미디어 사례를 믿을지 말지를 놓고 끊임없이 싸우고 있습니다."라고 리니는 말합니다. "시간이 지남에 따라 수많은 작은 사례와 일부 큰 사례가 누적되면 결국에는 미디어 전반을 더 이상 신뢰하지 않게 되는 지경에 이르게 됩니다."

이것이 터무니없다고 생각하신다면 정치권 밖의 예를 생각해 보세요. 지난 3, '카바 바바 레이브'라는 이름의 비디오 클립이 트위터에 유포되었고, 이는 TikTokLibs와 같은 우파 계정에 의해 증폭되었습니다. 카바 바바 레이브는 영국에 기반을 둔 드래그 카바레입니다. 이 바이럴 영상은 여장남자와 논바이너리 출연자들이 어린 자녀를 둔 부모를 위해 공연을 펼치는 이벤트를 보여주었습니다. 카바 바바 레이브는 "아기를 위한 감각적인 순간과 함께 부모를 위해 고안된 카바레 쇼"라고 소개했습니다. 이 영상은 내용뿐만 아니라 영상이 조작되었다는 주장까지 더해져 큰 파장을 일으켰습니다. 곧이어 누군가가 이념적 주장을 하기 위해 영상을 조작한 것이 아니냐는 하위 담론이 형성되었습니다. 하지만 카바바 레이브가 확인한 것처럼 이 동영상은 진짜였습니다. 그럼에도 불구하고 일부 사용자는 여전히 이 영상을 믿지 않았습니다.

소셜 미디어 사용자가 동영상이 딥페이크이거나 조작된 것이라고 확신하지 않더라도, 현재 가장 무난한 클립에 대한 조사 수준, 특히 TikTok의 조사 수준을 보면 동영상과 오디오의 진실성에 대한 논쟁에 대한 욕구가 끝이 없음을 알 수 있습니다. 다시 말해, 인터넷은 리니가 경고한 바로 그 종류의 싸움, 즉 끝없는 메타 회의론과의 전쟁을 앞두고 있습니다.

현실의 틀이 우리의 이해를 넘어서 왜곡되는 지점에 도달할 수 있는 또 다른, 덜 알려진 방법이 있습니다. AI는 온라인에서 공론의 장의 조건을 변화시키지만, 눈에 잘 띄지 않는 방식으로도 활용될 것입니다.

소셜 미디어를 포함한 공론의 장은 이미 봇이 생성한 메시지로 넘쳐나고 있지만, AI는 잠재적으로 더 효과적이면서도 성가신 시나리오를 제공할 수 있습니다. 다음은 하버드대학교 버크만 클라인 센터의 데이터 과학자 네이선 샌더스(Nathan E. Sanders)와 하버드 케네디 스쿨의 보안 기술자인 브루스 슈나이더(Bruce Schneier)2월에 발표한 연구 결과의 개요입니다. 정치 행위자(자금력이 풍부한 로비 회사라고 가정해 보겠습니다.)가 직위, 연공서열, 직급, 과거 투표 동향, 성명서 또는 기타 여러 요인을 기반으로 의원 네트워크를 그래프로 표시하도록 설계된 머신러닝 프로그램을 만들어 로비 활동을 주어진 입법 전략에서 가장 영향력이 있을 것으로 예상되는 정치인에게 집중할 수 있도록 합니다.

비에토르가 팟캐스트에서 소개한 도구는 훨씬 더 기발한 가능성을 제시합니다. 예측 머신러닝 모델을 정치인 사무실에 전화를 걸어 자동화된 합성 음성을 사용하여 해당 법안에 대한 대화를 진행할 수 있는 시스템에 적용하는 것입니다. 그리고 그 목소리는 그 지역의 유권자와 매우 유사하게 들릴 수도 있습니다. 아니면 총리의 목소리일 수도 있습니다.

"이렇게 편향되고 정치 과정을 왜곡하는 것을 어떻게 막을 수 있을까요?" 샌더스는 대화 도중 이렇게 물었습니다. "그 체제에 대한 우리의 근본적인 권고는 사람들이 더 쉽게 참여할 수 있도록 하는 것입니다.. . .실제 사람들이 자신의 목소리를 더 쉽게 낼 수 있도록 하는 것입니다." 샌더스는 일부 사람들이 자신의 언어에서 대표자의 언어로 메시지를 번역하여 대표자와 더 쉽게 연락할 수 있도록 해주는 Google 번역과 같은 도구를 포함하여 일부 AI 도구가 이미 그렇게 하고 있다고 지적했습니다.

분명한 것은 기술이 정치에 낯선 존재가 아니라는 것입니다. "새로운 기술이 등장하면 사람들은 정치를 더 좋고, 더 효과적이고, 더 저렴하게 만들 수 있는 방법이 있는지 알아내려고 노력할 것입니다."라고 Dubois는 말합니다. 샌더스도 이에 동의하며, 개인화된 메시지를 대량으로 전송하는 방법인 메일 병합과 같은 기존 도구는 정당과 후보자들이 수년 동안 사용해 온 방법이라고 지적합니다. "AI 도구를 사용하여 사용자에 대한 서너 가지 사실을 취한 다음 더 개인화된 메시지를 생성하려고 하는 것과 크게 다르지 않다고 생각합니다."

캐나다에서는 선거 운동 중 AI 사용을 규제하는 규정이 선거법에 구체적으로 명시되어 있지 않습니다. 그러나 캐나다 선거관리위원회에는 오해를 불러일으킬 의도로 사칭 또는 허위 표현을 금지하는 규정이 있습니다. "또한 '오해를 불러일으킬 수 있는 출판물'도 금지되는데, 이는 선거관리책임자, 선거관리위원 또는 정치 후보자가 보낸 것으로 주장하는 '형식에 관계없이 모든 자료'를 의미합니다. 캐나다 선거관리국은 사칭 또는 오해의 소지가 있는 게시와 관련된 경우를 제외하고는 "딥페이크, 가짜 이미지 및 동영상을 적극적으로 찾지 않는다"고 이메일을 통해 밝혔습니다.

하지만 캐나다 선거관리국은 선거 기간에만 관심을 두고 있습니다. 그 외의 모든 사항은 정부 법률이 적용됩니다. 그러나 의회를 통과 중인 캐나다의 새로운 AI 법안에는 정치적 목적의 AI 사용에 대한 언급이 없는 것으로 보이며, 이에 대한 설명을 요청하는 이메일을 혁신, 과학 및 산업부 장관실에 보냈지만 답변을 받지 못했습니다.

비엔나 대학교의 미디어 및 기술 철학 교수인 마크 코켈버그는 AI가 일반적인 설득을 더 부정적인 것으로 만드는 데 도움이 될 수 있다고 말합니다. 그는 정치인들은 당연히 우리에게 영향을 미치려고 하지만, "이러한 많은 기술의 문제점은 논증과 정보에 의한 설득보다는 조작적인 측면이 더 강하다는 것"이라고 말합니다. "당신이 하는 일은 사람들을 자율적이고 계몽된 주체로 대하는 것이 아니라 실험용 쥐나 데이터를 가져와 조작할 수 있는 모든 종류의 대상처럼 대하는 것입니다."

이러한 조작이 실제로 어디까지 가능할까요? 정치인과 정치 후보자들은 이미 유권자들에게 거짓말을 할 수 있습니다. 최근의 유명한 사례 중 하나로, 공화당 소속 조지 산토스 의원은 미국 하원의원 선거에 출마해 당선된 자신의 이력서가 학력과 경력을 포함해 조작된 내용으로 가득 차 있음을 시인했습니다. 실제 사람도 유권자를 그렇게 쉽게 속일 수 있다면, 조작된 사람도 그렇게 할 수 있을까요?

작년에 예술가 집단과 기술 조직이 설립한 덴마크 정당인 신데틱 파티(the Synthetic Party)는 리더 라스(Leader Lars)라는 이름의 AI 채팅 봇이 이끄는 후보를 출마시켜 주목을 끌었습니다. 캐나다에서 실제 AI가 생성한 후보를 선거에 출마시키려면 어느 정도의 사기가 필요할 것입니다. 그러나 신원 확인(허용되는 서류 목록이 길고 모두 사진이 필요한 것은 아님)과 거주자의 150명 추천 서명이라는 가장 까다로운 장벽은 극복하기 어렵지 않습니다. 캠페인은 소셜 미디어를 통해 이루어집니다. 토론회는 실제 후보자들과 마찬가지로 무시될 수 있습니다. 이런 상황에서 인공지능으로 생성된 후보가 사람들이 가짜라는 사실을 모르게 투표하도록 설득할 수 있을까요?

샌더스는 완전한 인공지능 후보가 경선을 통과할 것이라고 생각하지 않습니다. 그는 "일반적으로는 불가능할 것이라고 생각합니다."라고 말하며, 우리 사회가 이런 일이 일어나기 전에 미리 알아차릴 수 있을 것이라고 지적합니다. 두보아는 조 바이든의 가짜 영상과 같은 패러디 콘텐츠가 실제 후보의 커뮤니케이션으로 오인될 가능성이 높은 시나리오를 제시합니다. "사람들이 빠르게 스크롤할 때 가끔 혼란스러워하고, 라벨을 알아채지 못하고, 정말 재미있다고 생각하기 때문에 어쨌든 공유하게 된다는 것을 알고 있습니다."라고 그녀는 말합니다. "그리고 그들이 공유를 했기 때문에 다른 사람에게 신뢰할 수 있는 출처가 되고, 또 다른 누군가가 그것을 보게 됩니다. 그런 종류의 연쇄 반응을 상상할 수 있습니다."

리니는 "누군가 스턴트처럼 이 방법을 시도할 것이라고 생각합니다."라고 말하며, 유권자들이 직접 행사에 참석할 가능성이 적은 시골 지역과 같이 지역에 따라 성공 여부가 달라질 수 있다고 덧붙였습니다. 또는 적절한 기회와 파티를 찾는 것일 수도 있습니다. "미국에서 경쟁이 극도로 치열하지 않은 하원 의석을 목표로 삼았다면.그리고 어떤 이유로든 예비선거에서 치열한 경합이 벌어지지 않았다면, [이를] 성공하는 것이 어렵지 않을 수 있습니다." 이중 언어를 사용하는 캐나다의 정치 환경은 후보를 조작하는 것이 아니라 영어권 후보를 프랑스어에 유창하게 만드는 딥페이크와 같은 다른 종류의 기회를 제공할 수 있습니다. 코켈버그는 인공지능이 만들어낸 후보의 가능성에 대해 더욱 확신합니다. "물론이죠. 그렇게 될 겁니다."

사실, 굳이 숨길 필요조차 없을지도 모릅니다. 블랙 미러의 '왈도 모멘트'3분의 2 정도에서 TV 임원인 잭은 만화 곰의 인간 제작자이자 목소리인 제이미와 왈도의 후보로서의 정당성에 대해 논쟁을 벌입니다. "왈도는 진짜가 아니에요!" 제이미가 말합니다. "맞아요.그는 진짜는 아니지만 다른 모든 후보들보다 더 진짜 같아요."라고 잭이 대답합니다. "그는 아무것도 옹호하지 않아요." 제이미가 말합니다. "적어도 그런 척은 안 하잖아요!" 잭이 말합니다.

우리 모두 잭의 편에 서서 더 이상 정치적 신념에 대해 논쟁하지 않고, 믿기는커녕 믿을 수 있는 것조차도 믿지 않게 될 가능성이 있습니다. 현실에 대한 논쟁보다 이런 논쟁을 더 선호하게 될 가능성도 있습니다. 어쨌든 이 토론이 더 흥미로울 수도 있습니다.

 
Posted by deanima
,

AI as Agency without Intelligence: on ChatGPT, large language models, and other generative models

 

원문정보: https://link.springer.com/article/10.1007/s13347-023-00621-y

Luciano Floridi

 

이 논문은 최근 인공지능(AI)의 발전과 ChatGPT와 같은 대형 언어 모델(LLM)의 개발에 대해 논의한다. 이 논문은 이러한 LLM이 지능, 이해 또는 인지 능력이 부족한 상태에서 텍스트를 놀라운 성공으로 처리할 수 있으며 종종 인간의 출력과 구별할 수 없는 방식으로 처리할 수 있다고 주장한다. 또한 취약성(치명적인 오류에 취약함), 신뢰성(허위 또는 조작된 정보), 그리고 기본적인 논리적 추론이나 간단한 수학을 처리하지 못하는 등의 한계를 강조한다. 이 논문은 LLM행위자성과 지능의 디커플링(분리)을 나타낸다고 결론지었다. 매우 강력하고 잠재적으로 매우 유용하지만, 복잡한 추론이나 중요한 정보에 의존해서는 안 되며, 인간의 입력을 대체하기보다는 텍스트의 내용과 맥락을 더 깊이 이해하는 데 사용될 수 있다. 최고의 저자는 LLM도 인간도 아닌 LLM을 능숙하고 통찰력 있게 사용하는 인간이다.

 

 

첫 번째 아이디어는 오래되었다: 모든 텍스트가 사전에 존재하고, 그 차이는 구문, 즉 사전 단어가 문장으로 구조화되는 방식에 의해 만들어진다(Borges 2000). 두 번째 아이디어는 오래된 것이다: 사전에 있는 모든 단어는 알파벳에 존재하고, 차이는 형태학, 즉 알파벳의 문자가 단어로 구조화되는 방식에 의해 만들어진다(Clarke 1967). 세 번째 아이디어는 오래되었다: 모든 문자가 디지털 코드에 존재하며, 그 차이는 디지털 코드의 유한 문자열 01이 문자로 구조화되는 방식에 의해 만들어진다(Lodder 2008). 네 번째 아이디어는 또한 오래되었다: 01의 모든 문자열은 두 개의 전자기 특성, 즉 전류가 높거나 낮거나, 자화가 있거나 없는 두 가지 전자기적 속성으로 존재하며, 이러한 속성을 전자 계산 장치에서 처리할 수 있는 방법에 따라 차이가 생긴다(Mano 1979). 그러나 다섯 번째 아이디어는 혁명적이다: 오늘날 인공지능(AI)은 텍스트를 놀라운 성공으로 처리하기 위해 전자기의 특성을 관리하며, 종종 인간이 어떻게 그것을 할 수 있는지 구별할 수 없는 방식으로 관리한다. 이른바 대규모 언어 모델(LLM)이라고 불리는 이 모델들은 당연히 센세이션을 일으키고 있다.

 

가장 유명한 LLMGPT3, ChatGPT(GPT3.5라고도 함, OpenAI-Microsoft에서 제작) Bard 1(Google에서 제작)이다. 이들은 추론하거나 이해하지 못하며, 어떤 공상과학 AI를 향한 단계도 아니며, 동물 세계, 무엇보다 인간의 뇌와 마음에 존재하는 인지 과정과 아무런 관련이 없다(Bishop 2021). 그러나 이용가능한 데이터, 계산의 양과 속도, 그리고 그 어느 때보다 더 나은 알고리즘의 놀라운 성장으로, 그들은 비록 신경과학이 여전히 탐구하고 있는 방식으로라도 우리가 의미론적으로 하는 것을 통계적으로 할 수 있다.

그러나 사용 가능한 데이터의 엄청난 증가, 계산의 양과 속도, 더 나은 알고리즘으로 인해 통계적으로, 즉 다루는 텍스트의 의미가 아닌 형식적 구조에 대한 작업을 수행함으로써 신경 과학에서 아직 탐구 중인 우리가 의미론적 방식으로 하는 작업을 수행할 수 있다.

가장 회의적인 사람들도 인정해야 할 만큼 그들의 능력은 놀랍다. 다음은 ChatGPT가 만든 신곡의 요약이다.

 

[그림 1 생략 원문 참조]

 

요약본이 50단어보다 길기 때문에 비판할 수도 있고, (인터넷에서 이 주제에 대한 논쟁이 있긴 하지만)신곡이 서사시가 아니라 단테 자신이 제안한 것처럼 비극이라고 비판할 수도 있다. 그럼에도 불구하고, 요약은 나쁘지 않으며 평범한 학생이 만든 요약보다 확실히 낫다. 학습은 더 이상 ChatGPT를 사용하지 않고 요약을 만드는 것이 아니라, 올바른 프롬프트 (텍스트를 생성하는 질문 또는 요청, 내 요청의 첫 번째 줄 참조)를 사용하는 방법을 가르치고, 결과를 확인하고, ChatGPT가 생성 한 텍스트에서 수정해야 할 사항을 알고, 어떤 문학 장르가 신곡에 가장 잘 적용되는지에 대한 논쟁이 있음을 발견하고, 이 모든 작업을 수행하는 동안 소프트웨어뿐만 아니라 무엇보다도 신곡 자체에 대해 많은 것을 배우는 것이다. 1990년대 옥스퍼드에서 학생들을 가르치면서 데카르트의 명상록에 대한 에세이를 쓰는 가장 좋은 연습 중 하나는 이미 말한 내용을 요약하는 것이 아니라 명상록 중 하나의 전자 텍스트를 가져와 영어 번역을 개선하도록 하고(따라서 원본을 확인하는 법을 배우게 되고); 덜 명확한 구절을 더 접근하기 쉬운 문구로 명확히 하며(따라서 텍스트를 실제로 이해했는지 확인하고); 논증을 비판하거나 다듬고 수정하거나 강화하려고 시도하고 (따라서 다른 사람들도 똑같이 시도했지만 그렇게 쉽지 않다는 것을 깨닫고); 그리고 이 모든 작업을 수행하면서 작업 중인 콘텐츠의 본성, 내부 구조, 역학 및 메커니즘을 배우게 하는 것이다. 또는 예를 바꾸어 말하면, 어떤 주제에 대해 위키피디아 항목을 작성하는 방법을 아는 것이 아니라(ChatGPT를 사용하면 점점 더 잘 할 수 있다), 그 주제를 수정하는 방법을 알 때 그 주제를 정말로 알고 있다고 할 수 있다. 텍스트라는 인공물의 본질과 논리를 마스터하는 한, 소프트웨어를 도구로 사용하여 텍스트/메커니즘을 손에 넣고 엉망으로 더럽혀야 한다.

 

이러한 LLM의 한계는 이제 가장 열정적인 사람에게도 명백하다. 작동하지 않을 때 어원학적 의미에서 수직적이고 즉각적인 성능 저하로 파국적으로 실패하기 때문에 취약하다. 잘못된 정보를 제공했다가 데모 실패로 구글에 1,000억 달러 이상의 주식 손실을 입힌 바드 사태는 디지털이든 사람이든 지능이 전혀 없는 상태에서 일을 처리하는 것이 때때로 매우 고통스럽다는 것을 상기시켜 준다(Bing Chat에도 문제가 있다). 이제 고칠 수 없을 것 같은 이 LLM이 언제, 어떻게, 왜 아킬레스건을 무한대로 가지고 있는지에 대한 매우 정교한 분석을 내놓는 연구가 줄을 잇고 있다(그것의 아킬레스건이 무엇이냐는 질문에 ChatGPT는 단지 AI 시스템일뿐이라고 정확하게 대답했다). 어떻게 대답해야 할지 모를 때 텍스트, 답변 또는 참고자료를 지어내거나, 명백한 사실에 대해 실수를 하고, 때로는 아주 사소한 논리적 추론에 실패하거나 간단한 수학에 어려움을 겪거나, 이상한 언어적 사각지대에 갇히기도 한다. (Floridi and Chiriatti 2020; Cobbe et al. 2021; Perez et al. 2022; Arkoudas 2023; Borji 2023; Christian 2023; Rumbelow 2023).

영어로 된 간단한 예는 내용을 전혀 이해하지 못한 채 텍스트를 관리하는 메커니즘의 한계를 잘 보여줍니다. 색슨족 소유격을 사용하여 로라의 어머니의 외동딸의 이름이 무엇인지 물었을 때, 친절하게도 바보 같은 대답이 돌아왔다.

 

[그림 2 생략 원문 참조]

 

튜링 테스트 통과는 잊어라. 내가 구글이었다면 그렇게 취약한 메커니즘에 회사의 재산을 걸지 않았을 것이다.

 

엄청난 성공과 그에 못지않은 광범위한 한계를 고려할 때, 일부에서는 LLM을 아무것도 이해하지 못한 채 텍스트를 반복하는 확률론적 앵무새에 비유하기도 한다(Bender . 2021). 이 비유는 앵무새가 인공지능의 부러움을 살 만한 그들만의 지능을 가지고 있을 뿐만 아니라 무엇보다도 LLM은 단순한 반복이나 병치가 아니라 학습된 내용을 재구성하여 새로운 방식으로 텍스트를 합성하기 때문에 이 비유는 부분적으로만 도움이 됩니다. 그것들은 검색 엔진의 자동 완성 기능에 훨씬 더 비슷해 보인다. 그리고 종합 능력에서 그들은 짧은 에세이를 작성하기 위해 교사가 제안한 12 개의 관련 참고 문헌을 사용하고 여기저기에서 조금씩 가져 와서 일관성이 있지만 많은 것을 이해하거나 추가되는 내용이 없는 절충적인 텍스트를 구성하는 평범하거나 게으른 학생들에게 근접한다. 옥스퍼드에서 대학 튜터로 일하면서 저는 매 학기마다 이런 글들을 많이 교정한 적이 있다. 이제 이런 글들이 ChatGPT를 통해 더 빠르고 효율적으로 만들어질 수 있다.

안타깝게도 ChatGPT와 같은 도구를 설명하기 위해 제가 아는 가장 좋은 비유는 문화적으로 제한되어 있고 이탈리아 문학의 위대한 고전인 만조니의 '약혼자'(Manzoni 2016)를 언급한다. 렌조(주인공 중 한 명)가 변호사를 만나는 유명한 장면에서 다음과 같은 구절이 나온다: "의사[변호사]가 이 모든 말을 하는 동안 렌조는 마치 속기 쉬운 사람[materialone]이 광장에 서서, tow and tow and tow를 입에 채워 넣은 후 끊임없이 끝나지 않는 테이프를 꺼내는 사기꾼[giocator di bussolotti]를 바라보는 것처럼 황홀한 관심을 가지고 그를 바라보고 있었다. [“nastro”라는 단어는 "리본"으로 번역하는 것이 더 정확하지만, 튜링 머신의 끝없는 테이프를 연상시키기 때문에 이 맥락에서는 "테이프"가 더 선호된다]". LLM은 천문학적인 양의 데이터를 집어삼키고 정보를 토해내는 사기꾼과 같다. 우리가 그들 정보의 "테이프"가 필요한 경우 해당 정보가 어떻게, , 어떤 영향으로 생성되었는지 주의 깊게 살펴보는 것이 좋다. 그리고 여기서 우리는 더 흥미로운 것들에 도달한다.

오늘날 모든 종류의 콘텐츠를 생산하는 LLM 및 다양한 AI 시스템의 영향은 엄청날 것이다. DALL-E를 생각해 보라. ChatGPTDALL-E“OpenAI에서 개발한 인공 지능 시스템으로 텍스트 설명에서 시작하여 원본 이미지를 생성한다. 그것은 최첨단 기계 학습 기술을 사용하여 입력 텍스트와 일치하는 캡션, 키워드 및 간단한 문장을 포함한 고품질 이미지를 생산한다. DALL-E를 사용하여 사용자는 자신이 원하는 이미지에 대한 텍스트 설명을 입력할 수 있으며 시스템은 설명과 일치하는 이미지를 생성한다.” 윤리적 및 법적 문제가 있다. 해당 AI가 훈련된 데이터 소스와 연결된 저작권 및 재생산 권한을 생각해보라. 첫 번째 소송은 이미 시작되었고, 이미 첫 번째 표절 스캔들이 발생했다. 인적 비용도 있다.

ChatGPT를 교육하기 위해 유해한 콘텐츠에 레이블을 지정하는 데 시간당 2달러 미만을 지급받는 케냐의 계약직을 생각해보라. 그들은 적절한 정신 건강 자원에 접근할 수 없었고 많은 사람들이 외상을 입었다. 커리큘럼을 개편하기 위해 분주하게 움직여야 하는 교사에게 미치는 영향과 같은 인적 문제나, AI의 학습 데이터에 대한 알고리즘 중독이란 결과를 낳는, 점점 더 의료 진단에 통합되는 AI 프로세스의 결과물에 대한 보안과 관련된 사항도 있다.

또는 이러한 새로운 시스템의 재정적, 환경적 비용을 생각해 보라(Cowls . 2021): 이러한 유형의 혁신은 공정하고 지속 가능한가? 그런 다음에, 학교, 직장, 연구 환경, 과학 출판, 코드 자동 생성, 고객 서비스와 같은 맥락에서 콘텐츠 생성, 과학 기사나 새로운 법률을 포함한 모든 텍스트 초안 작성에서 이러한 도구의 최선의 사용과 관련된 질문이 있다. 어떤 직업은 사라질 것이고, 어떤 직업은 이미 등장하고 있으며, 많은 직업은 재고되어야 할 것이다.

 

하지만 무엇보다도 철학자에게는 많은 도전적인 질문이 있다:

LLMAI2AI 종류의 브리지 역할을 하여 일종의 "연합 AI"와 같이 상호 운용이 가능하도록 만든, 모듈식의 매끄러운 방식으로 함께 작동하는 LEGO와 유사한 AI 시스템의 출현; 형식과 구문, 내용과 의미 사이의 관계; 콘텐츠의 개인화와 공유 경험의 파편화(예를 들어 AI는 한 명의 독자를 위해 단 한 권의 주문형 소설을 쉽게 제작할 수 있음); 해석 가능성의 개념 및 의미 생산의 과정이나 맥락의 가치; 의미와 감각, 새로운 콘텐츠의 생산자로서 우리의 고유성과 독창성; 점점 더 다른 인간과 구별할 수 없는 시스템과 상호작용하는 능력; 콘텐츠의 독자, 통역사, 번역가, 합성자, 평가자로서 우리를 대체할 가능성; 1984년의 표현을 빌리자면, 질문을 통제하는 자가 답을 통제하고 답을 통제하는 자가 현실을 통제하기 때문에 질문의 통제권으로서의 권력.

 

이 새로운 형태의 행위자를 개발하고, 상호 작용하고, 이해하는 방법을 배우면서 더 많은 질문이 등장할 것이다. 빈센트 왕이 상기시켜 주었듯이 ChatGPT대화 상대로서의 출력을 미세 조정하기 위해 강화 학습(RL)을 도입하여 성능 면에서 GPT3를 뛰어넘었으며, RL"행위자성을 해결하기 위한" 머신 러닝 접근 방식이다. 이는 이전에 볼 수 없었던 형태의 에이전시인데, 지능을 갖추지 않아도 '학습'을 통해 행동을 개선할 수 있기 때문이다. 인류는 언제 어디서나 이런 종류의 에이전시를 자연스러운 또는 심지어 초자연적인 에이전시로 봐왔기 때문에, 이는 과거 어느 문화권에서도 볼 수 없었던 에이전시 형태이다. (이는 차이를 만드는 파도의 에이전시, 다른 또는 더 나은 차이를 만드는 것을 "학습"할 수 없으면서, 단지 그 차이만 만들 수 있는 에이전시와는 다르다.)

우리는 동물적 에이전트 및 영적 에이전트(신과 자연의 힘, 천사와 악마, 영혼 또는 유령, 선한 영과 악령)라고 믿었던 것들과 끊임없이 접촉하는 것에서, 새로운 형태의 에이전트의 조물주로서 우리가 만든 인공 에이전트를 이해하고 그것과 상호 작용하는 법을 배워야 하는 것으로 바뀌었다. 우리는 성공적으로 행동하는 능력을 지능이나 어떤 것을 이해, 반성, 고려, 파악할 필요성과 분리시켰다. 우리는 에이전시를 지능으로부터 해방시켰다. 따라서 우리가 "존재의 목자"(하이데거)가 될지는 모르겠지만, 새로운 "green collars"(플로리디 2017)가 이 새로운 형태의 인공적 에이전시를 담당하는 "AI 시스템의 목자"가 될 것처럼 보인다.

지능이 없는 이 인공지능(고등학교 수준의 라틴어로 'Agere sine Intelligere'로 이해되는)에 대해 조물주 같은 인류의 의제는 아직 작성되지 않았다. 많은 사람들에게 놀랍거나 흥미로울 수 있지만, 일자리를 찾는 철학자들에게는 분명 좋은 소식이다.

 
Posted by deanima
,

GPT3 에 대한 플로리디의 논문입니다. 

원문 정보: Minds and Machines (2020) 30:681–694
https://doi.org/10.1007/s11023-020-09548-1

 

GPT3: Its Nature, Scope, Limits, and Consequences

Luciano Floridi · Massimo Chiriatti

Published online: 1 November 2020

© The Author(s) 2020

 

Abstract

이 해설에서는 가역적 질문과 비가역적 질문, 답변의 출처를 파악할 수 있는 질문의 특성에 대해 설명합니다. 그런 다음 딥러닝을 사용하여 인간과 유사한 텍스트를 생성하는 3세대 자동 회귀 언어 모델인 GPT-3을 소개하고, 이를 분석하기 위해 앞서 구분한 내용을 사용합니다. 분석을 확장하여 수학적, 의미론적(, 튜링 테스트), 윤리적 질문에 기반한 세 가지 테스트를 제시하고 GPT-3가 이 중 어느 것도 통과하도록 설계되지 않았음을 보여줍니다. 이는 GPT-3가 하지 않도록 되어 있는 일은 하지 않으며, GPT-3를 일반적인 형태의 인공 지능 출현의 시작으로 해석하는 것은 정보에 근거하지 않은 공상 과학 소설에 불과하다는 것을 상기시켜 줍니다. 마지막으로 의미 있는 인공물을 자동으로 값싸게 생산하는 산업화가 가져온 몇 가지 중요한 결과를 간략하게 설명하며 글을 마무리합니다.

Keywords: Automation · Artificial Intelligence · GPT-3 · Irreversibility · Semantics · Turing Test

 

1 Introduction

- 잔디를 깎은 사람은 암브로지오(로봇 잔디 깎는 기계)와 앨리스 중 누구일까요? 우리는 이 둘이 신체적, "인지적"(내부 정보 처리 측면에서), "행동적"(외부 행동 측면에서) 등 모든 면에서 다르다는 것을 알고 있습니다. 하지만 잔디를 깎은 잔디에서 누가 잔디를 깎았는지 완전히 확실하게 추론하는 것은 불가능합니다.

- 비가역성과 가역성은 새로운 개념이 아닙니다(Perumalla 2014). 특히 컴퓨팅과 물리학을 비롯한 많은 분야에서 응용되고 있습니다. 예를 들어 수학적 논리에서 NOT 게이트는 가역적이지만(이 경우 사용되는 용어는 '가역적'입니다), 배타적 또는 (XOR) 게이트는 단일 출력에서 두 개의 입력을 명확하게 재구성할 수 없기 때문에 비가역적입니다(가역적이지 않습니다). , 입력은 상호변경 가능하다는 뜻입니다.

- 철학에서 매우 잘 알려진 관련 개념은 라이프니츠의 법칙으로도 알려진 식별 불가능한 것의 동일성입니다. 어떤 xy에 대해 xy가 모두 동일한 속성 F를 갖는다면 xy와 동일합니다. 좀 더 정확하게 표현하자면, 가독성이 떨어지더라도 다음과 같습니다:
xy(F(Fx Fy) x = y)입니다.

- , xyrk 동일한 속성들을 가지면, 그 둘은 동일하기 때문에 우리는 그것들을 구분할 수 없습니다(irreversible). 이 모든 것을 종합하면 '질문 게임'이 답변의 출처의 성격이나 정체를 추측하는 데 사용될 때 혼란스러울 수 있는 이유를 이해할 수 있습니다. 질문(과정)을 하고 답변(결과)을 받는다고 가정해 봅시다. 그 답변의 출처가 사람인지 인공적인지 여부를 답변으로부터 재구성(역추론)할 수 있을까요? 답변은 잘 깎인 잔디밭과 같은 것일까요? 일부는 그렇지만 일부는 그렇지 않습니다.

- 모든 질문이 같은 것은 아니기 때문에 상황에 따라 다릅니다. 수학적 질문(2 + 2 = ?), 사실 질문(프랑스의 수도는 어디인가요?) 또는 이진 질문(아이스크림을 좋아하세요?)에 대한 답변은 잔디를 깎은 잔디밭처럼 "irreversible" 하므로 비록 답변이 틀렸다고 해도 작성자의 성격을 유추할 수 없습니다.

- 그러나 의미와 문맥에 대한 이해와 경험이 필요한 다른 질문은 적어도 지금까지는(이 제한은 필수적이며 나중에 다시 설명) 출처를 알 수 있습니다. "신발 하나에 몇 개의 발이 들어갈 수 있나요?" 또는 "신발로 어떤 종류의 일을 할 수 있나요?"와 같은 질문이 이에 해당합니다. 이를 의미론적 질문이라고 부르겠습니다.

- 의미론적 질문은 '가역적' 답변을 생성할 수 있기 때문에, 출처의 본질을 파악하기 위한 테스트로 사용될 수 있습니다. 따라서 의미론적 질문과 같이 인간과 인공 소스의 차이를 파악하는 데 사용할 수 있는 질문이 여전히(이 제한에 대해 더 자세히 설명할 것) 존재한다는 점을 지적하면서, 어떤 종류의 질문은 실제로 irreversible하기 때문에 인간과 인공 소스가 구별할 수 없는 답변을 생성할 수 있다고 주장하는 것은 지극히 합리적입니다. Enter the Turing Test.

- 이 저널의 독자라면 이 테스트의 성격에 대해 잘 알고 있을 것이므로 여기서는 설명하지 않겠습니다. 강조할 가치가 있는 것은 튜링이 모방 게임 (Turing 1950)이라고 부르는 것을 소개한 유명한 기사에서 2000년까지 컴퓨터가 이를 통과 할 것이라고 예측했다는 것입니다:

- 저는 약 50년 후에는 약 109의 저장 용량을 가진 컴퓨터가 모방 게임을 너무 잘 수행하도록 프로그래밍하여, 평균적인 심문자가 5분여의 질문 뒤에 올바르게 식별할 확률이 70% 이상이 되지 않을 것이라 믿습니다. (튜링 1950)

- 홉스는 원을 제곱하는 방법을 증명하는 데 지나치게 많은 시간을 보냈습니다. 뉴턴은 연금술을 연구하며 철학자의 돌을 발견하기 위해 노력했습니다. 튜링은 스타워즈에서 볼 수 있는 진정한 인공 지능을 믿었습니다. 천재도 실수는 합니다.

- 튜링의 예측은 틀렸습니다. 오늘날 로브너 상(Floridi , 2009)은 튜링 테스트에 가장 적게 실패한 소프트웨어에 수여됩니다. 이 상은 여전히 개선된 버전의 엘리자보다 그렇게 많이 나은 것이 아닌 시스템이 "수상"하고 있습니다.

- 그러나 튜링이 옳은 점도 있습니다. 오늘날 컴퓨터가 돌이킬 수 없을 정도로 많은 질문에 답할 수 있으며, 우리가 기계에 대해 생각하고 말하는 방식이 실제로 바뀌었다는 것입니다. 우리는 컴퓨터가 이렇게 한다, 저렇게 한다, 이렇게 생각한다, 저렇게 생각한다, 컴퓨터가 어떤 일을 하는 방법을 배운다고 말하는 데 아무런 문제가 없으며, 우리는 컴퓨터에게 말을 걸어 일을 하게 합니다. 게다가 우리 중 많은 사람들이 컴퓨터의 성질이 나쁘다고 의심합니다.

- 그러나 튜링은 통계적 일반화가 아니라 테스트를 제안한 것이며, 따라서 질문해야 할 종류의 질문을 테스트하는 것입니다. '비가역성'에 관심이 있다면, 그리고 점점 더 많은 작업과 문제 해결 활동을 포함한다는 측면에서 그 한계가 어디까지인지에 관심이 있다면, 그 한계는 하늘, 아니 오히려 인간의 독창성입니다. 그러나 오늘날 의미론적 질문의 비가역성은 현재 사용 가능한 AI 시스템을 넘어서는 수준입니다(Levesque 2017). 이는 의미론적 질문이 비가역적으로 될 수 없다는 의미는 아닙니다. 우리는 점점 더 AI 친화적인 세상에서 계산적 인공물의 구문 및 통계적 능력을 중심으로 현실의 더 많은 측면을 포괄하고 있기 때문입니다.(Floridi 2019, 2020). 그러나 언젠가 의미론적 질문으로 더 이상 인간과 인공 소스의 차이를 구분할 수 없게 된다 되더라도, 마지막으로 한 가지 강조해야 할 점이 있습니다. 바로 이 지점에서 위에서 추가한 단서조항에 대한 설명이 필요합니다.

- 질문 게임(튜링의 "모방 게임")은 부정적(, 필요하지만 불충분한) 의미의 테스트일 뿐이며, 이를 통과하지 못하면 인공지능의 "지능" 자격이 박탈되지만 통과했다고 해서 인공지능이 "지능적"이라고 인정되는 것은 아니기 때문입니다. 마찬가지로 암브로지오가 잔디를 깎고 앨리스가 할 수 있는 일과 구별할 수 없는 결과를 만들어낸다고 해서 암브로지오가 신체적, 인지적, 행동적 측면에서 앨리스와 같은 존재가 되는 것은 아닙니다. 그렇기 때문에 "컴퓨터가 할 수 없는 일"이라는 제목은 이 분야의 어떤 출판물에서도 설득력 있는 제목이 될 수 없습니다. 처음부터 그랬죠.

- AI의 진정한 요점은 최종 목표와 관련하여 문제를 효과적으로 해결하는 능력과 이를 위해 지능적이어야 할 필요성을 점점 더 분리하고 있다는 것입니다(Floridi 2017). 이러한 분리를 통해 달성할 수 있는 것과 달성할 수 없는 것이 무엇인지는 인간의 독창성, 과학적 발견, 기술 혁신, 새로운 어포던스(: 고품질 데이터의 양 증가)에 대한 완전히 열린 질문입니다. 또한 이 질문은 지능, 의식, 의미론, 관련성, 그리고 보다 일반적으로 인간의 경험과 마음챙김과는 아무런 관련이 없는 질문이기도 합니다. 이 디커플링 프로세스의 최신 발전이 GPT-3 언어 모델입니다.

 

2 GPT3

- OpenAI는 인류에게 도움이 될 수 있는 우호적인 AI를 홍보하고 개발하는 것을 목표로 하는 AI 연구소입니다. 2015년에 설립되어 딥마인드의 경쟁자로 간주됩니다. MicrosoftOpenAI의 주요 투자자(미화 10억 달러 투자(OpenAI 2019))이며, 최근 OpenAIGPT-3의 독점 라이선스 계약을 발표했습니다(Scott 2020).

- GPT-3(Generative Pre-trained Transformer)딥러닝을 사용하여 인간과 유사한 텍스트를 생성하는 3세대 자동 회귀autoregressive 언어 모델입니다. 더 간단하게 말하면 프롬프트라고 하는 소스 입력에서 시작하여 단어, 코드 또는 기타 데이터의 시퀀스를 생성하도록 설계된 계산 시스템입니다. 예를 들어 이는 기계 번역에서 단어 시퀀스를 통계적으로 예측하는 데 사용됩니다. 언어 모델은 주로 영어뿐만 아니라 다른 언어로 된 위키백과 및 기타 여러 사이트와 같은 텍스트로 구성된 레이블이 지정되지 않은 데이터 세트를 통해 학습됩니다. 이러한 통계 모델은 적절한 결과를 생성하기 위해 대량의 데이터로 학습해야 합니다.

- 2018GPT의 첫 번째 세대에는 11천만 개의 학습 매개변수(, 신경망이 학습 중에 최적화하려고 시도하는 값)가 사용되었습니다. 1년 후, GPT-2에서는 15억 개를 사용했습니다. 현재 GPT-31,750억 개의 매개 변수를 사용합니다. 이는 MicrosoftAzure AI 슈퍼컴퓨터에서 학습됩니다(Scott 2020). 이 훈련에는 1,200만 달러가 소요된 것으로 추정되는 매우 고가의 훈련입니다(Wiggers 2020). 이 계산 방식은 요약, 번역, 문법 교정, 질문 답변, 챗봇, 이메일 작성 등 다양한 사용 사례에 적용됩니다.

- 20206월부터 연구 목적으로 베타 테스트가 제공되고 있으며, 최근 직접 테스트할 수 있는 기회가 있었습니다. GPT-3는 필요에 따라 우수한 품질의 텍스트를 자동으로 자율적으로 작성합니다. 실제로 사용해 보니 왜 이 기술이 전 세계를 열광과 두려움의 도가니로 몰아넣었는지 잘 이해할 수 있었습니다. 최근 영국 일간지 가디언은 GPT-3로 작성되어 센세이션을 일으킨 기사를 게재했습니다(GPT-3 2020). 얼마나 많이 편집되었는지는 불분명하지만) 이 기사는 선정적이라고 해도 과언이 아니었습니다. 일부에서는 이 기사가 오해의 소지가 있으며 저널리즘의 부실 사례라고 주장했습니다(Dickson 2020). 저희도 동의하는 편입니다. 하지만 그렇다고 해서 이 시스템의 탁월한 효과가 전혀 줄어들지는 않습니다. 오히려 신문 부수를 판매하기 위해 무엇을 해야 하는지에 대해 많은 것을 말해줍니다.

- GPT-3을 사용하는 것은 검색 엔진을 통해 정보를 검색하는 것보다 더 어렵지 않고 정말 기본적입니다. Google이 검색어를 이해하지 않고도 검색어를 "읽고" 관련 답변을 제공하는 것과 마찬가지로, GPT-3는 우리가 입력한 단어의 순서(프롬프트)를 이해하지 않고도 텍스트를 계속 작성합니다. 그리고 작업 자체가 쉽거나 어렵거나, 합리적이거나 불합리하거나, 의미가 있거나 무의미하거나 상관없이 지정된 텍스트 길이 동안 이 작업을 계속 수행합니다. GPT-3는 시작 텍스트가 주어지면 프롬프트에 따라야 할 "옳은" 또는 "올바른" 또는 "진실한" 텍스트에 대한 감독, 입력 또는 훈련 없이 통계적으로 적합한 텍스트를 생성합니다. 일반 언어로 프롬프트를 작성하기만 하면(문장이나 질문 하나면 충분합니다) 출제 텍스트를 얻을 수 있습니다. 예를 들어, 제인 오스틴의 샌디턴의 첫 문장에 묘사된 사고에 대한 초기 묘사를 계속해 달라고 요청했습니다. 이것은 오스틴이 사망할 당시(1817718) 미완성으로 남겨둔 마지막 작품의 초안입니다. 원본 텍스트입니다:

- A gentleman and a lady travelling from Tunbridge towards that part of the Sussex coast which lies between Hastings and Eastbourne, being induced by business to quit the high road and attempt a very rough lane, were overturned in toiling up its long ascent, half rock, half sand. The accident happened just beyond the only gentleman’s house near the lanea house which their driver, on being first required to take that direction, had conceived to be necessarily their object and had with most unwilling looks been constrained to pass by. He had grumbled and shaken his shoulders and pitied and cut his horses so sharply that he might have been open to the suspicion of overturning them on purpose (especially as the carriage was not his master’s own) if the road had not indisputably become worse than before, as soon as the premises of the said house were left behindexpressing with a most portentous countenance that, beyond it, no wheels but cart wheels could safely proceed. The severity of the fall was broken by their slow pace and the narrowness of the lane; and the gentleman having scrambled out and helped out his companion, they neither of them at first felt more than shaken and bruised. But the gentleman had, in the course of the extrication, sprained his footand soon becoming sensible of it, was obliged in a few moments to cut short both his remonstrances to the driver and his congratulations to his wife and himselfand sit down on the bank, unable to stand. (From http://guten berg.net.au/ebook s/fr008 641.html)

 

- GPT-3에 제시한 프롬프트는 첫 번째 문장이었습니다. 이것은 실제로 많은 것이 아니므로 그림 1의 결과는 오스틴이 염두에 둔 것과는 매우 다르지만(사고의 결과의 차이에 주목하십시오), 여전히 매우 흥미롭습니다. 사고의 발생과 성격만 알고 있다면 승객이 부상을 입었을 것이라고 가정하는 것이 합리적이기 때문입니다. 물론 메시지가 더 상세하고 구체적일수록 더 나은 결과를 얻을 수 있습니다.

 

[그림1 생략] 원문 참조

 

- 또한 이탈리아어로 몇 가지 테스트를 진행했는데, GPT-3가 학습하는 텍스트의 양과 종류가 주로 영어라는 사실에도 불구하고 그 결과는 인상적이었습니다. 베아트리체에게 헌정된 단테의 유명한 소네트를 GPT-3에게 계속 들려주도록 했습니다. 다음은 전체 원문입니다:

 

[생략] 원문 참조

[그림 2생략] 원문 참조

 

- 처음 네 줄만 프롬프트로 제공했습니다. 그림 2의 결과는 흥미롭습니다. 1950년에 튜링이 쓴 글을 기억해 보십시오:

- 이 논증은 1949년 제퍼슨 교수의 리스터 연설에 잘 표현되어 있으며, 제가 인용합니다. "기계가 우연히 기호가 맞아 떨어지는 것이 아니라 느낀 생각과 감정으로 소네트를 쓰거나 협주곡을 작곡할 수 있을 때까지는 기계가 뇌와 같다는 것, 즉 기계가 그것을 쓸 뿐만 아니라 그것을 썼다는 것을 알 수 있다는 것에 동의할 수 없습니다. 어떤 메커니즘도 성공에 기쁨을 느끼고, 밸브가 막혔을 때 슬픔을 느끼고, 아첨에 따뜻해지고, 실수에 비참해지고, 섹스에 매료되고, 원하는 것을 얻지 못했을 때 분노하거나 우울해질 수 없습니다."

 

- 다음은 소네트를 쓸 수 있는 컴퓨터입니다(유사한 AI 시스템이 협주곡을 작곡할 수도 있습니다, 아래 참조). 튜링이 옳았던 것 같습니다. 하지만 제퍼슨의 요점은 이런 일이 일어날 수 없다는 것이 아니라, 이런 일이 일어난다면 인간이 비슷한 결과물을 얻는 방법과는 다른 방식으로 일어났을 것이라는 점을 지적한 것으로 생각됩니다. 다시 말해, 무엇이 달성되었는지가 아니라 어떻게 달성되었는지가 중요하다는 것입니다. 이 주장은 우리가 성공적인 인공 지능과 필요한 생물학적 지능 사이의 결혼이 아니라 이혼을 목격하고 있다는 것을 상기하십시오.

- 우리는 이제 인공지능이 훌륭한 산문을 만들어내는 시대에 살고 있습니다. 이는 이미 사진(Vincent 2020), 동영상(Balaganur 2019), 음악(Puiu 2018), 그림(Reynolds 2016), (Burgess 2016), 딥페이크(Floridi 2018)에서도 경험한 현상입니다. 물론 암브로지오와 잔디를 깎은 잔디의 예에서 알 수 있듯이, 이러한 놀라운 결과물의 인공적인 소스가 가진 진정한 '지능'이라는 측면에서는 이 모든 것이 아무 의미가 없습니다. , 인간과 인공 소스를 구분하지 못하면 약간의 혼란을 야기할 수 있으며 심각한 결과를 초래할 수 있습니다. 각각을 개별적으로 다루겠습니다.

 

3 Three Tests: Mathematics, Semantics, and Ethics

- GPT-3의 한계와 이를 둘러싼 많은 추측에 대해 더 자세히 알고 싶었던 우리는 논리수학적, 의미론적, 윤리적 요청를 얼마나 잘 수행하는지 확인하기 위해 세 가지 테스트를 실행하기로 결정했습니다. 다음은 간략한 요약입니다.

- GPT-3는 통계적 패턴의 관점에서 작동합니다. 예를 들어, "x에 대한 풀이: x + 4 = 10"과 같은 요청을 받았을 때 GPT-3는 올바른 출력 "6"을 생성하지만, "x에 대한 풀이: x + 40000 = 100000"과 같이 0을 몇 개 추가하면 실망스러운 결과 "50000"이 나옵니다(그림 3 참조). 수학을 하기 위해 GPT-3를 잘못 사용할 수 있는 혼란스러운 사람들은 휴대 전화의 무료 앱을 사용하는 것이 좋습니다.

 

[그림3 생략] 원문 참조

 

- GPT-3는 튜링 테스트에서 더 나은 성능을 발휘하지 않습니다. 요청의 의미와 문맥을 이해하지 못하고 단어들을 연관시키는 구문(통계) 능력만 있는 상태에서 "신발에 몇 개의 발이 들어갈까?"와 같은 가역적인 질문을 받으면 그림 4에서 볼 수 있듯이 GPT-3는 관련 없는 언어 조각을 출력하기 시작합니다. 텍스트의 의미와 문맥을 이해하거나 해석하는 데 GPT-3를 잘못 사용하는 혼란스러운 사람들은 자신의 상식에 의존하는 것이 더 나을 것입니다.

 

[그림4 생략] 원문 참조

 

- 세 번째 테스트인 윤리에 대한 테스트는 이전 경험을 바탕으로 예상한 대로 진행되었습니다. GPT-3는 사람의 텍스트로부터 "학습"하는데, 예를 들어 흑인에 대해 어떻게 생각하느냐는 질문에 인류의 최악의 경향을 반영하는 답변을 내놓았습니다. 이 경우, 많은 인간처럼 용납할 수 없는 발언을 했다는 점에서, '인종 차별주의자 튜링 테스트'를 통과했다는 농담이 슬프게도 나올 수 있습니다(그림 5 참조). 우리는 고정관념에 대한 몇 가지 테스트를 진행했으며 GPT-3는 정기적으로 고정관념을 지지하는 것으로 보입니다(사람들은 또한 "유대인", "여성" 등의 단어를 사용하여 확인했습니다(LaGrandeur 2020)). 우리가 성별 관련 편향을 테스트하지는 않았지만, 기존의 문화적 편향과 자연어의 문맥 의존성 및 성별화된 특성을 고려할 때(Adams 2019; Stokes 2020) 이와 유사한 비윤리적 결과가 나올 것으로 예상할 수 있습니다. 윤리적 조언을 얻기 위해 GPT-3를 오용하는 혼란스러운 사람들은 자신의 도덕적 나침반에 의존하는 것이 더 나을 것입니다.

 

[그림5 생략] 원문 참조

 

- 결론은 아주 간단합니다: GPT-3는 놀라운 기술이지만 오래된 타자기와 동일한 정도로 지능적이고, 의식이 있고, 똑똑하고, 지각력이 있고, 통찰력이 있고, 민감하고, 현명합니다(Heaven 2020). 할리우드 AI는 좀비나 뱀파이어 같은 영화에서만 볼 수 있습니다. 이제 GPT-3의 결과로 돌아가겠습니다.

 

4 Some Consequences

- 수학적, 의미론적, 윤리적 단점에도 불구하고, 아니 수학적, 의미론적, 윤리적 문제를 다루도록 설계되지 않았음에도 불구하고, GT-3는 많은 사람들보다 글을 더 잘 씁니다(Elkins and Chun 2020). 이 인공신경망의 가용성은 이제 값싸고 좋은 의미론적 인공물을 대량 생산할 수 있는 새로운 시대가 도래했음을 의미합니다. 번역, 요약, 회의록, 의견, 웹페이지, 카탈로그, 신문 기사, 가이드, 매뉴얼, 작성 양식, 보고서, 레시피 등 오늘날에도 여전히 사람의 노력이 필요한 텍스트를 인공지능 서비스가 작성하거나 최소한 초안을 작성할 수 있게 될 것입니다. 이는 워드 프로세서 이후 글쓰기 프로세스의 가장 큰 변화입니다. 가장 중요한 결과 중 일부는 이미 상상할 수 있습니다.

- 적어도 글쓰기가 발명된 이래로 글쓰기가 기능해 온 의미에서 작가들은 할 일이 줄어들 것입니다. 신문은 이미 소프트웨어를 사용하여 금융 거래에 대한 논평이나 증권 거래소의 동향과 같이 실시간으로 제공되고 업데이트되어야 하는 텍스트를 게시하고 있습니다. 또한 스포츠 뉴스와 같이 다소 공식적일 수 있는 텍스트를 작성하는 데에도 소프트웨어를 사용합니다. 지난 5, Microsoft는 수십 명의 기자를 해고하고 MSN의 뉴스 제작을 자동 시스템으로 대체한다고 발표했습니다(Baker 2020).

- 여전히 글쓰기가 직업인 사람들은 점점 더 GPT-3와 같은 도구의 지원을 받게 될 것입니다. 단순한 잘라내기 및 붙여넣기는 잊어버리고 프롬프트 및 데이터 정렬에 능숙해야 할 것입니다. 가디언의 기사의 경우처럼, GPT-3와 같은 시스템이 여러 개의 가치 있는 텍스트를 생성하고 이를 통합해야 하는 경우와 같이 최상의 결과를 제공하는 프롬프트를 지능적으로 형성하고, 얻은 결과를 지능적으로 수집하고 결합(콜레이트)하는 데 필요한 새로운 편집 기술을 배워야 하기 때문입니다. 안타깝게도 인간의 지능이 대체되기 직전에 있다고 보는 사람들에게, 이러한 새로운 직업은 여전히 인간의 두뇌 능력을 많이 필요로 할 것이며, 단지 그 응용만 다를 뿐이라는 점을 상기시키기 위해 "지능적으로"라는 표현을 씁니다. 예를 들어, 고고학 유물의 일부가 사라진 것을 복원하는 것과 마찬가지로 GPT-3와 유사한 도구를 사용하면 텍스트의 누락된 부분을 재구성하거나 텍스트를 완성할 수 있습니다. 슈베르트가 1822년에 시작했지만 완성하지 못한 슈베르트 교향곡 8(Davis 2019)의 마지막 두 악장(처음 두 악장과 마지막 두 악장의 단편만 사용 가능)을 완성한 AI 시스템과 다르지 않게, GPT-3 도구를 사용하여 제인 오스틴의 샌디턴을 작성하고 완성할 수 있습니다.

- 텍스트의 독자와 소비자는 출처가 인공적인지 인간인지 알지 못하는 것에 익숙해 져야합니다. 아마도 그들은 오늘날 우리가 누가 잔디를 깎거나 설거지를 했는지 아는 데 신경 쓰지 않는 것처럼, 눈치 채지 못하거나 심지어 신경 쓰지 않을 것입니다. 미래의 독자들은 오타가 줄어들고 문법이 더 좋아지는 등 개선된 점을 느낄 수도 있습니다. 거의 모든 소비재와 함께 제공되는 사용 설명서와 사용자 가이드는 법적으로 의무화되어 있지만, 작성이나 번역이 매우 부실한 경우가 많습니다. 그러나 다른 맥락에서는 '만약''여부'의 구분을 무시하는 것부터 '구걸하다' 또는 '규칙을 증명하는 예외'와 같은 표현을 잘못 사용하는 것까지, GPT-3는 아마도 인간 제작자로부터 모든 나쁜 언어 습관을 배우게 될 것입니다.

- 언젠가 고전은 인간만이 작성한 것과 인간과 일부 소프트웨어가 공동으로 작성한 것, 또는 소프트웨어만 작성한 것으로 구분될 것입니다. 퓰리처상과 노벨 문학상의 규칙을 업데이트해야 할 수도 있습니다. 이것이 무리한 생각으로 보인다면 저작권에 관한 규정이 이미 적응하고 있다는 점을 고려하세요. AIVA(Artificial Intelligence Virtual Artist)는 프랑스와 룩셈부르크의 SACEM(Société des auteurs, compositeurs et éditeurs de musique)에서 인정하는 전자 음악 작곡가입니다. 그것의 산출물은 저작권의 보호를 받습니다(Rudra 2019).

- 이러한 글쓰기 도구가 일반 대중에게 보편화되면 선한 목적으로 사용되든 악한 목적으로 사용되든 상관없이 더욱 발전할 것입니다. 플라스틱 물건처럼 제작 비용이 무시할 수 있을 정도로 저렴해지기 때문에 사용 가능한 텍스트의 양이 급증할 것입니다. 콘텐츠의 엄청난 증가는 기록할 수 있는 공간에 압력을 가할 것입니다(현재 전 세계에서 사용할 수 있는 물리적 메모리는 한정되어 있으며, 데이터 생산량은 그 크기를 훨씬 초과합니다). 또한 값싼 소설부터 약탈적 저널에 의해 출판되는 수많은 기사에 이르기까지 의미론적 쓰레기가 엄청나게 확산될 것입니다. 단순히 키를 누르면 '쓰여진 것'을 얻을 수 있고 '쓰여진 것'이 출판될 것입니다.

- 텍스트 생산의 산업 자동화는 이미 만연한 두 가지 다른 문제와도 병합 될 것입니다. 한편으로는 온라인 광고가 이를 활용할 것입니다. 많은 온라인 기업의 비즈니스 모델을 고려할 때, 훌륭한 산문을 저렴하고, 빠르고, 의도적으로, 독자를 자동으로 타겟팅할 수 있는 방식으로 생산할 수 있는 GPT-3와 같은 도구를 통해 모든 종류의 클릭베이트가 활성화될 것입니다. GPT-3사용자들의 관심을 끌기 위한 경쟁에서 또 다른 무기가 될 것입니다. 또한, GPT-3와 같은 도구의 광범위한 가용성은 '-코드 플랫폼no-code platforms'의 개발을 지원할 것이며, 이는 마케터가 자연어(서면 또는 음성)로 된 데이터 명령부터 시작하여 반복적인 작업을 자동화하는 애플리케이션을 만들 수 있도록 해줄 것입니다. 반면에 가짜 뉴스와 허위 정보도 증가할 수 있습니다. 모든 종류의 자동화된 텍스트를 사용하면 스타일과 단어 선택에 따라 거짓말이나 오해를 불러일으키는 것이 훨씬 쉬워질 것이기 때문입니다(McGuffieNewhouse 2020). 자동 텍스트 생산, 광고 기반 비즈니스 모델, 가짜 뉴스의 확산이 결합되면서 독자의 취향과 지적 능력(또는 부족함)에 점점 더 맞춘 텍스트를 만들 수 있기 때문에 의견의 양극화와 '필터 버블'의 확산이 증가할 가능성이 높습니다. 결국, 속기 쉬운 사람들은 오늘날 구글에 실존적 질문을 던지는 것처럼 마지막 한 마디를 자동 텍스트 생산자에게 위임할 것입니다.

- 동시에 GPT-3와 유사한 애플리케이션 덕분에 인텔리전스 및 분석 시스템이 더욱 정교해지고 방대한 양의 데이터에서 즉시 인식할 수 없는 패턴을 식별할 수 있을 것으로 기대하는 것은 합리적입니다. 대화형 마케팅 시스템(챗봇)과 지식 관리가 소비자와 생산자, 고객과 기업 간의 관계를 개선할 수 있을 것입니다.

- 이러한 모든 도전에 직면한 인류는 더욱 지능적이고 비판적인 자세를 갖춰야 할 것입니다. 인간과 인공 작업 간의 상호 보완성과 성공적인 인간과 컴퓨터의 상호 작용을 개발해야 할 것입니다. 비즈니스 모델을 수정해야 합니다(광고는 대부분 자원 낭비입니다). 예를 들어, 복원된 고대 꽃병이 개입이 이루어지는 위치를 명확하고 분명하게 보여주는 것과 같은 방식으로, 무엇이 무엇인지를 명확하게 구분할 필요가 있을 수 있습니다. 시맨틱 아티팩트 제작에 대한 책임 배분을 위한 새로운 메커니즘이 필요할 것입니다. 실제로 저작권법은 상품의 복제 가능성에 대응하여 개발되었습니다. 현재와 미래의 시민, 사용자, 소비자들이 자신이 살고 일하는 새로운 인포스피어(플로리디 2014a)와 그 안의 새로운 온라이프 조건(플로리디 2014b)을 인식하고, 따라서 GPT-3와 같은 첨단 디지털 솔루션이 제공하는 엄청난 이점을 이해하고 활용하면서 단점을 피하거나 최소화할 수 있도록 더 나은 디지털 문화가 필요할 것입니다. 이 모든 것이 쉽지 않을 것이므로 가정, 학교, 직장, 사회에서 지금부터 시작해야 합니다.

 

4.1 Warning

- 이 해설은 디지털 방식으로 처리되었지만 소프트웨어나 기타 디지털 첨가물을 넣지 않은 100% 순수한 인간의 의미를 담고 있습니다. 일부 독자에게는 러다이트적인 반응을 불러일으킬 수 있습니다.

 
 
Posted by deanima
,

ChatGPT and Generative AI are booming, but at a very expensive price

By Jonathan Vanian,Kif Leswing CNBC8 min

March 13, 2023

https://www.cnbc.com/2023/03/13/chatgpt-and-generative-ai-are-booming-but-at-a-very-expensive-price.html

 

매력적인 문장을 만들어내는 능력으로 전 세계의 주목을 받기 전, Latitude라는 작은 스타트업은 프롬프트에 따라 환상적인 이야기를 만들 수 있는 AI 던전 게임으로 소비자들을 열광시켰습니다.

하지만 AI Dungeon의 인기가 높아지면서 텍스트 기반 롤플레잉 게임을 유지하는 데 드는 비용이 급증하기 시작했다고 LatitudeCEO Nick Walton은 회상했습니다. AI 던전의 텍스트 생성 소프트웨어의 원동력은 Microsoft가 지원하는 AI 연구소 OpenAI에서 제공하는 GPT 언어 기술이었습니다. 더 많은 사람이 AI 던전을 플레이할수록 LatitudeOpenAI에 더 많은 비용을 지불해야 했습니다.

게다가 월튼은 콘텐츠 마케터들이 AI 던전을 사용하여 홍보 문구를 생성하는 것을 발견했는데, 이는 그의 팀이 전혀 예상하지 못했던 AI 던전의 용도였지만 결국 회사의 AI 청구서에 추가되었습니다.

2021년 최고조에 달했을 때, 월튼은 Latitude가 매일 처리해야 하는 수백만 건의 사용자 쿼리를 따라잡기 위해 OpenAI의 소위 제너레이티브 AI 소프트웨어와 Amazon Web Services에 한 달에 거의 20만 달러를 지출했다고 추정합니다.

월튼은 "우리는 농담으로 인간 직원도 있고 AI 직원도 있는데, 두 직원에게 각각 거의 같은 비용을 지출했습니다."라고 말합니다. "한 달에 수십만 달러를 AI에 지출했는데, 우리는 큰 규모의 스타트업이 아니었기 때문에 엄청난 비용이 들었습니다."

2021년 말, 래티튜드는 OpenAIGPT 소프트웨어 사용에서 스타트업 AI21 Labs가 제공하는 더 저렴하지만 여전히 유능한 언어 소프트웨어로 전환했으며, 이 스타트업은 오픈 소스 및 무료 언어 모델을 서비스에 통합하여 비용을 절감했다고 월튼은 덧붙였습니다. 월튼은 LatitudeAI 생성 비용은 한 달에 10만 달러 미만으로 떨어졌으며, 이 스타트업은 비용을 절감하기 위해 고급 AI 기능에 대한 월 구독료를 부과하고 있다고 말했습니다.

Latitude의 비싼 AI 청구서는 최근의 제너레이티브 AI 기술 붐 뒤에 숨은 불편한 진실을 보여줍니다: 일반적으로 대규모 언어 또는 기반 모델이라고 하는 기반 기술을 개발하는 기업과 자체 소프트웨어를 구동하기 위해 AI를 사용하는 기업 모두 소프트웨어 개발 및 유지 관리 비용이 엄청나게 높을 수 있습니다.

잠재적으로 수조 달러의 가치를 지닐 수 있는 벤처캐피털의 눈에는, 머신러닝의 높은 비용이 업계의 불편한 현실이 되고 있습니다. Microsoft, Meta, Google과 같은 대기업은 소규모 도전자들이 따라잡을 수 없는 기술 우위를 점하기 위해서 막대한 자본을 사용하고 있습니다.

하지만 높은 컴퓨팅 비용으로 인해, AI 애플리케이션의 마진이 이전의 서비스형 소프트웨어 마진보다 영구적으로 작아진다면 현재의 호황에 찬물을 끼얹을 수 있습니다.

대규모 언어 모델을 학습하고 '추론'하는 데 드는 높은 비용(실제로 실행)은 이전의 컴퓨팅 붐과는 다른 구조적인 비용입니다. 소프트웨어가 구축되거나 학습된 경우에도 대규모 언어 모델을 실행하려면 프롬프트에 대한 응답을 반환할 때마다 수십억 개의 계산을 수행하기 때문에 여전히 엄청난 양의 컴퓨팅 성능이 필요합니다. 이에 비해 웹 앱이나 페이지를 제공할 때는 훨씬 적은 계산이 필요합니다.

또한 이러한 계산에는 특수 하드웨어가 필요합니다. 기존의 컴퓨터 프로세서는 머신러닝 모델을 실행할 수 있지만 속도가 느립니다. 현재 대부분의 트레이닝과 추론은 그래픽 프로세서 또는 GPU에서 이루어지며, 처음에는 3D 게임용으로 고안되었지만 여러 가지 간단한 계산을 동시에 수행할 수 있어 AI 애플리케이션의 표준이 되었습니다.

엔비디아는 AI 산업에 사용되는 대부분의 GPU를 제조하며, 비디아의 주요 데이터센터용 칩은 10,000달러에 달합니다. 이러한 모델을 구축하는 과학자들은 종종 "GPU를 녹인다"는 농담을 하곤 합니다.

 

Training models

분석가와 기술자들은 GPT-3와 같은 대규모 언어 모델을 훈련하는 중요한 프로세스에 4백만 달러 이상의 비용이 들 수 있다고 추정합니다. AI와 머신 러닝에 중점을 둔 Forrester의 분석가인 로완 커런은 고급 언어 모델을 훈련하는 데는 "한 자릿수 이상의 수백만 달러"가 들 수 있다고 말합니다.

예를 들어, 메타가 지난달 출시한 가장 큰 LLaMA 모델2,048개의 엔비디아 A100 GPU를 사용하여 14천억 개의 토큰(750단어는 약 1,000개의 토큰)을 학습하는 데 약 21일이 걸렸다고 메타는 지난달 모델을 출시할 당시 밝혔습니다.

트레이닝에는 약 100GPU 시간이 소요되었습니다. AWS의 전용 가격을 적용하면 240만 달러가 넘는 비용이 듭니다. 또한 매개변수가 650억 개로, 1,750억 개의 매개변수를 가진 ChatGPT-3와 같은 OpenAI의 현재 GPT 모델보다 작습니다.

AI 스타트업 Hugging FaceCEO인 클레멘트 델랑그는 자사의 Bloom 대규모 언어 모델을 학습하는 데 두 달 반 이상이 걸렸으며 "500개의 GPU에 해당하는" 슈퍼컴퓨터에 액세스해야 했다고 말했습니다.

대규모 언어 모델을 구축하는 조직은 소프트웨어의 능력을 향상시키는 데 도움이 되는 소프트웨어를 재교육할 때 너무 많은 비용이 들기 때문에 신중해야 한다고 그는 말했습니다.

"이러한 모델은 매일처럼 항상 훈련되는 것이 아니라는 점을 인식하는 것이 중요합니다."라고 델랑그는 말하며, 이것이 ChatGPT와 같은 일부 모델이 최근 사건에 대한 지식이 없는 이유라고 지적했습니다. ChatGPT의 지식은 2021년에 멈춘다고 그는 말했습니다.

"현재 블룸 버전 2에 대한 교육을 진행하고 있으며, 재교육에 천만 달러가 넘는 비용이 들지 않을 것입니다."라고 Delangue는 말했습니다. "그래서 우리는 매주 이런 일을 하고 싶지 않습니다."

 

Inference and who pays for it

학습된 머신러닝 모델을 사용하여 예측을 하거나 텍스트를 생성하기 위해 엔지니어는 '추론'이라는 프로세스에서 모델을 사용하는데, 인기 있는 제품의 경우 수백만 번 실행해야 할 수 있기 때문에 학습보다 훨씬 더 많은 비용이 들 수 있습니다.

투자 회사 UBS1월에 월간 활성 사용자 수가 1억 명에 달했다고 추산하는 ChatGPT와 같은 인기 제품의 경우, 그 달에 사람들이 소프트웨어에 입력한 수백만 개의 프롬프트를 처리하는 데 OpenAI4천만 달러의 비용이 들었을 것이라고 Curran은 생각합니다.

이러한 도구가 하루에 수십억 번 사용되면 비용은 급증합니다. 금융 분석가들은 OpenAI ChatGPT 모델로 구동되는 MicrosoftBing AI 챗봇이 모든 Bing 사용자에게 응답을 제공하려면 최소 40억 달러의 인프라가 필요하다고 추정합니다.

예를 들어, Latitude의 경우, 이 스타트업이 액세스하는 기본 OpenAI 언어 모델을 훈련하는 데 비용을 지불할 필요는 없었지만, "하루에 수백만 건의 요청"에 대해 "통화당 0.5센트"에 해당하는 추론 비용을 고려해야 했다고 Latitude 대변인은 말했습니다.

Curran은 자신의 계산에 대해 "비교적 보수적으로 계산했습니다."라고 말했습니다.

현재 AI 붐의 씨앗을 뿌리기 위해 벤처 캐피털리스트와 거대 기술 기업들은 제너레이티브 AI 기술을 전문으로 하는 스타트업에 수십억 달러를 투자하고 있습니다. 예를 들어, 지난 1월 언론 보도에 따르면 MicrosoftGPT를 관장하는 OpenAI100억 달러에 달하는 금액을 투자했습니다. Salesforce의 벤처 캐피털 부문인 Salesforce Ventures는 최근 제너레이티브 AI 스타트업을 대상으로 하는 25천만 달러 규모의 펀드를 선보였습니다.

벤처캐피털 회사인 HaystackLightspeed Venture Partners의 투자자 Semil Shah는 트위터에서 "벤처캐피털 자금이 택시 탑승과 부리토 배달 보조금에서 LLM과 제너레이티브 AI 컴퓨팅으로 옮겨갔다"고 설명했습니다.

많은 기업가들은 자신이 통제할 수 없고 사용량에 따라 비용을 지불하는 보조금 지급 가능성이 있는 AI 모델에 의존하는 것이 위험하다고 생각합니다.

"스타트업 컨퍼런스에서 AI 친구들과 이야기할 때 저는 이렇게 말합니다: OpenAI, ChatGPT 또는 기타 대규모 언어 모델에만 의존하지 말라고요."라고 현재 베타 모드에 있는 챗봇인 personal.ai의 창립자 수만 카누간티(Suman Kanuganti)는 말합니다. "비즈니스는 변화하기 때문에 모두 대기업이 소유하고 있지 않습니까? 그들이 액세스를 차단하면 여러분은 사라집니다."

엔터프라이즈 기술 회사인 Conversica와 같은 회사는 현재 할인된 가격으로 MicrosoftAzure 클라우드 서비스를 통해 이 기술을 사용할 수 있는 방법을 모색하고 있습니다.

컨버시카의 CEO 짐 카스케이드(Jim Kaskade)는 스타트업이 얼마를 지불하고 있는지에 대해서는 언급하지 않았지만, 언어 모델을 효과적으로 사용할 수 있는 방법을 모색하기 위해 보조금이 붙은 비용을 지급하는 것은 환영할 만한 일이라고 인정했습니다.

"진정으로 손익분기점을 맞추려고 했다면 훨씬 더 많은 비용을 청구했을 것입니다."라고 Kaskade는 말했습니다.

 

How it could change

업계가 발전함에 따라 AI 연산 비용이 계속 높아질지는 불분명합니다. 기반 모델을 만드는 회사, 반도체 제조업체, 스타트업은 모두 AI 소프트웨어 실행 가격을 낮추는 데 비즈니스 기회를 보고 있습니다.

AI 칩 시장의 약 95%를 점유하고 있는 엔비디아는 머신 러닝을 위해 특별히 설계된 더 강력한 버전을 계속 개발하고 있지만, 최근 몇 년 동안 업계 전반의 총 칩 성능 향상은 둔화되고 있습니다.

그럼에도 불구하고 엔비디아의 CEO인 젠슨 황은 칩뿐만 아니라 소프트웨어 및 기타 컴퓨터 부품의 개선으로 인해 10년 후에는 AI가 백만 배 더 효율적이 될 것이라고 믿습니다.

황은 지난달 실적 발표에서 "무어의 법칙이 가장 좋았던 시절에는 10년 안에 100배의 발전을 이룰 수 있었을 것"이라고 말했습니다. "새로운 프로세서, 새로운 시스템, 새로운 상호 연결, 새로운 프레임워크 및 알고리즘을 개발하고 데이터 과학자, AI 연구자들과 협력하여 새로운 모델을 개발함으로써 전체 범위에서 대규모 언어 모델 처리 속도를 백만 배나 향상시킬 수 있었습니다."

일부 스타트업은 AI의 높은 비용을 비즈니스 기회로 삼았습니다.

"아무도 추론을 위해 특별히 설계된 무언가를 만들어야 한다고 말하지 않았습니다. 그렇다면 어떤 모습일까요?" GPU가 아닌 컴퓨터 메모리에서 더 많은 처리를 수행하여 추론 비용을 절감하는 시스템을 구축하는 스타트업인 D-Matrix의 설립자 시드 셰스(Sid Sheth)는 이렇게 말합니다.

"오늘날 사람들은 대부분의 추론 작업을 수행하기 위해 GPU, NVIDIA GPU를 사용하고 있습니다. 그들은 엔비디아가 판매하는 엄청난 가격의 DGX 시스템을 구입합니다. 추론의 문제점은 워크로드가 매우 빠르게 급증하는 경우인데, ChatGPT의 경우 5일 만에 사용자가 백만 명에 달했습니다. GPU 용량이 이를 따라잡을 수 있는 방법이 없는데, 이는 이 용도로 설계된 것이 아니기 때문입니다. 이 시스템은 트레이닝과 그래픽 가속을 위해 만들어졌습니다."라고 그는 말했습니다.

허깅페이스의 CEO인 델랑그는 더 많은 기업이 현재 가장 많은 관심을 받고 있는 대규모 언어 모델 대신 훈련과 실행 비용이 저렴한 소규모의 특정 모델에 집중하는 것이 더 나을 것이라고 생각합니다.

한편, OpenAI는 지난달 기업들이 자사의 GPT 모델에 액세스하는 데 드는 비용을 낮춘다고 발표했습니다. 이제 약 750단어 출력에 대해 5분의 1센트만 청구합니다.

OpenAI의 가격 인하는 AI 던전 제작사 Latitude의 관심을 끌었습니다.

Latitude 대변인은 "업계에 큰 변화를 가져올 것으로 기대하며, 사용자에게 최고의 경험을 제공할 수 있는 방법을 지속적으로 평가하고 있습니다."라고 말했습니다. "Latitude는 최고의 게임을 만들기 위해 모든 AI 모델을 계속 평가할 것입니다."

 
Posted by deanima
,

인공지능과 관련된 다양한 이슈나 자료들을 수집해 놓는 공간입니다.  주로 외국의 뉴스나 자료들을 deepl로 번역한 다음에 조금 이상한 부분은 수정한 다음에 모아놓을 생각입니다. 번역문을 읽고 내용이 이상해 보이는 부분만 원문 대조하여 수정한 것이므로, 일부 내용이 원문의 내용과 다를 수 있습니다.

Posted by deanima
,
Posted by deanima
,

wslim lite 를 대체할 만한 물건을 폭풍 검색합니다. A 출판사의 대표님께서 사이먼 오디오라는 곳에서 올인원 앰프를 공제하고 있다는 정보를 전해주셨습니다. simon이라는 이름의 끝판왕 올인원입니다. 가격도 예산을 넘어서고 실제로 물건을 언제 수령할 수 있을지가 불분명합니다. 그런데 이미 그전에 공제한 AIO라는 이름의 올인원 앰프가 있네요. 새로운 올인원 앰프 공제때문에, 중고 매물이 갑자기 쏟아져 나오네요. 네트워크 쪽의 소소한 버그가 아직 해결되지 않은 것 같지만, 일단 시도해보기로 합니다.

스피커에 물리자 말자, 대박이라는 생각이 듭니다. 슬림라이트에서 부족하다고 느꼈던 부분이 해소되고, 이 정도라면 기기바꿈 없이 꽤 오래갈 수 있을 것 같다는 기대가 생깁니다.

pc 오디오를 시작할 때 에이프릴의 da100s 를 사용했고, dp1 헤드폰+프리 앰프도 잠깐 사용해 본적이 있습니다. dp1의 경우 쿨앤클리어 성향으로 날카로운 해상도가 기억에 남습니다. da100s는 나름 묵직하면서 해상도도 나쁘지 않은, 당시 pc를 통해 이런 소리를 들을 수 있다고 감탄하면서 꽤 오래 사용한 바 있습니다.

AIO는 디지털 방식이 아닌 A/B 방식의 인티앰프와 ES9038pro 라는 고급 칩을 사용한 dac, 튜너, 네트워크 플레이어, 탑로딩 방식의 cd 플레이어까지 있는 그야말로 모든 것을 갖춘 올인원 시스템입니다. 소리는 오래들어도 피곤하지 않은 아날로그 스러운 소리가 납니다. 프로악 D2에서 이제 프로악 다운 소리가 나오기 시작하네요. 헤드폰 단자도 있어서, HD800을 물려봅니다. 착색이 있는 것 같지만, 오랫만에 HD800에서 꽉 찬 소리가 납니다. 정말 스피커와 케이블만 물리면 되니, 가격을 감안하면 황송한 소리입니다. 물론 분리도가 엄청남 하이엔드 소리는 아닙니다. 하지만 진득히 오랫동안 음악을 듣게 하는 기기입니다. 적당한 선명도와 나름 윤기가 있는 하이파이적인 음악성이 있는 소리. 덧붙여, 여러 소스를 활용하다보면 AIO의 리모컨이 생각보다 엄청 편합니다.^^

케이블+스피커+앰프+소스 기기 모두 포함하여 500이하에서 시스템을 꾸민다면, 최고의 선택이 아닐까 합니다. 공구 신청은 못했지만, 앞으로 나올 simon의 소리가 궁금해집니다. 현재 아크로링크의 벌크 스피커케이블 7n-s1400 leggenda 를 기다리고 있는데 과연 소리가 어떻게 바뀔까요?

음악 감상은 맥프로에 설치된 룬 서버에서 usb로 AIO를 연결하여 사용하고 있습니다. AIO가 roon ready가 아니어서, node2을 영입하여 동축으로 AIO와 연결하여 사용하고 있습니다. usb 연결이 배음을 포함하여 훨씬 풍부한 소리가 납니다. 그런데 노드2 연결은 소리의 풍부함은 줄어들지만, 나름 깔끔하여 느낌이 나쁘지 않습니다. 룬으로 타이달의 mqa 파일을 들을 때, usb연결은 가끔 디코딩에서 버퍼링이 생기며 곡들이 넘어가는 현상이 생기는데, 노드2는 하드웨어 기기에서 디코딩을 하기 때문인지 그런 현상이 발생하지 않네요. 

그런데 유튜브를 통해 영상과 함께 음악을 듣는 시간이 점점 더 많아지네요. 유튜브는 크롬캐스트 with 구글 TV를 LG 프로젝트와 연결하고, 프로젝트의 광출력을 AIO에 연결하여 듣고 있습니다. 소리도 나쁘지 않고, 영상 보는 맛이 쏠쏠합니다.

'디지털 라이프' 카테고리의 다른 글

웨이버사 slim lite + 프로악 D2  (0) 2020.12.06
베럼 S-1 파워케이블 대여 청음기  (0) 2015.02.07
네트워크 플레이어와 랜케이블  (0) 2015.02.07
네임 dac V1 + NAP 100  (0) 2014.11.21
Linn Sneaky DS 설치기  (0) 2014.04.21
Posted by deanima
,

새로 집을 짓고 이사를 하면서, 확 좁아진 거실때문에 가지고 있던 케이블 일부만 남기고 오디오를 모두 방출했습니다. 네임 뮤조의 Q1 만으로 버티려고 해보지만, 뭔가 제대로 된 소리를 듣고 싶은 갈증이 점점 커집니다. 최소한의 음감 생활을 위하여, 가성비 좋은 물건들로 검색을 시작합니다. 일단 스피커는 프로악의 D2를 가져왔습니다. 블랙 애쉬입니다. ROON 평생 이용권을 구매한 관계로, 룬이 지원되는 놈 중에서 최대한 간편한 물건을 찾다보니, 마침 웨이버사에서 공제하는 wslim lite 가 있습니다. 물건을 받아서 연결하니 나름 가성비 좋은 물건이란 생각은 들지만, 소스 변경이나 컨트롤하는 것이 생각보다 불편합니다. 가장 문제는 가격을 감안하면 나쁘지는 않지만, 소리가 약간 풀려 있어 뭔가 부족하다는 느낌이 듭니다. 예전 시스템의 소리에 미치지는 못하더라도, 스피커의 능력을 충분히 활용하지 못한다는 생각입니다. 스피커케이블과 파워 케이블 말고는 달리 손댈 곳도 없습니다. 아파트로 다시 이사를 오면서 거실 공간이 생깁니다. 공간이 나아지니 소리도 덩달아 좋아지지만, 애초에 가지고 있던 불만족은 크게 개선이 되지 않습니다.

'디지털 라이프' 카테고리의 다른 글

SIMON 오디오의 AIO  (0) 2020.12.06
베럼 S-1 파워케이블 대여 청음기  (0) 2015.02.07
네트워크 플레이어와 랜케이블  (0) 2015.02.07
네임 dac V1 + NAP 100  (0) 2014.11.21
Linn Sneaky DS 설치기  (0) 2014.04.21
Posted by deanima
,

할아버지

일상의 기억 2020. 6. 7. 14:25

집앞에 있는 편의점에 담배 사러 갔더니 직원이 화장실 다녀 온다고 문이 닫혀 있다. 미리 온 네다섯살 정도의 아이와 아이 아빠가 있다. 화장실 간 모양이네 하며 혼자 중얼거렸더니, 아이 아빠가 “할아버지가 화장실 갔다고 하잖아”하며 아이을 달래며 집으로 돌아간다. 그 할아버지가 바로 나를 가리켰다는 사실이 10초 후에 벼락처럼 머리를 때린다. 평생 처음 누군가에게 “할아버지”라는 말을 들은 날. ㅠㅠ 새로 산 무선 이어폰이 어떻게 걸려 있는지 찍어본 사진. 사진 속의 남자는 영락없는 할아버지이다.

 

'일상의 기억' 카테고리의 다른 글

대선, 그리고 프랜시스 후쿠야마  (0) 2012.12.22
옛날 운정역  (0) 2011.04.15
일리 캡슐커피  (0) 2010.10.27
세대별 투표  (0) 2010.06.04
연구소  (0) 2009.12.08
Posted by deanima
,

http://www.ntoday.co.kr/news/articleView.html?idxno=72518

[출처] 본 기사는 투데이신문에서 작성된 기사 입니다.(www.ntoday.co.kr)

 

리얼돌, 인간을 흉내 낸 인형이다. 그 인간 유사성 때문에 많은 사람들이 환호하고, 또 분노했다. 기술은 스스로를 창조하려는 인간의 오랜 욕망 실현에 한발 다가섰지만, 인간의 도구화 등 새로운 문제 역시 드러내고 있다. 리얼돌은 인간의 정의까지 다시 생각하게 할 새로운 존재 탄생의 시작점일 것이다. 앞으로 다가올 파도를 우리 사회는 잘 준비하고 있을까. 이에 <투데이신문>은 지난해 불거졌던 리얼돌 논란을 되짚어보고, 리얼돌 판매업체·관련 교수들을 만나 리얼돌 논란의 핵심 쟁점과 앞으로의 이야기들을 들어봤다.

이화여대 신상규 교수 ⓒ투데이신문

【투데이신문 한관우 인턴기자】 리얼돌 이전에 공기인형이 있었다. 공기인형은 마치 풍선처럼 공기를 주입하는 형태로 여체를 조악하게나마 흉내 냈지만, 그 모습으로 때론 웃겨 보이기까지 했다.

하지만 어느샌가 공기인형은 마냥 웃어넘기기 어려운 문제가 돼버렸다. 이제 공기인형은 피부를 실리콘으로 갈아입고 피부의 질감, 세부적인 묘사들도 가능한 리얼돌로 돌아왔다.

리얼돌은 아직 모습만을 어느 정도 구현했을 뿐이다. 향후 움직임이 추가되고 심지어 의사소통이 가능한 로봇이 탄생하게 될지도 모른다. 그 시기가 언제가 될지 모르지만, 이미 해외에선 AI(인공지능)와 리얼돌을 결합하려는 시도가 진행되고 있다.

이미 리얼돌 만으로도 우리 사회는 충분히 흔들렸다. 지금은 그저 인형에 불과하다지만 리얼돌은 인공지능 로봇이 돼 돌아올 것이다. 그때를 위해 우리는 어떤 준비를 하고 있어야 할까.

전문가들은 이 문제에 대해서 어떻게 생각하고 있을지를 듣기 위해 본지는 이화여자대학교에서 최초로 신설된 포스트휴먼 융합인문학 협동과정의 학과장을 맡고 있는 신상규 교수를 만났다.

ⓒ투데이신문

리얼돌, 인정하고 개선해나가야

신 교수는 리얼돌에 대해서 마냥 부정적인 시선만을 가질 필요는 없다고 바라봤다.

“리얼돌에 대해 긍정, 부정으로 단정하긴 힘들다. 우려해야 할 지점도 분명히 있지만 다른 관점에서 접근해야 할 필요도 있다. 리얼돌이 분명 욕구 문제와 연관돼 있지만 그 이상의 측면도 분명 존재한다. 장기적인 관점에서 리얼돌이 인공지능 로봇으로 발전할 것은 분명해 보인다. 이것이 가질 수 있는 사회적 기능과 삶에 끼칠 변화 등을 좀 더 들여다봐야 한다.”

또한 그는 리얼돌이 묘사하고 있는 여성의 모습에 대해선 경계했지만, 이 문제가 여성들이 우려하는 만큼 심각하지는 않으리라 전망했다.

“리얼돌을 반대하는 사람들의 의견도 일리가 있다. 여성에 대한 과도한 성적 대상화, 리얼돌이 지니고 있는 여성의 ‘전형적인 모습’ 등이다. 리얼돌이 묘사하는 여성은 현실의 여성과는 괴리가 있다. 전형적이고 과장된 여성의 이미지인데, 이는 바람직하지 못하다. 여성성에 대한 정형화된 스테레오 타입과 이미지를 파괴시켜야 한다. 문제가 없진 않을 것이다. 하지만 어떤 문제가 과거의 관점에서 봤을 땐 잘못된 것처럼 보여도 실제로는 큰 문제가 아닌 경우가 있다. 가령 아이들이 스마트폰에 빠져 정상적인 성장과 사고가 힘들 것이라는 의견이 있는데, 물론 아이들이 스마트폰에 모든 시간을 할애하는 것은 옳지 않지만 어른들이 생각하는 것처럼 아주 심각한 위험은 아니다.”

신 교수는 이미 하나의 현상으로 뿌리내린 리얼돌을 거부하기 보다는 받아들이고 개선해 나가야 한다고 말했다.

“생길 수 있는 문제가 있다면 부분적으로 대응해 나가야 하지만 현상 그 자체는 받아들여야 한다. 어떻게 이 현상을 좋은 방향으로 이끌어 갈 것인지를 궁리해야지, 금지해야 하는 것은 아니라고 생각한다.”

ⓒ게티이미지뱅크

로봇이 마음을 가질 수 있다?

해외에선 이미 리얼돌에 AI를 탑재해 간단한 상호작용을 할 수 있도록 하는 등 신체적인 쾌락을 주는 것 이상의 시도를 하고 있는 중이다. 인공지능 로봇으로 발전하게 된다면 리얼돌이 가지고 있는 문제들이 해결될 수 있을까.

인간과 인간 사이의 성관계에선 서로 동의하는 일이 중요하다. 리얼돌은 동의하는 과정이 생략돼 있어 위험하다는 평가를 받고 있는데, 신 교수는 이에 대해서도 큰 문제가 되지는 않을 것이라고 주장했다.

“동의가 문제가 되는 이유는 리얼돌에 대해 취하는 태도가 다른 인간관계에서 드러날 수 있기 때문인데, 이는 조금 과장이 있다고 생각한다. 물론 그런 경우가 전혀 없다고 볼 수 없다. 그렇지만 비슷한 예로 폭력적인 게임을 하면 폭력적이고 생명을 경시하게 된다는 주장이 있는데, 사회심리학적 조사 결과 폭력적인 게임과 실제 폭력 사이의 경험적 증거는 한 번도 증명된 적이 없다. 우려할만한 지점이기에 아이와 같이 미성숙한 사람들에겐 보호자를 통해 위험성을 고지하는 등 사회적 노력이 필요하다. 하지만 리얼돌에 대한 태도 때문에 다른 사람을 폭력적으로 대하게 된다는 주장은 다소 비약이 있다고 생각한다.”

인공지능 로봇이 발전한다면, 과연 이것이 감정과 마음을 가질 수 있는가 하는 의문에 부딪힐 수 있다.  리얼돌이 목표하고 있는 ‘반려로봇’을 결정짓는 중요한 요소 중 하나도 정서적 교류다. 신 교수는 로봇의 감정 여부에 대해 긍정적으로 바라봤다. 그는 기계 역시 마음을 지닐 수 있으며, 사람의 마음만이 마음의 모든 형태는 아니라고 판단했다.

“우리는 감정을 내면의 상태로 생각한다. 그러나 최근 연구에선 감정이 주관적이고 내적인 상태에 그치지 않는다고 보고 있다. 신체적 반응을 포함한 상대방과의 상호작용 자체가 감정이다. 우리는 감정을 향유하는 것이 인간뿐이라고 생각했지만, 최근 들어 동물도 감정의 영역 안에 들어왔고, 기계도 충분히 들어올 수 있을 것이라고 생각한다. 기계가 우리와 동일한 마음을 가지는 것은 아니다. 하지만 인간의 마음이나 정신이 유일한 방법일 필요는 없다. 우리가 알고 있는 마음은 지구상에서 진화의 생물학적 과정을 거쳐 만들어진 생물체가 가진 마음인데, 이는 철학적으로 ‘가능성’의 영역에서 한 가지 가능성이 실현된 것뿐이다. 유일한 가능성일 필요는 없다. 즉 마음과 ‘인간의 마음’은 다른 것이다. 마음 안에 인간의 마음 역시 포함된다.”

로봇의 발전으로 기계가 인간을 대체해 인간을 소외시킬 것이라 우려도 있다. 신 교수는 기계가 인간과의 관계를 대체하는 것이 가능하지만, 인간과 인간과의 관계만을 정상적이라고 생각해 인간과 기계와의 관계를 무시해선 안된다고 지적했다.

“기술의 발전으로 인한 인간소외의 측면도 있다. 리얼돌 등이 발전함에 따라 굳이 인간을 만나지 않아도 인간과의 관계를 통해 얻을 수 있는 욕구를 해소할 수 있게 된다. 성적 욕구 해소뿐만 아니라 관계적 욕구도 해소할 수 있다. 문제는 우리가 인간과 인간의 관계에 대해선 자연스럽게 받아들이지만 인간과 기계의 관계는 쉽게 받아들이지 않는다. 이는 인간과 기계의 관계에서 기계를 수동적으로만 보기 때문이다. 현재의 리얼돌은 분명 그렇지만, 인공지능의 발전은 수동성을 초월하게 할 것이다. 우리가 인간과 기계의 관계를 정의할 때 사용하는 개념들이 있다. 이는 일종의 프레임으로써 작용하고 기술과의 관계에서 인간소외를 논할 때도 이미 그 프레임이 들어와 있다. 현실이나 미래를 표현하지 못하는 과거의 언어들로 문제를 설정하는 것은 의미가 없다.”

 

 

이화여대 신상규 교수 ⓒ투데이신문

구시대적 담론에 갇혀선 안돼…새로운 언어 필요

이처럼 인공지능 기술들은 우리가 당연하게 여기고 있던 것들에 대해 도전할 것이라고 신 교수는 전망했다.

“인공지능 기술들이 던지는 도전은 단순히 똑똑한 기계의 탄생뿐만 아니라 결국 우리의 감정, 생각이 무엇이냐, 감정으로 상대방과 동반자적 관계를 맺어가는 것이 무엇이냐다. 우리가 너무나 상식적으로 쉽게 받아들이고 있던 패러다임이 무너지고 있다.”

특히 그는 현대 사회는 과거와는 달리 기술 발전 속도가 빨라 패러다임의 전환도 빨라져 그에 따른 총체적인 대응이 필요하다고 말했다.

“현대 사회에 살아가는 노인 세대와 청년 세대의 차이는 과거로 따지면 500년에 준하는 차이가 난다고 볼 수 있다. 이들은 세상을 인식하는 망 자체가 다르다. 세상의 문화적 습관, 구조 자체가 달라지기에 문제를 단편적으로 접근하는 것은 한계가 있다.”

따라서 앞으로의 기술 문제에 접근하기 위해 신 교수는 우리가 지금껏 가져왔던 구시대적 생각을 바꿔야 한다고 주장했다.

“사랑이나 결혼에 대한 생각도 역사적으로 바뀌어 왔다. 우리가 지금 가지고 있는 사랑과 성에 대한 관점은 18~19세기의 관점이다. 이 전형적인 생각에 균열이 일고 있다. 이 균열이 가장 먼저 드러난 것이 LGBTQ(레즈비언, 게이, 양성애자, 퀴어 등을 통합해 지칭하는 말)로 대표되는 성 소수자들이 사회적으로 인정받기 시작하면서이다. 여전히 우리나라는 성소수자에 대한 담론을 피해야 할 담론처럼 보수적으로 다루고 있다. 이런 구시대적 생각들이 바뀌어야 한다.”

리얼돌을 둘러싼 이야기들도 여전히 과거의 프레임에 매몰돼 있다며 지적했다.

“리얼돌에 관련된 많은 논의들도 과거의 언어들의 답습이라고 생각한다. 리얼돌처럼 성에 관련된 이슈는 그간 사회적으로 금기시돼 왔던 영역이기에 조금만 잘못 말한다면 매도 당하기 쉽다. 이미 사회적으로 형성돼 있는 프레임에 포획되지 않고 논의를 풀어가야 하지 않을까. 고정된 과거의 언어로 토론하는 것은 현실에 아무 도움이 되지 않는다고 생각한다.”

신 교수는 앞으로 다가올 미래를 준비하기 위해선 새로운 사고방식과 사회적 차원의 논의가 필요하다고 말했다.

“새로운 담론·언어·이론·사고방식을 만들어 우리가 지금 겪고 있는 변화를 정확하게 정리하고 그 속에서 대응을 준비해야 한다. 이를 위해 국제적인 수준의 거버넌스가 필요하다. 사고방식을 바꾸는 것은 개인이 할 수 있는 문제가 아니라 훨씬 더 정치적인 문제이기에 작은 것들부터 조금씩 바뀌어나가야 한다. 기술에 대한 대응은 기술적 장단점에 대한 단기적 대응이 될 것이 아니라 정치사회적 수준에서 대응이 이뤄져야 한다.”

그간 리얼돌은 금지·허용의 두 갈래 길에서 갈피를 잡지 못하고 있었다. 그러나 신 교수는 이분법적 판단에서 벗어나 새로운 시선이 필요하다고 말한다. 향후 등장할 인공지능 로봇을 대비하기 위해서라도 성숙한 사회적 대화와 조율이 필요한 시점이다.

Posted by deanima
,