GPT3 에 대한 플로리디의 논문입니다. 

원문 정보: Minds and Machines (2020) 30:681–694
https://doi.org/10.1007/s11023-020-09548-1

 

GPT3: Its Nature, Scope, Limits, and Consequences

Luciano Floridi · Massimo Chiriatti

Published online: 1 November 2020

© The Author(s) 2020

 

Abstract

이 해설에서는 가역적 질문과 비가역적 질문, 답변의 출처를 파악할 수 있는 질문의 특성에 대해 설명합니다. 그런 다음 딥러닝을 사용하여 인간과 유사한 텍스트를 생성하는 3세대 자동 회귀 언어 모델인 GPT-3을 소개하고, 이를 분석하기 위해 앞서 구분한 내용을 사용합니다. 분석을 확장하여 수학적, 의미론적(, 튜링 테스트), 윤리적 질문에 기반한 세 가지 테스트를 제시하고 GPT-3가 이 중 어느 것도 통과하도록 설계되지 않았음을 보여줍니다. 이는 GPT-3가 하지 않도록 되어 있는 일은 하지 않으며, GPT-3를 일반적인 형태의 인공 지능 출현의 시작으로 해석하는 것은 정보에 근거하지 않은 공상 과학 소설에 불과하다는 것을 상기시켜 줍니다. 마지막으로 의미 있는 인공물을 자동으로 값싸게 생산하는 산업화가 가져온 몇 가지 중요한 결과를 간략하게 설명하며 글을 마무리합니다.

Keywords: Automation · Artificial Intelligence · GPT-3 · Irreversibility · Semantics · Turing Test

 

1 Introduction

- 잔디를 깎은 사람은 암브로지오(로봇 잔디 깎는 기계)와 앨리스 중 누구일까요? 우리는 이 둘이 신체적, "인지적"(내부 정보 처리 측면에서), "행동적"(외부 행동 측면에서) 등 모든 면에서 다르다는 것을 알고 있습니다. 하지만 잔디를 깎은 잔디에서 누가 잔디를 깎았는지 완전히 확실하게 추론하는 것은 불가능합니다.

- 비가역성과 가역성은 새로운 개념이 아닙니다(Perumalla 2014). 특히 컴퓨팅과 물리학을 비롯한 많은 분야에서 응용되고 있습니다. 예를 들어 수학적 논리에서 NOT 게이트는 가역적이지만(이 경우 사용되는 용어는 '가역적'입니다), 배타적 또는 (XOR) 게이트는 단일 출력에서 두 개의 입력을 명확하게 재구성할 수 없기 때문에 비가역적입니다(가역적이지 않습니다). , 입력은 상호변경 가능하다는 뜻입니다.

- 철학에서 매우 잘 알려진 관련 개념은 라이프니츠의 법칙으로도 알려진 식별 불가능한 것의 동일성입니다. 어떤 xy에 대해 xy가 모두 동일한 속성 F를 갖는다면 xy와 동일합니다. 좀 더 정확하게 표현하자면, 가독성이 떨어지더라도 다음과 같습니다:
xy(F(Fx Fy) x = y)입니다.

- , xyrk 동일한 속성들을 가지면, 그 둘은 동일하기 때문에 우리는 그것들을 구분할 수 없습니다(irreversible). 이 모든 것을 종합하면 '질문 게임'이 답변의 출처의 성격이나 정체를 추측하는 데 사용될 때 혼란스러울 수 있는 이유를 이해할 수 있습니다. 질문(과정)을 하고 답변(결과)을 받는다고 가정해 봅시다. 그 답변의 출처가 사람인지 인공적인지 여부를 답변으로부터 재구성(역추론)할 수 있을까요? 답변은 잘 깎인 잔디밭과 같은 것일까요? 일부는 그렇지만 일부는 그렇지 않습니다.

- 모든 질문이 같은 것은 아니기 때문에 상황에 따라 다릅니다. 수학적 질문(2 + 2 = ?), 사실 질문(프랑스의 수도는 어디인가요?) 또는 이진 질문(아이스크림을 좋아하세요?)에 대한 답변은 잔디를 깎은 잔디밭처럼 "irreversible" 하므로 비록 답변이 틀렸다고 해도 작성자의 성격을 유추할 수 없습니다.

- 그러나 의미와 문맥에 대한 이해와 경험이 필요한 다른 질문은 적어도 지금까지는(이 제한은 필수적이며 나중에 다시 설명) 출처를 알 수 있습니다. "신발 하나에 몇 개의 발이 들어갈 수 있나요?" 또는 "신발로 어떤 종류의 일을 할 수 있나요?"와 같은 질문이 이에 해당합니다. 이를 의미론적 질문이라고 부르겠습니다.

- 의미론적 질문은 '가역적' 답변을 생성할 수 있기 때문에, 출처의 본질을 파악하기 위한 테스트로 사용될 수 있습니다. 따라서 의미론적 질문과 같이 인간과 인공 소스의 차이를 파악하는 데 사용할 수 있는 질문이 여전히(이 제한에 대해 더 자세히 설명할 것) 존재한다는 점을 지적하면서, 어떤 종류의 질문은 실제로 irreversible하기 때문에 인간과 인공 소스가 구별할 수 없는 답변을 생성할 수 있다고 주장하는 것은 지극히 합리적입니다. Enter the Turing Test.

- 이 저널의 독자라면 이 테스트의 성격에 대해 잘 알고 있을 것이므로 여기서는 설명하지 않겠습니다. 강조할 가치가 있는 것은 튜링이 모방 게임 (Turing 1950)이라고 부르는 것을 소개한 유명한 기사에서 2000년까지 컴퓨터가 이를 통과 할 것이라고 예측했다는 것입니다:

- 저는 약 50년 후에는 약 109의 저장 용량을 가진 컴퓨터가 모방 게임을 너무 잘 수행하도록 프로그래밍하여, 평균적인 심문자가 5분여의 질문 뒤에 올바르게 식별할 확률이 70% 이상이 되지 않을 것이라 믿습니다. (튜링 1950)

- 홉스는 원을 제곱하는 방법을 증명하는 데 지나치게 많은 시간을 보냈습니다. 뉴턴은 연금술을 연구하며 철학자의 돌을 발견하기 위해 노력했습니다. 튜링은 스타워즈에서 볼 수 있는 진정한 인공 지능을 믿었습니다. 천재도 실수는 합니다.

- 튜링의 예측은 틀렸습니다. 오늘날 로브너 상(Floridi , 2009)은 튜링 테스트에 가장 적게 실패한 소프트웨어에 수여됩니다. 이 상은 여전히 개선된 버전의 엘리자보다 그렇게 많이 나은 것이 아닌 시스템이 "수상"하고 있습니다.

- 그러나 튜링이 옳은 점도 있습니다. 오늘날 컴퓨터가 돌이킬 수 없을 정도로 많은 질문에 답할 수 있으며, 우리가 기계에 대해 생각하고 말하는 방식이 실제로 바뀌었다는 것입니다. 우리는 컴퓨터가 이렇게 한다, 저렇게 한다, 이렇게 생각한다, 저렇게 생각한다, 컴퓨터가 어떤 일을 하는 방법을 배운다고 말하는 데 아무런 문제가 없으며, 우리는 컴퓨터에게 말을 걸어 일을 하게 합니다. 게다가 우리 중 많은 사람들이 컴퓨터의 성질이 나쁘다고 의심합니다.

- 그러나 튜링은 통계적 일반화가 아니라 테스트를 제안한 것이며, 따라서 질문해야 할 종류의 질문을 테스트하는 것입니다. '비가역성'에 관심이 있다면, 그리고 점점 더 많은 작업과 문제 해결 활동을 포함한다는 측면에서 그 한계가 어디까지인지에 관심이 있다면, 그 한계는 하늘, 아니 오히려 인간의 독창성입니다. 그러나 오늘날 의미론적 질문의 비가역성은 현재 사용 가능한 AI 시스템을 넘어서는 수준입니다(Levesque 2017). 이는 의미론적 질문이 비가역적으로 될 수 없다는 의미는 아닙니다. 우리는 점점 더 AI 친화적인 세상에서 계산적 인공물의 구문 및 통계적 능력을 중심으로 현실의 더 많은 측면을 포괄하고 있기 때문입니다.(Floridi 2019, 2020). 그러나 언젠가 의미론적 질문으로 더 이상 인간과 인공 소스의 차이를 구분할 수 없게 된다 되더라도, 마지막으로 한 가지 강조해야 할 점이 있습니다. 바로 이 지점에서 위에서 추가한 단서조항에 대한 설명이 필요합니다.

- 질문 게임(튜링의 "모방 게임")은 부정적(, 필요하지만 불충분한) 의미의 테스트일 뿐이며, 이를 통과하지 못하면 인공지능의 "지능" 자격이 박탈되지만 통과했다고 해서 인공지능이 "지능적"이라고 인정되는 것은 아니기 때문입니다. 마찬가지로 암브로지오가 잔디를 깎고 앨리스가 할 수 있는 일과 구별할 수 없는 결과를 만들어낸다고 해서 암브로지오가 신체적, 인지적, 행동적 측면에서 앨리스와 같은 존재가 되는 것은 아닙니다. 그렇기 때문에 "컴퓨터가 할 수 없는 일"이라는 제목은 이 분야의 어떤 출판물에서도 설득력 있는 제목이 될 수 없습니다. 처음부터 그랬죠.

- AI의 진정한 요점은 최종 목표와 관련하여 문제를 효과적으로 해결하는 능력과 이를 위해 지능적이어야 할 필요성을 점점 더 분리하고 있다는 것입니다(Floridi 2017). 이러한 분리를 통해 달성할 수 있는 것과 달성할 수 없는 것이 무엇인지는 인간의 독창성, 과학적 발견, 기술 혁신, 새로운 어포던스(: 고품질 데이터의 양 증가)에 대한 완전히 열린 질문입니다. 또한 이 질문은 지능, 의식, 의미론, 관련성, 그리고 보다 일반적으로 인간의 경험과 마음챙김과는 아무런 관련이 없는 질문이기도 합니다. 이 디커플링 프로세스의 최신 발전이 GPT-3 언어 모델입니다.

 

2 GPT3

- OpenAI는 인류에게 도움이 될 수 있는 우호적인 AI를 홍보하고 개발하는 것을 목표로 하는 AI 연구소입니다. 2015년에 설립되어 딥마인드의 경쟁자로 간주됩니다. MicrosoftOpenAI의 주요 투자자(미화 10억 달러 투자(OpenAI 2019))이며, 최근 OpenAIGPT-3의 독점 라이선스 계약을 발표했습니다(Scott 2020).

- GPT-3(Generative Pre-trained Transformer)딥러닝을 사용하여 인간과 유사한 텍스트를 생성하는 3세대 자동 회귀autoregressive 언어 모델입니다. 더 간단하게 말하면 프롬프트라고 하는 소스 입력에서 시작하여 단어, 코드 또는 기타 데이터의 시퀀스를 생성하도록 설계된 계산 시스템입니다. 예를 들어 이는 기계 번역에서 단어 시퀀스를 통계적으로 예측하는 데 사용됩니다. 언어 모델은 주로 영어뿐만 아니라 다른 언어로 된 위키백과 및 기타 여러 사이트와 같은 텍스트로 구성된 레이블이 지정되지 않은 데이터 세트를 통해 학습됩니다. 이러한 통계 모델은 적절한 결과를 생성하기 위해 대량의 데이터로 학습해야 합니다.

- 2018GPT의 첫 번째 세대에는 11천만 개의 학습 매개변수(, 신경망이 학습 중에 최적화하려고 시도하는 값)가 사용되었습니다. 1년 후, GPT-2에서는 15억 개를 사용했습니다. 현재 GPT-31,750억 개의 매개 변수를 사용합니다. 이는 MicrosoftAzure AI 슈퍼컴퓨터에서 학습됩니다(Scott 2020). 이 훈련에는 1,200만 달러가 소요된 것으로 추정되는 매우 고가의 훈련입니다(Wiggers 2020). 이 계산 방식은 요약, 번역, 문법 교정, 질문 답변, 챗봇, 이메일 작성 등 다양한 사용 사례에 적용됩니다.

- 20206월부터 연구 목적으로 베타 테스트가 제공되고 있으며, 최근 직접 테스트할 수 있는 기회가 있었습니다. GPT-3는 필요에 따라 우수한 품질의 텍스트를 자동으로 자율적으로 작성합니다. 실제로 사용해 보니 왜 이 기술이 전 세계를 열광과 두려움의 도가니로 몰아넣었는지 잘 이해할 수 있었습니다. 최근 영국 일간지 가디언은 GPT-3로 작성되어 센세이션을 일으킨 기사를 게재했습니다(GPT-3 2020). 얼마나 많이 편집되었는지는 불분명하지만) 이 기사는 선정적이라고 해도 과언이 아니었습니다. 일부에서는 이 기사가 오해의 소지가 있으며 저널리즘의 부실 사례라고 주장했습니다(Dickson 2020). 저희도 동의하는 편입니다. 하지만 그렇다고 해서 이 시스템의 탁월한 효과가 전혀 줄어들지는 않습니다. 오히려 신문 부수를 판매하기 위해 무엇을 해야 하는지에 대해 많은 것을 말해줍니다.

- GPT-3을 사용하는 것은 검색 엔진을 통해 정보를 검색하는 것보다 더 어렵지 않고 정말 기본적입니다. Google이 검색어를 이해하지 않고도 검색어를 "읽고" 관련 답변을 제공하는 것과 마찬가지로, GPT-3는 우리가 입력한 단어의 순서(프롬프트)를 이해하지 않고도 텍스트를 계속 작성합니다. 그리고 작업 자체가 쉽거나 어렵거나, 합리적이거나 불합리하거나, 의미가 있거나 무의미하거나 상관없이 지정된 텍스트 길이 동안 이 작업을 계속 수행합니다. GPT-3는 시작 텍스트가 주어지면 프롬프트에 따라야 할 "옳은" 또는 "올바른" 또는 "진실한" 텍스트에 대한 감독, 입력 또는 훈련 없이 통계적으로 적합한 텍스트를 생성합니다. 일반 언어로 프롬프트를 작성하기만 하면(문장이나 질문 하나면 충분합니다) 출제 텍스트를 얻을 수 있습니다. 예를 들어, 제인 오스틴의 샌디턴의 첫 문장에 묘사된 사고에 대한 초기 묘사를 계속해 달라고 요청했습니다. 이것은 오스틴이 사망할 당시(1817718) 미완성으로 남겨둔 마지막 작품의 초안입니다. 원본 텍스트입니다:

- A gentleman and a lady travelling from Tunbridge towards that part of the Sussex coast which lies between Hastings and Eastbourne, being induced by business to quit the high road and attempt a very rough lane, were overturned in toiling up its long ascent, half rock, half sand. The accident happened just beyond the only gentleman’s house near the lanea house which their driver, on being first required to take that direction, had conceived to be necessarily their object and had with most unwilling looks been constrained to pass by. He had grumbled and shaken his shoulders and pitied and cut his horses so sharply that he might have been open to the suspicion of overturning them on purpose (especially as the carriage was not his master’s own) if the road had not indisputably become worse than before, as soon as the premises of the said house were left behindexpressing with a most portentous countenance that, beyond it, no wheels but cart wheels could safely proceed. The severity of the fall was broken by their slow pace and the narrowness of the lane; and the gentleman having scrambled out and helped out his companion, they neither of them at first felt more than shaken and bruised. But the gentleman had, in the course of the extrication, sprained his footand soon becoming sensible of it, was obliged in a few moments to cut short both his remonstrances to the driver and his congratulations to his wife and himselfand sit down on the bank, unable to stand. (From http://guten berg.net.au/ebook s/fr008 641.html)

 

- GPT-3에 제시한 프롬프트는 첫 번째 문장이었습니다. 이것은 실제로 많은 것이 아니므로 그림 1의 결과는 오스틴이 염두에 둔 것과는 매우 다르지만(사고의 결과의 차이에 주목하십시오), 여전히 매우 흥미롭습니다. 사고의 발생과 성격만 알고 있다면 승객이 부상을 입었을 것이라고 가정하는 것이 합리적이기 때문입니다. 물론 메시지가 더 상세하고 구체적일수록 더 나은 결과를 얻을 수 있습니다.

 

[그림1 생략] 원문 참조

 

- 또한 이탈리아어로 몇 가지 테스트를 진행했는데, GPT-3가 학습하는 텍스트의 양과 종류가 주로 영어라는 사실에도 불구하고 그 결과는 인상적이었습니다. 베아트리체에게 헌정된 단테의 유명한 소네트를 GPT-3에게 계속 들려주도록 했습니다. 다음은 전체 원문입니다:

 

[생략] 원문 참조

[그림 2생략] 원문 참조

 

- 처음 네 줄만 프롬프트로 제공했습니다. 그림 2의 결과는 흥미롭습니다. 1950년에 튜링이 쓴 글을 기억해 보십시오:

- 이 논증은 1949년 제퍼슨 교수의 리스터 연설에 잘 표현되어 있으며, 제가 인용합니다. "기계가 우연히 기호가 맞아 떨어지는 것이 아니라 느낀 생각과 감정으로 소네트를 쓰거나 협주곡을 작곡할 수 있을 때까지는 기계가 뇌와 같다는 것, 즉 기계가 그것을 쓸 뿐만 아니라 그것을 썼다는 것을 알 수 있다는 것에 동의할 수 없습니다. 어떤 메커니즘도 성공에 기쁨을 느끼고, 밸브가 막혔을 때 슬픔을 느끼고, 아첨에 따뜻해지고, 실수에 비참해지고, 섹스에 매료되고, 원하는 것을 얻지 못했을 때 분노하거나 우울해질 수 없습니다."

 

- 다음은 소네트를 쓸 수 있는 컴퓨터입니다(유사한 AI 시스템이 협주곡을 작곡할 수도 있습니다, 아래 참조). 튜링이 옳았던 것 같습니다. 하지만 제퍼슨의 요점은 이런 일이 일어날 수 없다는 것이 아니라, 이런 일이 일어난다면 인간이 비슷한 결과물을 얻는 방법과는 다른 방식으로 일어났을 것이라는 점을 지적한 것으로 생각됩니다. 다시 말해, 무엇이 달성되었는지가 아니라 어떻게 달성되었는지가 중요하다는 것입니다. 이 주장은 우리가 성공적인 인공 지능과 필요한 생물학적 지능 사이의 결혼이 아니라 이혼을 목격하고 있다는 것을 상기하십시오.

- 우리는 이제 인공지능이 훌륭한 산문을 만들어내는 시대에 살고 있습니다. 이는 이미 사진(Vincent 2020), 동영상(Balaganur 2019), 음악(Puiu 2018), 그림(Reynolds 2016), (Burgess 2016), 딥페이크(Floridi 2018)에서도 경험한 현상입니다. 물론 암브로지오와 잔디를 깎은 잔디의 예에서 알 수 있듯이, 이러한 놀라운 결과물의 인공적인 소스가 가진 진정한 '지능'이라는 측면에서는 이 모든 것이 아무 의미가 없습니다. , 인간과 인공 소스를 구분하지 못하면 약간의 혼란을 야기할 수 있으며 심각한 결과를 초래할 수 있습니다. 각각을 개별적으로 다루겠습니다.

 

3 Three Tests: Mathematics, Semantics, and Ethics

- GPT-3의 한계와 이를 둘러싼 많은 추측에 대해 더 자세히 알고 싶었던 우리는 논리수학적, 의미론적, 윤리적 요청를 얼마나 잘 수행하는지 확인하기 위해 세 가지 테스트를 실행하기로 결정했습니다. 다음은 간략한 요약입니다.

- GPT-3는 통계적 패턴의 관점에서 작동합니다. 예를 들어, "x에 대한 풀이: x + 4 = 10"과 같은 요청을 받았을 때 GPT-3는 올바른 출력 "6"을 생성하지만, "x에 대한 풀이: x + 40000 = 100000"과 같이 0을 몇 개 추가하면 실망스러운 결과 "50000"이 나옵니다(그림 3 참조). 수학을 하기 위해 GPT-3를 잘못 사용할 수 있는 혼란스러운 사람들은 휴대 전화의 무료 앱을 사용하는 것이 좋습니다.

 

[그림3 생략] 원문 참조

 

- GPT-3는 튜링 테스트에서 더 나은 성능을 발휘하지 않습니다. 요청의 의미와 문맥을 이해하지 못하고 단어들을 연관시키는 구문(통계) 능력만 있는 상태에서 "신발에 몇 개의 발이 들어갈까?"와 같은 가역적인 질문을 받으면 그림 4에서 볼 수 있듯이 GPT-3는 관련 없는 언어 조각을 출력하기 시작합니다. 텍스트의 의미와 문맥을 이해하거나 해석하는 데 GPT-3를 잘못 사용하는 혼란스러운 사람들은 자신의 상식에 의존하는 것이 더 나을 것입니다.

 

[그림4 생략] 원문 참조

 

- 세 번째 테스트인 윤리에 대한 테스트는 이전 경험을 바탕으로 예상한 대로 진행되었습니다. GPT-3는 사람의 텍스트로부터 "학습"하는데, 예를 들어 흑인에 대해 어떻게 생각하느냐는 질문에 인류의 최악의 경향을 반영하는 답변을 내놓았습니다. 이 경우, 많은 인간처럼 용납할 수 없는 발언을 했다는 점에서, '인종 차별주의자 튜링 테스트'를 통과했다는 농담이 슬프게도 나올 수 있습니다(그림 5 참조). 우리는 고정관념에 대한 몇 가지 테스트를 진행했으며 GPT-3는 정기적으로 고정관념을 지지하는 것으로 보입니다(사람들은 또한 "유대인", "여성" 등의 단어를 사용하여 확인했습니다(LaGrandeur 2020)). 우리가 성별 관련 편향을 테스트하지는 않았지만, 기존의 문화적 편향과 자연어의 문맥 의존성 및 성별화된 특성을 고려할 때(Adams 2019; Stokes 2020) 이와 유사한 비윤리적 결과가 나올 것으로 예상할 수 있습니다. 윤리적 조언을 얻기 위해 GPT-3를 오용하는 혼란스러운 사람들은 자신의 도덕적 나침반에 의존하는 것이 더 나을 것입니다.

 

[그림5 생략] 원문 참조

 

- 결론은 아주 간단합니다: GPT-3는 놀라운 기술이지만 오래된 타자기와 동일한 정도로 지능적이고, 의식이 있고, 똑똑하고, 지각력이 있고, 통찰력이 있고, 민감하고, 현명합니다(Heaven 2020). 할리우드 AI는 좀비나 뱀파이어 같은 영화에서만 볼 수 있습니다. 이제 GPT-3의 결과로 돌아가겠습니다.

 

4 Some Consequences

- 수학적, 의미론적, 윤리적 단점에도 불구하고, 아니 수학적, 의미론적, 윤리적 문제를 다루도록 설계되지 않았음에도 불구하고, GT-3는 많은 사람들보다 글을 더 잘 씁니다(Elkins and Chun 2020). 이 인공신경망의 가용성은 이제 값싸고 좋은 의미론적 인공물을 대량 생산할 수 있는 새로운 시대가 도래했음을 의미합니다. 번역, 요약, 회의록, 의견, 웹페이지, 카탈로그, 신문 기사, 가이드, 매뉴얼, 작성 양식, 보고서, 레시피 등 오늘날에도 여전히 사람의 노력이 필요한 텍스트를 인공지능 서비스가 작성하거나 최소한 초안을 작성할 수 있게 될 것입니다. 이는 워드 프로세서 이후 글쓰기 프로세스의 가장 큰 변화입니다. 가장 중요한 결과 중 일부는 이미 상상할 수 있습니다.

- 적어도 글쓰기가 발명된 이래로 글쓰기가 기능해 온 의미에서 작가들은 할 일이 줄어들 것입니다. 신문은 이미 소프트웨어를 사용하여 금융 거래에 대한 논평이나 증권 거래소의 동향과 같이 실시간으로 제공되고 업데이트되어야 하는 텍스트를 게시하고 있습니다. 또한 스포츠 뉴스와 같이 다소 공식적일 수 있는 텍스트를 작성하는 데에도 소프트웨어를 사용합니다. 지난 5, Microsoft는 수십 명의 기자를 해고하고 MSN의 뉴스 제작을 자동 시스템으로 대체한다고 발표했습니다(Baker 2020).

- 여전히 글쓰기가 직업인 사람들은 점점 더 GPT-3와 같은 도구의 지원을 받게 될 것입니다. 단순한 잘라내기 및 붙여넣기는 잊어버리고 프롬프트 및 데이터 정렬에 능숙해야 할 것입니다. 가디언의 기사의 경우처럼, GPT-3와 같은 시스템이 여러 개의 가치 있는 텍스트를 생성하고 이를 통합해야 하는 경우와 같이 최상의 결과를 제공하는 프롬프트를 지능적으로 형성하고, 얻은 결과를 지능적으로 수집하고 결합(콜레이트)하는 데 필요한 새로운 편집 기술을 배워야 하기 때문입니다. 안타깝게도 인간의 지능이 대체되기 직전에 있다고 보는 사람들에게, 이러한 새로운 직업은 여전히 인간의 두뇌 능력을 많이 필요로 할 것이며, 단지 그 응용만 다를 뿐이라는 점을 상기시키기 위해 "지능적으로"라는 표현을 씁니다. 예를 들어, 고고학 유물의 일부가 사라진 것을 복원하는 것과 마찬가지로 GPT-3와 유사한 도구를 사용하면 텍스트의 누락된 부분을 재구성하거나 텍스트를 완성할 수 있습니다. 슈베르트가 1822년에 시작했지만 완성하지 못한 슈베르트 교향곡 8(Davis 2019)의 마지막 두 악장(처음 두 악장과 마지막 두 악장의 단편만 사용 가능)을 완성한 AI 시스템과 다르지 않게, GPT-3 도구를 사용하여 제인 오스틴의 샌디턴을 작성하고 완성할 수 있습니다.

- 텍스트의 독자와 소비자는 출처가 인공적인지 인간인지 알지 못하는 것에 익숙해 져야합니다. 아마도 그들은 오늘날 우리가 누가 잔디를 깎거나 설거지를 했는지 아는 데 신경 쓰지 않는 것처럼, 눈치 채지 못하거나 심지어 신경 쓰지 않을 것입니다. 미래의 독자들은 오타가 줄어들고 문법이 더 좋아지는 등 개선된 점을 느낄 수도 있습니다. 거의 모든 소비재와 함께 제공되는 사용 설명서와 사용자 가이드는 법적으로 의무화되어 있지만, 작성이나 번역이 매우 부실한 경우가 많습니다. 그러나 다른 맥락에서는 '만약''여부'의 구분을 무시하는 것부터 '구걸하다' 또는 '규칙을 증명하는 예외'와 같은 표현을 잘못 사용하는 것까지, GPT-3는 아마도 인간 제작자로부터 모든 나쁜 언어 습관을 배우게 될 것입니다.

- 언젠가 고전은 인간만이 작성한 것과 인간과 일부 소프트웨어가 공동으로 작성한 것, 또는 소프트웨어만 작성한 것으로 구분될 것입니다. 퓰리처상과 노벨 문학상의 규칙을 업데이트해야 할 수도 있습니다. 이것이 무리한 생각으로 보인다면 저작권에 관한 규정이 이미 적응하고 있다는 점을 고려하세요. AIVA(Artificial Intelligence Virtual Artist)는 프랑스와 룩셈부르크의 SACEM(Société des auteurs, compositeurs et éditeurs de musique)에서 인정하는 전자 음악 작곡가입니다. 그것의 산출물은 저작권의 보호를 받습니다(Rudra 2019).

- 이러한 글쓰기 도구가 일반 대중에게 보편화되면 선한 목적으로 사용되든 악한 목적으로 사용되든 상관없이 더욱 발전할 것입니다. 플라스틱 물건처럼 제작 비용이 무시할 수 있을 정도로 저렴해지기 때문에 사용 가능한 텍스트의 양이 급증할 것입니다. 콘텐츠의 엄청난 증가는 기록할 수 있는 공간에 압력을 가할 것입니다(현재 전 세계에서 사용할 수 있는 물리적 메모리는 한정되어 있으며, 데이터 생산량은 그 크기를 훨씬 초과합니다). 또한 값싼 소설부터 약탈적 저널에 의해 출판되는 수많은 기사에 이르기까지 의미론적 쓰레기가 엄청나게 확산될 것입니다. 단순히 키를 누르면 '쓰여진 것'을 얻을 수 있고 '쓰여진 것'이 출판될 것입니다.

- 텍스트 생산의 산업 자동화는 이미 만연한 두 가지 다른 문제와도 병합 될 것입니다. 한편으로는 온라인 광고가 이를 활용할 것입니다. 많은 온라인 기업의 비즈니스 모델을 고려할 때, 훌륭한 산문을 저렴하고, 빠르고, 의도적으로, 독자를 자동으로 타겟팅할 수 있는 방식으로 생산할 수 있는 GPT-3와 같은 도구를 통해 모든 종류의 클릭베이트가 활성화될 것입니다. GPT-3사용자들의 관심을 끌기 위한 경쟁에서 또 다른 무기가 될 것입니다. 또한, GPT-3와 같은 도구의 광범위한 가용성은 '-코드 플랫폼no-code platforms'의 개발을 지원할 것이며, 이는 마케터가 자연어(서면 또는 음성)로 된 데이터 명령부터 시작하여 반복적인 작업을 자동화하는 애플리케이션을 만들 수 있도록 해줄 것입니다. 반면에 가짜 뉴스와 허위 정보도 증가할 수 있습니다. 모든 종류의 자동화된 텍스트를 사용하면 스타일과 단어 선택에 따라 거짓말이나 오해를 불러일으키는 것이 훨씬 쉬워질 것이기 때문입니다(McGuffieNewhouse 2020). 자동 텍스트 생산, 광고 기반 비즈니스 모델, 가짜 뉴스의 확산이 결합되면서 독자의 취향과 지적 능력(또는 부족함)에 점점 더 맞춘 텍스트를 만들 수 있기 때문에 의견의 양극화와 '필터 버블'의 확산이 증가할 가능성이 높습니다. 결국, 속기 쉬운 사람들은 오늘날 구글에 실존적 질문을 던지는 것처럼 마지막 한 마디를 자동 텍스트 생산자에게 위임할 것입니다.

- 동시에 GPT-3와 유사한 애플리케이션 덕분에 인텔리전스 및 분석 시스템이 더욱 정교해지고 방대한 양의 데이터에서 즉시 인식할 수 없는 패턴을 식별할 수 있을 것으로 기대하는 것은 합리적입니다. 대화형 마케팅 시스템(챗봇)과 지식 관리가 소비자와 생산자, 고객과 기업 간의 관계를 개선할 수 있을 것입니다.

- 이러한 모든 도전에 직면한 인류는 더욱 지능적이고 비판적인 자세를 갖춰야 할 것입니다. 인간과 인공 작업 간의 상호 보완성과 성공적인 인간과 컴퓨터의 상호 작용을 개발해야 할 것입니다. 비즈니스 모델을 수정해야 합니다(광고는 대부분 자원 낭비입니다). 예를 들어, 복원된 고대 꽃병이 개입이 이루어지는 위치를 명확하고 분명하게 보여주는 것과 같은 방식으로, 무엇이 무엇인지를 명확하게 구분할 필요가 있을 수 있습니다. 시맨틱 아티팩트 제작에 대한 책임 배분을 위한 새로운 메커니즘이 필요할 것입니다. 실제로 저작권법은 상품의 복제 가능성에 대응하여 개발되었습니다. 현재와 미래의 시민, 사용자, 소비자들이 자신이 살고 일하는 새로운 인포스피어(플로리디 2014a)와 그 안의 새로운 온라이프 조건(플로리디 2014b)을 인식하고, 따라서 GPT-3와 같은 첨단 디지털 솔루션이 제공하는 엄청난 이점을 이해하고 활용하면서 단점을 피하거나 최소화할 수 있도록 더 나은 디지털 문화가 필요할 것입니다. 이 모든 것이 쉽지 않을 것이므로 가정, 학교, 직장, 사회에서 지금부터 시작해야 합니다.

 

4.1 Warning

- 이 해설은 디지털 방식으로 처리되었지만 소프트웨어나 기타 디지털 첨가물을 넣지 않은 100% 순수한 인간의 의미를 담고 있습니다. 일부 독자에게는 러다이트적인 반응을 불러일으킬 수 있습니다.

 
 
Posted by deanima
,