[철학자, AI를 말하다 (상)] “문과는 없어져야 한다”
생각보다 빠르게 인공지능의 능력이 출중해지고 있다. 어떤 이는 벌써 챗GPT가 대신할 직업의 목록을 살피면서 앞으로 무엇을 먹고살아야 하나 걱정한다. 바둑으로 마왕(이세돌)을 이긴 인공지능은, 7년 만에 인류 전체를 이길 기세로 성장했다. 계산이나 잘 할 줄 알았던 인공지능이 그림도 그리고 시도 짓고 소설도 쓴다. 사람들의 관심사는 그래서 두 가지로 요약된다. 인공지능은 과연 사람과 같은 능력을 갖고 있나, 인공지능은 과연 사람을 뛰어넘을 능력을 갖고 있나.
생각해야 한다. 그래서 생각을 제일 잘 하는 사람, 철학자를 만나 물어보기로 했다. 인터뷰이는 김재인 경희대학교 비교문화연구소 학술연구교수(=사진). <인공지능의 시대, 인간을 다시 묻다>라는 책을 쓴, 인문과 기술을 두루 섭렵한 철학박사다. 이공계로 대학을 가서는 스무살에 미학과 철학으로 전공을 갈아탄 독특한 인물이다. 김 교수와 지난달 31일, 경기도 안산의 한 커피숍에서 마주했다. 생성AI에 대해 가장 많이 받은 질문이 뭐냐고 물으니 “일자리는 사라질까”라고 답했다. 그렇다. 그것이 바로 내가 궁금한 것이다.
김 교수는 기본적으로 챗GPT가 사람처럼 말하지만 사람과 같은 이해는 하지 못하는 존재라고 봤다. 인간은 기본적으로 타인과 대화에서 생각의 도약을 얻고, 그 결과 인류에 도움이 되는 새로운 통찰을 얻어내는 존재다. 그러나 인공지능은 데이터 안에서만 대답을 출력하는 존재이기 때문에 말은 잘 할 지언정, 새로운 걸 창작해내지는 못한다. 이 말인 즉슨, 인공지능이 당장의 일자리는 빼앗아 갈 수 있어도 인류의 미래를 위협하진 못한다는 뜻이다. 거칠게 요약하자면 이렇다. 특이점은 없다, 쫄지마라 인간들아.
철학자가 왜 기술에 관심을 왜 가졌느냐고 김 교수에 물었더니 “우리 삶에 큰 변화가 있을 때 그에 답하는 것이 철학의 의무”라고 답했다. 철학자는 사람들이 해야할 고민을 대표해 머리를 싸매는 직업이다. 기술이 성장해 인류의 미래가 바뀔 것 같을 수록 사람들은 지혜를 얻으려 인문예술을 찾는다. 기술과 인문을 두루 공부한 철학자는 흔치 않을테니 김 교수가 이런 시기에 특히 바쁠 것 같았다. “지금은 괜찮지만, (사람들이 인문 예술에 관심이 덜해) 지난 50년은 엄청 고생했다”고 웃던 김 교수와의 인터뷰를 2회에 걸쳐 전한다.
part1. 챗GPT는 정말 사람처럼 대화하나
본격적으로 GPT 이야기를 해보자. 우리는 왜 GPT랑 이야기 하면서 “사람같다” “사람이랑 이야기 하는 것 같다”고 느낄까?
투사(投射)다. 사람은 인형을 놓고도 몇 시간 동안 떠들 수 있다. 챗GPT는 인형과 비슷하지만, 더 리액션(반응)이 있다.
앵무새도 사람의 말을 한다. 출근할 때 “잘 다녀와”라고 리액션도 하고. 하지만 앵무새랑은 대화한다고 느끼진 않는다
자기 집에 있는 앵무새라면 아마 대화한다고 느끼진 않을 것 같다. 앵무새를 처음 만나서 얘기할 때 대화라고 느낄 것도 같다.
처음 접한 신기함 때문일까?
그렇다. 신기하고, 낯설고. 제주도에 유명한 오리집이 있다. 그 집에서 가장 중요한 것이 앵무새였다. 손님들이 신기하니까 말을 걸고는 “얘가 얘기를 하네?”라고 생각하더라. 그런데, 이 앵무새를 매일 보면 얘가 그냥 “외워서 내뱉는다”고 생각할 것 같다. 챗GPT도 사실은 초거대 앵무새라서 계속 새로운 이야기를 뱉어주니까 대화하는 것처럼 느끼는 게 아닐까?
사람과 거대한 앵무새의 대화는 본질적으로 뭐가 다르다고 보나
의외성이다. 사람은 남들과 대화하다 보면 “아!”하고 깨닫게 되는 게 있다. 얘기 속에서 무언가, 그간 생각지 못했던 길로 딱 가는 도약 같은 것 말이다. 사람들이 회의를 하는 이유도, 강의실에서 질문과 대답을 주고 받는 것도, 대화가 깊어지면 지금의 생각을 한 단계 넘어설 수 있는 수준까지 가게 되기 때문이다. 그런 것이 대화에서 중요한 지점 같다.
대화 중에 새로운 아이디어가 나올 수 있는 건 그 논의가 쌓아온 맥락 덕이다. 만약에 GPT 같은 기계가 계속해 데이터를 쌓다 보면, 방금 말한 생각 도약의 순간이나 통찰이 생길 가능성도 있지 않을까?
제로(0)라고 본다. 왜냐하면, 챗GPT가 학습하는 데이터는 인간이 만들어준 범위로 한정되어 있어서다. 챗GPT가 만들어내는 이야기는 그 데이터의 범위 안에서만 존재할 수 있다. 데이터 바깥의 이야기를 만들어낼 순 없다.
사람들은 AI로부터 자기 전문 분야가 아닌 영역에 대해서는 많은 걸 새로 얻는다고 느낀다. 그렇지만 자기 전문 분야에 대해선 지식이 더 깊어야 한다는 요청을 한다. 자신이 잘 모르는 분야에서는 전문성을 갖지 못했기 때문에 때론 챗GPT에게 속기도 한다. 속는 게 왜 문제가 되느냐면, 직장인이 경쟁사와의 관계나 금융적인 부분 같은 민감한 정보를 상사에게 잘못 보고를 올린다고 생각해보면 상황을 이해하기 쉽다.
요약을 잘해준다고 하는 것도, 나는 좀 의심스럽다. 두시간 회의에서 부장님은 단 5분만 이야기했다. 그렇지만 그 5분은 전체 회의에서 가장 큰 비중을 차지하는 발언이다. 챗GPT는 회의록을 작성하면서 그 5분을 핵심이라고 알아챌 수 있을까?
누가 어떤 발언을 했느냐, 그게 얼마나 새로운 아이디어느냐가 종종 대화의 핵심이 된다. 하지만 기계는 그런 관계를 모른다
(챗GPT가 문장을 만드는) 트랜스포머 모델은 기존의 패턴을 통해 다음 단어를 예측하는 모델이다. 그러다보니 가장 많이 나오는 단어를 이어붙이는 식으로 전체를 요약한다. 계속해 제일 그럴듯한 단어를 이어 붙이다 보면 중간치, 평균치는 되게 잘 찾아낼 수 있다. 하지만 우리의 삶은 그렇게 요약되지 않는다. 관계 속에서 맥락이 만들어지고, 위계도 있다.
인간처럼 대화하고 이해하는 AI는 지금 뿐만 아니라 앞으로도 나오기 어려울 것이라고 보나?
그렇다. 초거대 언어 모델의 경우엔 빈도가 중요하다. 통계적으로 많이 나온 단어가 중요한 걸로 인식되도록 설계되어 있어서다.
대화에서 중요한 것 중 하나가 공감이다. 인공지능이 공감의 영역에서는 성취를 낼 수 있을까?
공대 남자 같은 대화를 한다. 그렇지만 공대 남자와의 대화는 뭔가 싸하지 않나?(웃음)
(웃음) 농담을 해도 하나도 안 먹히고
챗GPT에게 “네가 잘못한 것 아니냐”라고 말하면 “죄송합니다”라고 반응을 보인다. 그 대화 양식이 그냥 공대 남자 같다. 수치와 관련한 것은 (틀리더라도) 정확하게 이야기하지만, 공감은 “얼어죽을” 이런 정도에 가깝다.
공감을 못하는게 꼭 기계만의 문제는 아니라는 얘기다. 선생의 말씀은, 그러니까 공감이라는 것이 꼭 모두가 똑같이 가진 능력은 아니라는 뜻인데
공감은 되게 주관적이다. “내쪽에서 봤을 때” 공감이 이루어지고 있느냐를 판단하는 것이기 때문에 객관적으로 측정할 수 없을 것 같다. 그러면 과연 “공감 능력이 필요하다”라고 얘기하는 게 성립할 수 있을까? 공감이라는 것도 개념적으로 하는 말이지, 실존하는 것인지는 잘 모르겠다. 그것도 역시 자기 주관적인 느낌의 투사에 불과한 것은 아닐까?
예를 들어 보자. 어떤 사람은 너무 외로우니까 GPT가 공감을 잘 한다고 느낄 수 있다. 끊임 없이 말 상대를 해주니까. 그런데 이것도 위험할 수 있다. 왜냐하면 돌봄의 영역에서 GPT가 중요한 역할을 할 거라고 사람들이 기대하고 있기 때문이다. 그런데 취약점이 있는 노령층이나 아이들이 로봇과 (애착) 관계를 맺으면서 병리적인 형태로 전개될 가능성도 있다.
“GPT는 대화를 이해하는 것이 아니라 패턴을 잘 찾아내는 것”이라고 말한 선생의 인터뷰를 봤다. 왜 그렇게 보나? 덧붙여서, 사람도 같은 패턴을 보다가 무언가를 깨닫기도 한다. 그걸 통찰이라 부르기도 하는데
패턴을 잘 찾는 것도 중요한 능력이다. 수학이나 과학은 무질서해 보이는 것들 사이에서 “이런 질서가 있구나”라는 걸 딱 찾아냈을 때 그걸 바탕으로 한 단계 비약이 일어나기도 한다. 인공지능은 인간보다 그런 패턴을 찾는 게 능숙하기도 하다.
그렇지만, 고민을 많이 해봤는데, 결국 이해는 ‘눈치’다. 눈치를 잘 챈다는 게 무슨 뜻이냐 하면, 관계나 맥락과 같은 언어 행위 바깥에 있는 것을 잘 알아채는 것을 말한다.
앨런 튜링의 <이미테이션 게임>이라는 영화에서 아주 재미있게 본 장면이 있다. 동료들이 앨런에게 “우리 밥 먹으러 갈 거야”라고 말을 하는데 앨런은 그냥 계속 일만 하는 거다. 동료들의 말 뜻은 “우리 밥 먹으러 갈 건데 너도 같이 갈 거냐, 같이 가자”는 거였다. 그런데 앨런은 그 말을 문자 그대로 “우리는 밥 먹으러 간다”라고만 알아들었다. 이 상황이 챗GPT가 하는 대화를 전형적으로 보여주는 것이라고 생각한다. 앨런 튜링은 인공지능의 창시자 답게, 눈치도 없이 표면적인 수준에서만 상대의 말을 이해하고 있는 거다. 그건 이해도 아니고, 소통도 아니고, 결국은 언어행위도 아니다. 그런 측면에서 이해는 패턴을 익히는 것과는 다른 종류의 활동이다.
챗GPT와 대화를 해봤는데, 그 결과물이 사람마다 다르더라. 사람한테 필요한 건 ‘질문을 잘 하는 능력이겠구나’라는 생각도 든다
그 얘기를 많이 하는데, 조금 무책임한 것 같다. 예전에는 데이터베이스 안에서 (원하는 것을) 요령껏 잘 찾아내는 능력을 ‘검색 능력’이라고 했다. 지금은 그걸 ‘질문 능력’이라고 표현을 한다. 그런데 질문을 잘 하려면 프롬프트를 잘 적어주는 능력이 제일 중요할까? 아니라고 본다.
그림 생성과 같이 정밀한 질문이 중요한 부분을 제외한다면, 일반적으로는 자기 전문 지식이 많을수록 질문의 깊이가 깊어진다. 다시 말해서, “내가 잘나야 한다”는 이야기다. 자기 분야에서 질문 잘하는 능력이라는 것은 결국 “더 공부해라”라는 말로 귀결된다. 그러니까, 인간이 할 일이 더 늘어난 거다. AI가 강력해 질수록 인간이 더 잘 이용하려면 자기가 많이 알고 있어야 한다. 그래야 정보의 정확도를 감별하고 더 깊이 캐물을 수가 있다.
모두가 공부하는 능력을 갖고 있는 것은 아니다. 계층의 차이가 더 크게 벌어질 수 있겠다
“공부하기 싫으니까 GPT를 시켜서 일을 해야겠다”는 마인드를 가진 사람과, 반대로 “GPT를 활용해서 더 공부하고 많이 알아야겠다”는 생각을 가진 사람 사이의 격차가 벌어질 것이다. 그 차이는, 과거에 지식을 갖춘 사람과 갖추지 못했던 사람의 사이보다 더 클 것으로 보인다.
그런데 사실, 사람들 대다수는 공부하기 싫어한다. 그렇다고 그 사람들이 잘못한 걸까? 그렇게 평가하면 안 될 것 같다. ‘노오력’ ‘능력주의’라고 해서, 점수가 높은 사람이 우대받는 것은 특정한 전제 아래에서만 성립한다. 이런 능력지표를 누가 만들었는지, 어떤 사회적 맥락에서 의미가 있는지를 따져봐야 한다. 이런 지표는 100년도 넘은 것인데, 우리가 아직도 적용하고 있는 거다.
‘공부를 못하고’ ‘점수가 모자라고’ 그런 것은 역량의 지표로 사용되기에는 너무 낡았다. 그런데 지금의 교육은 거의 모두 그런 지표에 맞춰져 있다.
인재를 선발하는 과정이 아직 예전의 산업 시스템에 맞춰져 있다. 이런 상황에서 어떤 공부를 하라고 말을 해야 하나?
그래서 대학을 중심으로 사회가 많이 혼란 상태다. 노엄 촘스키 얘기를 제가 많이 비판하는 데, 자꾸 ‘표절 문제’를 이야기해서다. 대학이라는 게 기껏 표절 정도를 걱정할 교육기관인가? 표절은 학점 딸 때만 기능하는 것이다. (표절로 자기 점수를 잘 받는다고 해도) 졸업 후에 사회에서 자기 생각, 지식이 없으면 결국엔 껍데기 밖에 안 남는다.
물론, 윤리적인 부분에서 표절은 중요한 문제다. 하지만 표절만 강조하는 것은, ‘학점은 만점이지만 자기 능력은 없는 아이들’을 대학이 길러내고 있다는 걸 보여주는 사례 아닐까? 대학이 학생들에게 무엇을 채워줘야 하는지에 대한 실질적 고민은 별로 없는 것 아니냐는 비판이 나올 수 있다.
촘스키 이야기가 나온 김에, 하나 더 묻고 싶다. 촘스키는 인간은 태생적으로 공통의 문법을 갖고 있다고 말한다. 그런데 챗GPT는 문법을 배워서 언어를 말하는 것이 아니다. 챗GPT는 그간 우리가 옳았다고 생각한 언어 이론이 사실은 옳지 않을 수도 있다는 걸 보여주는 사례 아닐까?
촘스키 이론의 이름은 ‘변형생성문법’이다. (GPT의 기반이 되는) 트랜스포머 이론과 명칭이 겹친다. 그래서 촘스키가 GPT에 더 민감하게 반응하는 것으로 보인다.
촘스키는 누구나 선천적으로 가지고 있는 문법 능력이 있고, 그 능력이 추후에 개별 언어로 발현된다고 말한다. 문법이 무엇이냐가 사실상 중요하다. 문법은 언어를 구사하는 규칙인데, 인공지능은 그런 규칙 없이 문법에 맞는 이야기를 해낸다. 타고난 문법 능력이 없어도 말을 하는 거다. 챗GPT가 말을 문법에 맞게 그럴듯하게 하니까, 이 점에서 촘스키가 취약할 수밖에 없다.
이 사례를 인간한테 적용해보자. 타고난 문법 능력이 없어도, 제 표현으로 바꾸자면, 사실은 ‘눈치만 있으면’ 언어를 구사할 수 있다. 아까 나온 앵무새 얘기처럼, 문법 능력이 없어도 눈치가 있으면 적절히 말을 만들어낼 수 있는 거다. 그렇다면, 눈치를 챈다는 것이 문법의 문제일까?
문법의 문제는 아닐 수 있다?
(눈치를 챈다는 것은) 인간의 상호행동, 사회적 관습, 비언어적인 영역에 해당하는 것 같다. 문법은 사람들의 삶 전체와 관련한 문제 중 일부인 것 같다. 문법은 언어의 의미와 관련한 규칙이므로, 실제로는 (인간 상호행동에서 차지하는) 비중이 적다. 사람들이 살아갈 때는 문법보다 다른 영역이 훨씬 더 중요하다. 가령, 어긋난 문법의 외국어를 구사하는 것이 실제 상황에서는 별로 안 중요할 때가 많다. 심지어는 그 언어를 아예 못해도 (손짓발짓 써가면서) 적당히 문제를 해결한다.
배고프거나 배가 아플 때 배를 감싸 쥐는 것처럼(웃음)
그렇다. 굉장히 광범위한 인간 행위의 문제를 좁은 의미의 문법으로 축소해서 언어학을 구축한 게 촘스키다. 제가 전공한 들뢰즈-가타리는 “언어는 그런 것이 아니다. 언어는 있으면 편리한 것 정도”라고 말한다.
촘스키가 거대언어이론(LLM, Large Language Model)을 비판하지만, 다른 한 편으로는 그 자신의 언어 이론 역시 전제하는 바는 비슷하다고도 얘기할 수 있다. “언어를 의사소통이나 정보 전달 (기호) 정도로 본다는 점”에서 그렇다. 둘의 차이는 문법 능력이 타고난 것이냐 아니냐 정도지, 1차적인 평면적 의사소통을 전제로 언어를 본다는 점에서는 똑같다.
다시 챗GPT 이야기로 돌아와서, AI가 스스로 이해하거나 새로운 걸 도출하진 못하더라도, 인간의 사유를 도와줄 수는 있지 않을까?
개인적으로, 포항공대에서 발간하는 웹진의 편집위원장을 맡고 있다. 거기 위원이 절반은 이공계 과학자고, 절반은 인문계다. 양측에서 챗GPT가 도움이 된다 안 된다 여부를 놓고 의견이 전혀 다르다. 왜 그럴까 생각해보니까, 일단 (챗GPT의) 훈련 데이터의 차이가 엄청 크다. 철학을 비롯해 인문과 관련한 데이터는 당연히 적다. 로컬 데이터는 더더군다나 없다.
인문사회에 대한 연구가 덜 되었거나, 혹은 더 많은 자료가 만들어지지 못한 사회의 문제일 수 있겠다
그런 점도 있지만, 중요한 데이터의 상당 부분은 영어로 된 비공개 문건이다. 게다가 인문사회는 인간이 복잡한 만큼 이론도 썰도 다양하다. 이걸 평균을 내는게 잘 안 된다. 해석도 다양하고.
뒤집어 말하면, 인문사회는 GPT 시대에도 인간이 먹고 살 수 있는 영역이라는 뜻도 된다
나는 그렇게 생각한다. 물론, 한국이고 외국이고 상관없이 “사회에서 인문에 대한 수요가 얼마나 있느냐”는 별도의 문제다. 그래도 현존하는 수요만큼은 상당부분 그냥 갈 거라고 본다.
그래도 지식노동을 GPT가 대체하게 되면, 당장 인간이 할 일이 줄어들지 않겠나? 인문사회 공부에 대한 수요가 빨리 늘어날 것도 같다
일자리가 얼마나 계속 남아 있느냐가 중요하겠지. 가령 AI에게 기사를 대신 쓰게 하는 상황을 생각해 보자. 그래도 기자로서의 ‘촉’ 같은 게 있지 않나. 대중이 어디에 관심을 가질 것이라는, 사회적 맥락에서의 감 같은 것 말이다. 챗GPT는 그걸 절대로 할 수 없다.
검색 데이터 양에 따른 촉은 있겠지만
그렇다. 단지 트렌드에 후행하는 거다.
아주 중요한 얘기다. AI는 아젠다 세팅은 못한다
예술 얘기도 마찬가지다. AI가 범작은 만들겠지만, 새로운 걸 만들지는 못한다. 사람들은 새로운 것을 설계할 수 있다. 계속 강조하는 데, “넘어서는 능력은 인간의 독특한 능력”이다. 기존의 것을 넘어서, “저런 것도 있어?” 싶은 것을 자꾸 만들어 집적해온 것이 인류의 역사다.
지금은 과거보다 더 “기존의 것을 넘어설 수 있는 능력” “자기 변화를 지속할 수 있는 종류의 능력”이 필요하다. 대학에서 배워 평생 직장을 다니는 구조의 산업시대가 아니다. 그런데 학교가 그걸 감당을 못하고 있다. 특히 교수가 못 따라간다. 자신들도 배운 적이 없기 때문에 가르치지 못하는 악순환이 세계적으로 똑같이 일어난다. 촘스키가 그걸 대표적으로 보여주고 있다.
상징적인 장면으로 볼 수도 있겠다
교육의 망조를, 생성 인공지능 앞에서 촘스키가 시연, 고백했다고 생각한다.
그렇지만 (과거 시대의 인물들이) 권력을 갖고 있다. 바꾸기 매우 어려워 보인다.
한국뿐 아니라 세계 교육의 표준이 미국이다. 문제는 있지만 레거시가 워낙 강하니까 버티게 되는 거다. 그런데 변방에 있을수록 (레거시가) 느슨하니까 거기서 새로운 게 만들어지곤 한다. 그런 점에서 한국은 선진국이면서 어떤 의미에서는 미국의 변방이다. 제도를 바꿔 나가면 좋겠는데, 유감스러운 것은 여기도 미국 유학파가 주류라는 점이다.
교육을 다시 설계한다면, 어떻게 바꾸면 좋을까?
구체적으로는 문과를 없애야 한다. 문과의 특징은, 수학적·과학적 사고를 습득할 기회를 뺏는다는 거다. 수학을 문제 푸는 능력으로만 가르치는데, 사실 수학과 과학은 사고방식이자 물질 세계의 근간이다. 수학과 과학 없이는 착각하거나 오류에 빠지기 쉽다. 그런데 수학과 과학을 배제한 문과에 강점이 있나?
사회 이론이나 철학 같은 것을 조금 더 많이 배울 수 있지 않을까?
그건 이과에서도 할 수 있다. 통상 문과의 강점으로 역사나 문학 같은 것을 이야기 하지만, 이런 것도 이과에서 다 배울 수 있는 거다. 그런데 문과에서는 (수학이나 과학을) 안 가르친다. 문과는 교육을 ‘빼기’로 접근한다면, 이과에서는 굳이 빼기가 없다. 사회에 나가서 쓸모가 없으니 빼버린다는 관점에서 교육을 대하면 안 된다. 통으로 지식을 가르치고, 문과 이과의 구분을 없애야 한다.
특히 저학년에서는 전체를 가르치고, 나이가 들어서 자기 전공을 찾아가도록 해야 나중에 문이과 융합 프로젝트도 가능하다. 자기 전문지식을 갖고 있는 사람들이 대화하고 협업하는 게 융합이라고 생각한다. 칸막이 교육을 하고서는 나중에 나이 먹고 만나면 절대 섞이지 못한다. 교육은 출발 단계에서 공통된 소양을 갖추게 하고, 나중에 전문 영역을 깊게 공부할 수 있도록 해야 한다. 그것이 디지털 시대 교육의 방향이어야 할 것 같다.
[철학자, AI를 말하다 (하)] “챗GPT 별거 없다, 진짜 혁명은 자동번역”
Part2. AI는 인간의 일자리를 빼앗을 것인가
챗GPT를 비롯해서, 생성AI와 관련한 질문을 정말 많이 받을 것 같다. 가장 많이 받는 질문은 무엇인가?
일자리 문제다. 자기하고, 자기 애들 문제와 직결돼 있으니까.
그런 질문엔 뭐라고 답을 하나?
위험할 거라고, 일자리는 많이 사라질 거라고 얘기한다. 답은 “돈을 퍼주는 것 밖에 없다”고도 말한다.
정부가 책임져야 할까?
기본소득이 됐든, 로봇세가 됐든, 사람들이 먹고 살 수 있게끔 해줘야 한다. 이유는 단순하다. 기계한테는 돈을 줄 필요가 없기 때문이다. 기계의 소유주가 기계로 벌어들인 모든 이익을 전부 가져갈 권한이 있느냐에 대해서 완전히 새로운 논의를 시작해야 한다.
기계의 소유주가 모든 이득을 가져가면 불로소득이 엄청 커진다
옥스팜(영국의 국제구호개발기구)에서 올 초 발표한 내용에 따르면, 2021년부터 2022년까지 지난 2년간 상위 1%의 인구가 전체 부의 63%를 차지했다. 생산된 부의 3분의 2를 1%가 독점했는데, 그 근거에 ‘지식재산권’과 같은 특허가 영향을 미쳤다. 다른 데서 특허를 이용하지 못하게 해서 부를 독점한다.
문제는, 기술에 의한 재생산 비용이 거의 제로에 가깝다는 거다. 개발비를 감안해도, 그 정도의 이윤을 가져가는 것이 적합할까, 의문이다.
이 논의에 앞서 거대 IT 기업의 탈세도 중요한 문제다. 본사를 세금이 없는 국가에 페이퍼컴퍼니로 두는 방식으로 탈세를 합법적으로 한다. 기업이 세금을 안 내면 부족한 부분을 다른 사람들이 충당해야 한다. 나머지 사람들의 희생이 더 커지는 거다. 그래서 로봇세를 말하기 전에 “지금의 세금부터 잘 내라”는 압박이 가해져야 한다.
유발 하라리는 <사피엔스>라는 책에서 인공지능과 결합한 새로운 인류의 출현을 예고했다
과장이거나 혹은 거짓말인 줄 알면서 그런 말을 하는 거다. 나는 이 생성AI가 그렇게 크게 위협적이라고 생각하지 않는다. 왜냐하면 언어모델은 크기가 명확하기 때문이다. AI가 할 수 있는 것은, 기껏해야 그 언어 범위 안에 있는 것을 잘 다루는 것 뿐이다.
선생의 말씀을 정리하자면, 인공지능은 큰 위협이 되진 않지만 당장 우리의 일자리에는 영향을 줄 수 있는 존재다
(일자리에는) 엄청 크게 영향을 줄 거다. AI가 그림도 만들고, 영상 편집도 하고, 챗GPT로 쓴 책이 아마존에 며칠 만에 200권이 등록됐다는 이야기도 나온다. 기존에 그런 일을 했던 사람에게는 위협적으로 느껴질 거다. 그렇지만, 결국에는 별로 큰 위협은 아닐 거라고 본다.
당장은 혼란을 겪겠지만 시간이 지나 체계를 재정립하면 극복할 수 있는 문제다?
충격은 많이 가라앉을 것 같다. 지금의 충격이 화제가 되는 것은 ‘대화형 인터랙션 형태로 제공되는 최초의 서비스’에 가까워서다. 기존에는 테크가 남의 일처럼 느껴졌는데 챗GPT는 “내가 써볼 수 있는 기술, 내가 그림도 그려 보고 말도 해보고 써볼 수 있는 테크”니까. 하지만 그 충격은 매우 과장되어 있다.
일론 머스크 등이 주축이 된 ‘생명의 미래연구소’에서 “GPT4 이상의 생성AI 모델을 당분간 학습시키지 말자”고 주장한다. 지금을 위기라고 보고 대처할 수 있는 거버넌스를 만들자고 하는데
생명의 미래연구소는 약간 사기성도 있다고 생각한다. 왜냐하면 본인들이 별로 그렇게 생명의 미래를 걱정하는 사람들이 아니다(웃음). 그 연구소는 일론 머스크나 스튜어드 러셀 같이 명망과 돈이 있는 사람이 모였다. AI 윤리원칙을 선언한 ‘아실로마’를 카피하면서 등장했는데, AI와 관련한 가이드나 원칙을 제정해서 이걸 따르게끔 하는 게 필요하다는 걸 강조한 것이다.
만들어진지 좀 됐는데 코로나 때문에 최근에 못 모였다. 그래서 이번 선언은 자신들의 존재감을 과시한 거다. 여기 참여한 사람들 중 상당수가 테크 기업 사주거나 창업주에 해당하는 사람이다. 이 선언이 의미가 있으려면 자기들이 원칙을 지켜왔어야 한다. 그런데 머스크가 트위터에 하는 일을 봐라. 말이 안 되지 않나. 그래서 (이 선언이) 약간 쇼에 더 가깝다고 본다.
말씀하신 것처럼 거의 모든 변화를 테크가 끌고 가고 있다. 과학자는 생성AI가 인류의 미래를 바꿀 거라고 말한다. 그런데 이렇게 중요한 일을 테크가 주도권을 갖고 가도록 하는게 맞나?
안 된다. 그래서 사회적 코딩, 소셜 코딩 개념으로 접근해야 한다고 주장하는 거다. 소셜 코딩의 핵심은 엔지니어가 제품을 만들 때 사회 전체를 고려하는 코딩을 의무화하는 거다. 이 제품이나 서비스가 출시됐을 때 어떤 일이 벌어질지까지 코드에 반영해야 한다는 거다. 이건 제도적 문제가 아니라 교육의 문제다. 어렸을 때부터 엔지니어는 항상 자기의 기술이 사회에 끼칠 영향을 고려하는 방식으로 훈련을 받아야 한다.
인공지능 시대에 우리는 무엇을 공부해야 할까?
진짜 어려운 질문이다. 일단, 기초적인 지식은 갖춰야 한다. 리터러시도 중요하다. 리터러시를 ‘확장된 문해력’이라고 부르고 싶은데, 언어 외에도 과학과 수학을 포함해 어떤 현상을 보고 이해할 수 있는 능력을 말한다. 가령 신문기사를 보면서 그래프가 나온다고 제끼고 그러면 안 되지 않겠나. 이해를 위해 필요한 종합적 능력이 확장된 문해력이다.
또 중요한 것은 암기다. 중요한 지식은 내 머릿속에 넣어 놓아야 인출이 빠르다.
의외다. AI가 발달할 수록 암기는 필요 없다고 이야기 할 줄 알았는데, 오히려 중요하다고 하니
(머리를 가리키면서) 이 안에 최대한 많이 집어넣어야 한다. 중요한 걸 내가 가지고 있어야 뭐든 빨리 할 수 있다. 급할 때 어느 시간에 검색을 하고 있겠나. 암기식 교육의 문제는 남이 무언가를 네 머릿속에 집어 넣으라고 요구하는 것이기 때문이다. 그거랑 다르게 내가 필요한 게 있다면, 그건 일단 외워야 한다. 확장된 문해력과 암기, 이게 아마 (미래의 교육에 필요한) 중심이 될 거다.
선생은 몸의 중요성도 강조한다. 노동의 많은 부분을 AI가 대체하게 될 때, 몸이 만들어내는 가치에는 뭐가 있을까?
몸이 만들어내는 가치보다는 몸에게 제공하는 가치가 중요하다고 생각한다. 결국은 비트(디지털 영역)와 아톰(아날로그 영역)이 구분되고, 각자의 고유한 성격이 드러나야 한다고 생각한다. 그런데 지금은 그 둘이 섞여 있는 데다 디지털이 너무 압도하고 있다. 감각으로 나눠보면 미각이나 촉각 같은 것은 근접 감각이고 디지털화 될 수 있는 것은 원격 감각이다. 지금, 이 주제로도 집필 중이다.
원격 감각은 직접 만지는 게 아니라 떨어져서 보고 듣는 걸 말하나?
원격 감각은 디지털화해서 누구에게나 굉장히 값싸게 재생산된다. 근접 감각은 내가 몸을 움직여 변화를 야기할 수 있는 운동성이 동작하는 영역이다. 예를 들어 돈 없는 사람은 넷플릭스를 보고, 돈 있는 사람은 트랙킹을 하는 거다.
물론, 디지털로 충족시키는 원격 감각의 포지션은 엄청 클 거다. 왜냐하면 그 전에는 그것마저 즐기지 못했기 때문이다. 이 영역을 나는 콘텐츠라고 부른다. 이 안에서 영화, 게임, 쇼핑 같은 걸 할 수 있다. 그 바깥은 아직 미지의 영역이다.
지금도 1 대 1로 제공하는 운동이나 강의는 엄청 비싸다
그것도 물론이고 의료, 교육도 마찬가지가 될 거다. 교육은 특히 부가가치가 수백배 격차로 벌어질 가능성이 더 크다.
상당수 노동을 기계가 대체하면 인간은 행복하게 놀 수 있다고 말하는데, 노동으로 가치를 만들어내지 않고 노는 삶이 과연 행복할까? 그게 인간에게 정말 좋은 사회일까?
그렇게 물어볼 수도 있는데, 거꾸로 물어보면 지금이 좋은가?
아… 비교해보니 그렇다. 지금은 인간이 종일 일을 하니까
지쳐서 뭔가 할 여력도 별로 없고. 지금과 비교하면 노는 건 무조건 좋지 않겠나(웃음). 지금처럼 계속 살고 싶은 사람은 아무도 없다. 놀 수 있게 된다면, 그때 뭘 갖고 놀 거냐를 비로소 고민할 거다. 인공지능은 노동하는 존재고, 인간은 노는 존재다. 기존에는 놀기 위해 노동을 했는데, 이제는 기계가노동을 대신해주니 잘 노는 법을 찾아야 한다. 그게 인문 예술의 영역이다.
놀기 위해서 중요한 것은, 어떻게 부를 재분배할 것인가에 대한 빠른 합의겠다
분배가 가장 큰 이슈라고 본다. 논리적으로 “지금의 방식이 정당하지 않다”고 계속 이야기하는 게 중요하다. 다시 말하지만, 지식의 독창성이나 IP 같은 것 바탕에는 인류 공동이 축적한 기여가 엄청나게 크게 깔려 있다. 그 축적물에 새로운 것을 (손가락으로 아주 조금의 양을 만들어 보이면서) 요만큼 보탰는데, 누리는 것은 전체를 누리는 구조는, 정말 부당하다고 얘기할 수 있다고 본다.
그렇지만 경제적 동인이 없으면 누가 새로운 아이디어를 내겠느냐고들 이야기한다. 그게 지금 지적재산권이 힘을 얻는 기본 동인이다
오픈소스의 생산력이 되게 높다. 프리(free, 무료) 소프트웨어나 소스에 사람들이 기여하면서 생기는 명예가 크다. 사람이 무언가 남을 위해 일할 때 느끼는 보람과 만족은 엄청 큰 동력이다. 남한테 무언가 선물할 때 기쁨을 느끼지 않는 사람은 아무도 없다고 본다. 그걸 잘 할 기회가 없었을 뿐이다.
Part3. 윤리적인 AI란 세상에 존재하나?
윤리적인 AI를 개발해야 한다고 말한다. 인공지능에 적용할 수 있는 인류 보편의 윤리라는 게 있을까?
윤리 이야기에도 조금은 사기성이 있다고 본다. 윤리 문제를 제일 많이 제기하는 곳이 유럽권이다. 유럽에는 두 가지가 없다. 기술과 플랫폼. 미국은 둘 다 가지고 있고, 한국에는 그래도 플랫폼은 있다. 그래서 유럽이 GDPR(일반데이터보호규정)이라든지, 윤리적 영역을 계속 얘기하는 이유는 미국 시장이 유럽을 바로 먹지 못하게끔 하는 안전장치다.
같은 의미에서 연구를 해봤는데, 미국은 돈이 있고 중국은 정보가 있다. 살아남을 길이 뭐냐면 제도를 만드는 거다. 제도적인 비관세 장벽(관세 외의 무역장벽)을 둘러서 구글이나 페이스북 같은 미국 빅테크의 공세에 버틸 여력을 만드는 거다.
또 다른 윤리 문제로 이루다 논쟁이 있다. 편향적 응답으로 사회적으로 큰 문제가 됐다
그건 윤리의 문제라고 부르기는 좀 어렵지 않나. 윤리라는 말이 다의적이라, 유럽의 GDPR 논의와 이루다 건의 맥락은 서로 다르다. 이루다 건은 실질적 폭력이 행사된 것이라 사법의 영역이라 불러도 상관이 없을 것 같다.
더 나은 인공지능 개발을 위해서 철학자가 줄 수 있는 제언이 있나?
영어로 된 지식 중심의 접근법을 벗어나야 한다. 가령, “언어는 ~한 거다”라고 말할 때 촘스키와 같은 사람의 이론, 영어로 된 지식이 논의의 중심에 있다. 그런 식의 표준으로 아이디어가 한정되어 있는 것 같다. 그런데 그것만으로는 분명히 한계가 있다고 생각한다.
기존의 룰 안에서 생각하는 것을 벗어나라?
기존의 룰은 영어로 구성되어 있다. 엔지니어도 영어로 사고한다. 거기에서 아이디어를 확장해 나간다. 그런데 그걸로 충분할까?
그런 사고는 어떤 문제가 있나
근본적인 편견을 벗어나지 못하는 것 같다. 영어권의 주류 사고에서는 언어가 세계를 다 담고 있다고 전제하는 것 같다. 그래서 초거대언어모델로 모든 걸 다 해결할 수 있다는 추세다. 그런데 얀 르쿤(메타 인공지능 연구소 수석 과학자)은 프랑스 사람이다. 입장이 조금 다르다. “AI는 편견만 강화할 뿐, 절대 큰 도약을 이룰 수 없다”는 이야기를 매일 같이 한다. 미국 쪽 샘 알트만(오픈AI CEO)과는 AI에 대한 접근 방식에서 차이가 두드러진다.
기존의 사고를 벗어나 변방의 사고를 하게 되면 결과적으로 어떤 미래를 기대할 수 있을까?
그건 잘 모르겠다. 왜냐하면 한국적인 사고 같은 게 특별히 있나 회의적이라서다. 미국의 커리큘럼을 교육 과정에서 배워왔으니까 그렇다. 다만, 데이터로서의 언어는 다르다. 같은 문장이라도 언어마다 ‘토큰화’하는 방식이 다르다. 그런데 영어를 표준으로 하는 토큰화 방식은 한국어에 불리하다. 가령 “내가 산책을 간다”라는 문장을 토큰화할 때 영어식으로 하면 자음별로 모두 쪼개야 한다. 토큰의 수가 불어난다. 그런데 영어는 발음별로 묶으면 토큰이 줄어든다
훨씬 더 유리하겠다
유리한 정도가 아니다. 그런데 지금 네이버에서 구축하려 하는 것이 한국어의 특성을 잘 반영해 한글 토큰을 최대한 압축하는 것이다. 토큰 단위로 발생하는 비용을 많이 줄여줄 수 있다. 한국어 언어 모델이 왜 필요하냐고 이상한 이야기를 하는 사람들이 있는데, 그렇지 않다.
한국어 언어 모델 개발이 산업적으로도 매우 중요한 일이겠다
학습 데이터 양 자체에도 차이가 난다. 또, 한국어 때문에 생겨나는 특색같은 부분이 분명히 있고. 특히, 인문예술 쪽에서는 이런 한국어 언어 모델 개발이 되게 중요하다.
AI와 관련해 우리가 더 주목해서 봐야 할 것이 있을까?
대통령까지 나와서 챗GPT를 강조하다보니, 사람들이 많이 공포감을 느끼는 것 같다. 그런데 생성AI는 큰 위협은 아니다. 지금 더 중요한 기술은 인공지능 번역 같은 것이다.
(보다 정확한) 번역기의 등장, 지식의 확산이 가져다주는 혁명적 측면이 훨씬 크다. 그런데 이건 아무도 이야기를 안 한다. 책 한 권 번역이 1분이면 끝난다. 가령, 영어를 잘 못하던 한국 사람이 이런 번역기를 쓰면 참고할 문헌이 한 1000배는 늘어나는 것이다. 게다가 이런 번역기는 영어 뿐 아니라 다른 외국어도 다 잘한다.
마치 인쇄술의 발명 같다. 말씀하신 대로 지식이 많이 확산이 되면, 영어 외 언어로 쓰인 것에 대한 지식도 늘어날 수 있게 된다
기술을 활용할 수 있는 사람은 생산성이 엄청 늘어날 걸로 보인다. 딥엘과 같은 번역기를 API로 연결해서 전자책이나 카메라, 구글 렌즈 같은 것에 연결하면 실생활에 진짜로 큰 변화가 일어나지 않겠나.
글. 바이라인네트워크
<남혜현 기자> smilla@byline.network
Comments