최근 발표된 ‘생성 인공지능 이용 조사 결과'(아래 그림 참조)는 몇 가지 중요한 시사점을 안겨 준다.
첫째, 2023년 작년 내내 정말 떠들썩했고 수백조 원이 투자되었는데도 불구하고, 한국의 만15세~만65세 일반인이 이용한 경험 자체가 12.3%에 머물렀다. 소문 따로 실제 따로라는 얘기. 그렇다면 누구에게 일어났던 열풍일까? 돈의 흐름은 어떤 경로를 따랐을까? 외국의 경우는 어떨까? 한국보다 더 적은 수가 이용한 건 아닐까?
둘째, 생성 인공지능을 이용하는 가장 큰 이유로 ‘정보 검색에 효율적’이라고 답했다는 점이다(특히 텍스트 생성 인공지능, 즉 챗GPT, 클로드, 제미니 등 이용자). 무려 88.1%다. 하지만 생성 인공지능은 검색엔진이 아니다. 챗봇은 말 만드는 기계일 뿐, 진실과는 상관없다. 언어모델 인공지능(챗봇 인공지능)에게 뭘 알려고 질문하는 사람은 신뢰하기 어렵다. 자신이 사용하는 것이 무엇을 할 수 있는지, 어떤 용도에 쓰이는지도 모르면서 사용하는 것이기 때문이다.
사실, 챗봇 인공지능이 틀린 소리(‘환각(hallucination)’ 혹은 ‘헛소리(bullshit)’)를 10% 내외로 반드시 포함한다. 여러 보완 수단을 동원해도 개선이 요원하다는 푸념이 들린다. 챗봇 인공지능을 검색 엔진으로 쓴다는 건 이런 것과 마찬가지다. 초거대 계산기가 있어서, 모든 계산을 다 해주는데, 10개 중 하나는 계산이 반드시 틀리게 되어 있다고 치자. 이 계산기를 믿고 사용할 수 있겠는가? 검색 엔진으로 쓰는 사람은 이 계산기를 100% 믿고 쓰겠다는 것과 마찬가지다. 왜 챗봇 인공지능이 생성한 문장은 다 믿고 쓰는가? 낭패를 볼 것이 100% 확실한데. 결국 자신이 사용하는 기계의 용도를 모르면서 사용하고 있다는 뜻이다.
이 상황이 개선될 수 있을까? 대중의 계몽이 가능할까? 전문가, 교육계, 정치권이 힘을 합쳐도 쉽지 않은 일이다. 돈의 선전선동은 무지의 다리를 건너 이동하니까.
Comments