AI와 휴먼 인 더 루프(Human in the Loop)

인공지능이 내린 결정을 신뢰할 수 있을까? 신뢰할 수도 없고 신뢰해서도 안 된다는 것이 학자들의 결론이다. 신뢰할 수 없다는 측면은 기술적 문제고, 신뢰해서는 안 된다는 측면은 규범적 문제다. 딥러닝을 통해 구축한 인공지능은 ‘블랙박스’ 문제를 안고 있다. 인공지능이 왜 그런 결정을 내렸는지 인간이 알 수 없는 지점, 이른바 ‘암흑상자’가 있기 때문이다. 문제가 발생했더라도 왜 그런 결정에 이르렀는지 알 수 없기 때문에, 문제가 생기지 않도록 고치는 데 큰 어려움을 겪는다. 사실은 문제를 고칠 수 없고, 새로운 학습을 통해 처음부터 새 모델을 만들어야 한다고 말해야 정확하다.

이런 문제에 대한 대처 방안으로 거론되는 것이 ‘휴먼 인 더 루프(Human in the Loop)’다. 즉 의사결정 과정에 인간이 한 부분으로 개입해 불투명성 문제를 보완한다는 것이다. 기계의 허점을 인간이 보완할 수 있도록 설정한다는 점에서 인간은 전체 프로그램의 일부다.

그런데 휴먼 인 더 루프 접근법은 다른 더 중요한 문제에 대한 대응일 수 있다. 바로 미드저니나 챗GPT 같은 생성 인공지능의 사용과 관련된다. 여기서 중요한 문제는 생성 내용의 진실성과 관련된다. 인간은 생성 인공지능을 사용해 아주 빠른 속도로 이미지나 글, 혹은 그밖의 것들을 생성한다. 생성물의 진실성은 담보되지 않는다. 생성 인공지능은 학습된 자료에서 뭔가 그럴듯한 것을 꾸며내는 능력을 본질로 하기 때문이다. 따라서 생성물을 인간이 평가하고 수정하는 단계를 거쳐야 한다. 이 작업 역시 인간과 기계의 협업이지만, 앞의 투명성 문제로 인해 인간이 개입하는 것과는 다른 성격을 갖는다. 여기서는 인간의 전문 지식과 감식안이 중요한 역할을 하기 때문에, 주도하는 것은 인간이다. 만약 잘못된 생성물을 놓치거나 방치하면 이용자가 손해를 볼 수밖에 없다.

휴먼 인 더 루프 접근법은 크게 둘로 구분된다. 첫째는 의사결정 과정의 불투명성이 가져올 수 있는 신뢰의 어려움을 극복하기 위한 점검 차원의 개입이고, 둘째는 생성물의 진실성을 놓치지 않기 위한 평가 차원의 개입이다. 둘 모두 인간과 기계가 연결되어 만들어지는 ‘배치체’가 중심 역할을 한다. 인공지능과 관련해 인간과 기계의 이런 연결은 앞으로 더 주목받게 될 것이고, 연결 방식에 대한 고민은 빠를수록 좋을 것이다.

철학이 기술에 개입한다면 아마 이런 고민을 함께 하는 데서 출발해야 하리라. 인공지능뿐 아니라 디지털 기술 전반이 이런 방향에서 고민되어야 할 것이다. 인간-기계 배치체는 디지털 기술과 함께 새로운 국면에 접어들었기 때문이다.

Comments

Leave a Reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.