AI 기반 XXX 스타트업. AI 기반 XXX 제품.

이제는 인공지능(AI)를 앞에 붙이지 않은 스타트업이나 제품이 거의 없다시피 합니다. 몇 년 전에는 "빅데이터"가 이러한 역할을 했었죠. 간단한 규칙기반 알고리즘이든 통계 모델이든, 딥러닝이든, AI 기반이라고 할 수 있는 것의 경계선이 어디서부터 어디인지 잘은 모르겠지만 중요한지 않습니다. 그만큼 AI는 가장 핫한 기술, PR, 마케팅 단어가 되었습니다.

저 역시 AI의 한 분야인 자연어처리(NLP)를 이용한 제품을 개발하는 사람이기에, 이 질문을 항상 머리 속에 지니고 삽니다:

"AI로 만들 수 있는 제품은 무엇일까? 사람들이 사용할 것은 무엇일까? 돈을 주고 팔 수 있는 것은 무엇일까?"

최근에 마이클 J. 샌델 교수의 책 <돈으로 살 수 없는 것들: 무엇이 가치를 결정하는가>*를 읽었습니다. 이 책은 아무리 우리가 자본주의 경제 속에 살고 있다고 해서 모든 것이 돈의 논리로 돌아가지 않고, 그래서도 안된다는 이야기를 합니다.

이 책에 영감을 받아 위의 질문을 반대로 바꾸어 생각해보았습니다.

"AI로 만들 수 없는 제품을 무엇일까? 사람들이 사용하지 않을 것은 무엇일까? 돈을 받고 팔 수 없는 것은 무엇일까?"

원제를 오마주하여, 제목을 붙였습니다. <AI로 팔 수 없는 것들>.

생산성(productivity), 진정성(authenticity), 윤리(ethics), 공정(fairness), 해석(interpretability)의 관점에서 AI 기반 제품을 풀어보았습니다.

왜 AI 기반 제품을 만드는가

왜 많은 사람들이 AI 기반 제품을 만들고 싶어하는 것일까요?

1) 자동화: 사람이 하는 일을 기계로 대체하여 비용 절감하려고
2) 더 많은 데이터 처리: 수백만 장의 자료에서 필요한 부분을 검색한다거나 빅데이터 통해 통계 모델 학습해 이용하여 사람이 할 수 없는 양의 데이터를 처리하려고.
3) 인간 이상의 무언가의 능력: 인간은 못 찾는 비선형적인 패턴을 통해 미래를 예측하거나 더 적은 에러의 분석/의사결정을 하려고.

이 정도가 생각이 나는데요. 공통적인 키워드는 생산성(productivity)라고 생각합니다. 자동화는 결국 조직의 생산성에 영향을 끼치고, 더 많은 데이터 처리와 인간 이상의 능력을 잘 활용하는 것도 역시 사용자의 생산성에 막대한 증가를 가져올 수 있습니다.

효율성과 생산성의 극대화를 지향하는 경제학처럼, AI 기반의 제품을 만든다는 것도 대부분 생산성을 끌어올리려는 것이 가장 큰 목표라고 생각합니다.

생산성 증가는 항상 가치를 만들어 내는가


샌델 교수는 책에서 경제적 비효율이 발생함에도 불구하고 사람들이 돈을 내고 사지 않는 것들에 대해 이야기합니다.

경제학적 사고로 이해가 되지 않는 우리의 행동은 많습니다. 돈이 아무리 좋아한다 해도 때때로는 최우선의 가치로 두지 않기 때문입니다.

예를 들어, 우리는 경제적으로 가장 효율적인 현금을 선물로 주는 것보다 고민하여 친구가 좋아할만한 것을 선물하는 문화가 있습니다. 인간의 존엄성을 지켜야한다는 도덕적인 이유로 사고 팔지 못하게 한 것들 역시 많습니다. 이러한 것들은 경제적 비효율성(deadweight loss)을 발생시킴에도 불구하고 사회에 깊숙히 박혀있습니다.

AI 기반 제품 역시 그렇다고 생각합니다. 생산성 증가가 무조건 가치를 만들어내는 것이 아닐 수도 있습니다.

창작물(creative work)의 진정한 가치

GPT-3 같은 언어 모델의 비약적인 발전으로 정말 사람이 쓴 것 같은 글을 "생산"해낼 수 있습니다. 미술 작품 역시 스타일 트랜스퍼(style transfer)라는 기술을 통해 미술 작가의 기법을 어떤 그림이나 사진에도 이식할 수 있습니다.

또한 최근 얼굴과 음성에 대한 인식 및 합성이 비약적으로 발전하면서 AI로 만들어진 가상 음악, 아이돌, 래퍼까지 등장하였습니다. 아직 프로토타입 단계이지만 기술의 발전이 놀랍게 느껴집니다.

사람들은 인간이 아닌 AI가 만들어낸 미술, 음악 같은 창작물의 가치를 어떻게 평가할까요?

유명 작가의 스타일을 기존의 사진이나 미술에 이식하는 스타일 트랜스퍼 기술

저는 AI가 만들어 낸 창작물은 인간 아티스트가 만든 것에 비해 가치가 현저히 떨어질 것이라고 생각합니다. 특히 예술처럼 필요가 아닌 기호에 의해 가치가 매겨지는 것일수록.

우리는 창작물 자체의 아름다움과 희열을 느끼기도 하지만, 그것을 만든 창작자 "인간"을 보고 가치를 측정하는 경우가 많습니다. 그 사람의 인생, 창작물에 들인 노력과 시간 등. 특히 아티스트가 스타성이 있는 작품일수록 더더욱 그렇겠지요.

최근에 저는 피카소의 말년 작품이 전시된 미술관을 갔었는데 그의 창작물 뿐만 아니라 91세까지 작업을 하는 모습을 담은 사진, 여러 가지 인생 이야기를 함께 전시한 것이 인상적이었습니다. 특히 함께 살던 아내에 대한 사랑과 본인의 죽음에 대한 두려움을 표현해낸 작품들은 그 인생 스토리를 알지 못하고는 그 가치를 전부 이해하지는 못했을 것이라고 생각합니다. 큐레이터 역시 이러한 점을 알고 전시에 피카소라는 사인간에 대한 요소를 배치했겠지요.

또한, 제가 가장 좋아하는 음악인은 아이유(IU)인데요. 제가 아이유의 음악에 더 큰 가치를 두게 된 이유는 뛰어난 음악성 뿐만 아니라, 그녀가 훌륭한 철학을 가지고 창작 일을 한다고 느끼게 되었기 때문입니다. 특히 최근에 <유키즈온더블락>에서 인터뷰를 한 것을 보고 20대 동안 어떤 생각을 가지고 아티스트로 성장해왔는지 배울 수 있었습니다. 그리고 드라마 <나의 아저씨>에서 보여준 깊은 연기는 음악이라는 형태를 넘어서 이러한 철학이 표출될 수 있다는 점도 보았습니다. 덕분에 팬으로써, 소비자로써 새로 나온 앨범 역시 이러한 입체적인 인간적인 컨텍스트를 가지고 듣고 있습니다.

또다른 만능 아티스트 윤종신 님은 구글 코리아와의 강연에서 "AI가 윤종신보다 윤종신스러운 음악을 만들어 대체할 수 있을 정도가 되면 어떻게 할 것인가?"라는 질문에 이렇게 답을 하였습니다.

"(기술 발전은 봐서는) 제 과거 데이터를 봐서 충분히 나올 것 같고...
근데 제가 드는 생각은 '제 데이터를 활용하는데 그 비용은 나한테 내겠지?'
뭐 수익이 쉐어가 된다면 난 괜찮다!

(중략)

저는 또 AI가 그런 노래를 낸다면, 'AI가 이런 노래를 냈네'라는 노래를 낼 것 같아요"

이러한 윤종신 님의 재치 있는 입담과 공감되는 가사 때문에 우리는 그의 창작물을 좀 더 가치를 두고 사랑하는 것이죠.

해당 질문은 47:52부터

단순히 AI로 창작물을 그럴듯하게 또는 더 기술적으로 훌륭하게 만들 수 있다고 해서 과연 사람들의 마음을 사로잡을 수 있을까요?

최소한 여태까지 제가 보아온 프로젝트들은 이러한 인간적인 것들이 배제된 한계를 지니고 있었습니다. 효율성을 극대화한 나머지 인간 자체도 지워버렸으니깐요.

물론 예외는 있을 수 있습니다. 고 김광석 님의 목소리를 AI로 합성하여 사후의 히트곡인 <보고 싶다>를 부르는 영상을 보았습니다. 이러한 경우는 AI를 통해 오히려 사람들이 사랑하는 아티스트의 인간적인 면을 (잠시나마) 부활시킨 경우라고 볼 수 있겠습니다.

어디서부터 진정성(authenticity)이 묻어나는가

진정성은 생산성의 영역을 벗어난 가치입니다. 샌델 교수는 "만일 결혼식에서 신부의 절친이 축사를 본인이 쓰지 않고 유령작가를 고용해서 쓴 것을 읽었다는 것을 안다면 신부나 하객들이 동일한 감동을 느낄까?"라는 질문을 던집니다.

만일 하객이 본인이 쓴 축사 초안을 다른 전문가에게 교정을 받았다면? AI 기반 문법체킹 툴을 사용했다면? 아니면 첫 두 문장만 쓰고 나머지는 GPT-3로 생성하였다면 어땠을까요?

음악도 마찬가지겠지요. 지금도 이미 음악 작업자달은 여러 발전된 디지털 음악도구로 음악을 만들지만 대부분의 사람들은 이런 음악의 가짜라고 폄하하지는 않습니다. 반대로 악기만 사용한 라이브 음악에 대해 좀 더 열광하는 사람도 있겠지만요. 그렇다면 AI 기술을 이용하여 음악을 만든다면 어떨까요?

이처럼 언제부터 어떻게 해야 무언가가 진정성을 갖추게 되는가는 애매모호한 선에 있다는 것을 알 수 있습니다. 이러한 것이 중요한 제품이라면 AI를 활용하기 전에 이 선에 대해 고민해볼 필요가 있다고 생각합니다.

AI의 윤리적 문제

다른 사람의 얼굴을 동영상에 진짜 같이 합성해주는 딥페이크 기술이 처음 나왔을 때 신기했지만 걱정이 앞섰습니다. 악용될 소재가 굉장히 많아보였기 때문이죠. 가짜 뉴스, 폭력/음란물 생산에 오용되는 것은 너무 당연히 잘못된 것이기 때문에 논하지 않겠습니다. 이 외에도 딥페이크 기술을 합법적인 영역에서 사용하는 것에 대해도 우려가 많습니다.

최근 화제가 딥페이크 톰크루즈. 실제 그는 이걸 보고 무슨 생각이 들었을까요?

예를 들어, 한국에서 일본은 아이돌 문화가 크게 발전하고 있죠. BTS나 블랙핑크 같은 세계적인 스타로 성장하는 일류 아이돌도 있지만, 일명 "노예 계약서" 때문에 멤버들의 기본 인권이 무시되는 경우가 많다고 합니다. 정당한 댓가도 받지 못하고 사인회, 축제 등 살인적인 행사 스케쥴을 본인의 건강이나 의지와 상관 없이 무조건 끌려다니는 경우도 있다고 하죠.

근데 만일 딥페이크와 음성합성 기술을 사용하여 개인화(?) 아이돌 같은 제품이 나온다면? 내가 좋아하는 아이돌이 스마트폰이나 VR을 통해 내 이름을 불러주고 나에게 "잘자"라고 하고 듣기 좋은 말을 해준다면?

얼핏 생각하면 아무런 문제가 없어보이지만, 이는 큰 윤리적 문제를 야기한다고 생각합니다. 지금은 최소한 아이돌 멤버는 자신의 입에서 나오는 말이나 표정을 자신이 통제할 수 있습니다 (물론 분위기, 계약, 회사의 요구 등에 압박이 있겠지만요).

그러나 저렇게 딥페이크를 이용한 제품이 나온다면 그들은 본인의 발언에 대한 통제권을 완전히 잃어버립니다. 계약은 법적으로 문제가 없게 잘 설계가 되어 있겠죠. 과연 이러한 AI 기반 제품이 윤리적이라고 할 수 있을까요?

이처럼 하나의 인간을 모방하는 AI는 글이든, 표정이든, 목소리이든 민감한 윤리적 영역에 맞닿아있습니다. 개인정보 유출로 논란이 된 챗봇 역시 비슷한 맥락이라고 생각됩니다. 아무리 파편화되었지만 본인의 사생활이 담긴 메세지의 일부분이 어떤 제품으로 타인에게 노출된다는 것은 인권을 해칠 수 있는 일입니다.

AI는 공정하다는 착각

또다른 큰 문제는 사람들이 AI 모델은 무조건 공정하다는 착각을 한다는 점입니다. 이는 전혀 사실이 아닙니다. 최근 몇년 간 NLP를 비롯한 다양한 AI 모델의 공정성에 대한 연구가 화두로 떠올랐습니다. 이미 많은 연구에서 데이터에서 시작되어 모델 학습 방법 때문에 세상에 존재하는 여러 가지 편견과 편향이 AI 모델에 똑같이 나타난다는 것을 밝혀냈습니다.

그렇기 때문에 이러한 편향성에 대해 인지를 하고, 어떤 문제에 적용할 때 이를 특별히 더 조심해야 하는지 잘 생각해야 합니다. 특히 편향성 때문에 누구에게 불공정하게 불이익을 줄 수 있는 경우에는 말이죠.

예를 들어, 2019년 네이쳐에 실린 연구에 따르면 미국 헬스케어 시스템에 적용된 알고리즘은 환자의 데이터를 통해 병원 프로그램에 참가를 시킬지 안시킬지 결정을 하도록 학습되어있는데, 사후 분석 결과 흑인보다 백인에게 더 자리를 내주는 경향을 보였습니다. 심지어 같은 건강 상태였음에도 불구하고요. 또한 여러 은행에서 알고리즘을 통해 대출을 승인해줄지 안해줄지 결정을 한다거나, 회사에서 서류 전형 통과도 알고리즘으로 결정하다거나 등의 문제에서 편향성 문제가 제기되고 있습니다.

AI 기반의 의사결정이 누군가에게 의도치않게 불공정을 겪게 하고 있을지도 모릅니다.

편향성을 잡아주지 않은 악플 방지 모델(왼쪽)은 성정체성 같은 특정 토픽에 대한 글에 높은 에러율을 보입니다. (출처: Google AI Blog)

AI는 완벽하다는 착각

사람도, 컴퓨터 시스템도 완벽하지 않습니다만, 많은 경우 사람보다는 시스템이 소음에 의한 실수가 적다고 알려져있습니다. 그렇기 때문에 이러한 에러를 줄여 효율성을 높이기 위해 AI 같은 시스템으로 많은 부분을 대체하려고 하고 있는 것이겠죠.

근데 많은 사람들은 인간이 발생시키는 실수보다 기계가 내는 실수에 좀 더 민감한 경향을 보인다고 합니다**. 그렇기 때문에 많은 도메인에서의 시스템으로의 대체가 느리거나 아예 진행되지 않고 있습니다. 사람들은 AI는 완벽하다는 기대감이 있어서 조금이라도 실수를 하면 바로 내쳐버리고 사람의 직관에 의한 의사결정으로 돌아갑니다. 완벽하진 않지만 사람보단 알고리즘이 훨씬 나을 때도 말이죠.

특히 AI의 결정의 설명하기 힘들 때 더더욱 그렇습니다. 이를 모델 해설력(Model Interpretability)라고도 하는데 AI 모델이 왜 이러한 예측을 했는지 사람이 직관적으로 이해할 수 있는 설명을 할 수 있는지 없는지에 대한 이야기입니다. 특히 최근 강력한 성능으로 떠오른 딥러닝 모델 같은 경우에는 아직은 모델 해설력이 떨어집니다. 많은 연구들이 진행되고 있지만요. 그렇게 때문에 실수를 한다고 해도 어떻게 고쳐야 할지 명확하지 않은 경우도 많습니다. 전반적인 성능을 높이는 건 가능해도 단 한개의 샘플을 콕 찝어서 고치는 것(point-fix)는 정말 어려울 수도 있습니다.

의사 결정에 있어서 과정 논리 설명이 중요하다면 AI가 더 성능이 좋아도 팔 수 없을지도 모릅니다. 사람이 실수하면 앉혀다가 왜 그랬는지 추궁할 수 있지만, AI 모델은 그러지 못하기 때문이죠. 딥러닝 같은 최신 기법이 더 좋아도 더 심플한 통계 모델이나 휴리스틱(heuristic)이 더 좋을 수도 있습니다. 결과를 인간이 훨씬 더 이해하고 설명하기 쉽기 때문이죠. 특히 의학, 금융 같은 도메인은 이러한게 더 중요할지도 모르겠습니다.

"제품이 풀려고 하는 문제 또는 팔아야 하는 고객이 실수에 민감한가?
그렇다면 얼마나?
그리고 모델의 결과에 대해 과정 논리 설명이 꼭 필요한가?"

AI 모델은 완벽하지 않기 때문에 꼭 생각해야할 문제라고 생각합니다.

최근 Explainable AI로 뜨고 있는 스타트업 Fiddler AI (AiTimes 기사)

오늘은 기술적인 주제에서 벗어나 좀 더 AI를 제품 관점에서 생각을 정리해보았습니다. AI 기반 제품을 만들 때 어떠한 것들을 고려해보면 좋을지, 무엇에 사람들이 가치를 두는지 고찰해보았습니다.

* 생산성: AI를 사용하려는 가장 주요한 이유
* 진정성: AI가 사람이 아니기 때문에 얻기 힘들 수도 있는 것
* 윤리: AI가 잘못 사용되어 비윤리적인 제품이 될 위험
* 공정: AI가 의도치 않게 가진 편향성 때문에 비공정을 야기할 수 있는 위험
* 해석: AI 모델을 설명/해석하는 것이 힘들어 채택 되지 못할 가능성

저도 아직 경험이 부족하기 때문에 이게 정답이 아닐 수도 있고 전부가 아닐 수 있다는 점을 고려해주셨으면 좋겠습니다. 혹시 이 주제에 대해 본인의 경험이 있거나 다른 의견이 있으시다면 꼭 댓글이나 이메일(jiho@jiho-ml.com)으로 공유해주세요!

REFERENCE

*Michael J. Sandel, What Money Can't Buy, 2012

**Daniel Kahneman, Cass Sunstein, and Olivier Sibony, Noise: A Flaw in Human Judgement, 2021