본문 바로가기
  • 호기심 가득한 선생님
호기심 가득한 책 읽기

현실을 왜곡하는 인공지능 윤리: AI는 양심이 없다 1

by 호기심 가득한 선생님 2023. 2. 27.

 기술의 발전에 따라 사회 전반에는 전에 없던 새로운 사회 현상들과 그에 수반되는 여러 문제들이 발생합니다. 그때마다 우리는 새로운 윤리에 대한 고민과 법 개정을 통해 해결해 왔습니다. 그러나 인공지능은 법만으로는 해결이 어렵습니다. 사회에서 합의된 인공지능 윤리가 꼭 필요합니다.

 

AI는-양심이-없다
AI는 양심이 없다 by 김명주

현실을 왜곡하는 인공지능 윤리: AI는 양심이 없다 1

 

죽음을 왜곡하는 인공지능 윤리

 "인공지능은 고인을 대상으로 하여 '죽음을 흔드는 손'으로 급부상하고 있다. 고인이 남긴 디지털 흔적과 디지털 유산을 활용해 인공지능이 고인을 디지털 세상에 다시 불러와서 이곳에서 활동을 재개하도록 해주는 '사후 디지털 부활' 또는 '사후 디지털 고용' 현상은 얼마 가지 않아 본격화될 것으로 보인다. 이로 인해 여러 가지 윤리적 문제가 발생하며 이전에 합의해 본 적 없는 사회적 갈등도 일어날 것이다."

 

 사람들이 죽음에 대한 공포를 갖는 것은 너무나도 당연합니다. 진시황은 죽음이 너무나 두려워 불로초를 찾아 영생의 꿈을 꿨습니다. 그런데 불로장생의 해답은 불로초가 아닌 인공지능이었습니다! 인공지능의 개념조차 없었던 시절이었으니 진시황은 처음부터 영원한 삶을 살기가 거의 불가능했다고 생각합니다.

 

 사후 디지털 고용(DEAD)이란, 이미 세상을 떠나 고인이 된 사람이 인터넷과 컴퓨터 시스템 안에 남겨 놓은 디지털 흔적을 이용해 생전의 디지털 인물로 부활시킨 후 직업 활동을 다시 할 수 있도록 복구한 것을 의미합니다. 인공지능이 우리가 죽어서도 일을 시킵니다. 이제는 편히 쉬어야 할 때이지만 쉬지 말고 일하라고 하는 셈이죠. 이런 사후 디지털 고용은 흔히 유명인들을 대상으로 많이 이루어집니다. 마이클 잭슨, 달리, 오드리 햅번, 터틀맨, 김광석 등 많은 사람들을 목소리뿐만 아니라 전체적인 모습을 인공지능을 통해 다시 재현해 냅니다. 우리가 너무나도 사랑했던 사람들을 다시 만나 볼 수 있고 목소리를 다시 들을 수 있는 경험은 팬들 입장에서는 축복이었을 것이라고 생각합니다. 반대로 여러분은 어떠세요? 여러분은 여러분의 사후 디지털 고용을 허락하시겠습니까?

 

 실제 2020년 1월 일본인과 미국인 1030명을 대상으로 진행한 사후 디지털 고용에 대한 설문 결과를 보면, 76.7%가 반대한다고 응답했습니다. 죽음과 삶의 경계를 명확히 해야 한다는 사람들의 인식이 강한 것이라고 저는 생각했습니다. 죽음이라는 두려운 대상이 있기 때문에 우리가 더 열심히 그리고 매일을 행복하기 위해서  노력하며 살아간다고 생각합니다. 인간의 삶의 근본적 윤리 문제도 인공지능이 제시하기 시작했습니다. 저는 저의 사후 디지털 고용은 반대할 것 같습니다.

 

 사후 디지털 고용만이 아니라 고인을 현실 세계에서 만날 수 있도록 해주는 기술도 개발되었습니다. 네, 맞습니다. 개발하려는 것이 아니라 이미 개발이 완료되었습니다. 2021년 1월 마이크로소프트는 2017년부터 이미 보유해 온 고인을 현실 세계에서 만날 수 있는 기술을 보유하고 특허 등록까지 다 해놨다고 했습니다. 고인의 성격과 가치관을 그대로 복제할 뿐만 아니라 독특한 말투까지도 따라 하는 수준까지 기술을 개발한 겁니다. 정말 죽음조차 허락하지 않는, 죽음도 왜곡하는 인공지능의 능력을 보고 있으면 대단하다는 생각도 들지만 두렵다는 생각도 문득 듭니다.

 

 물론 이 기술을 통해서 살아 있는 사람이 고인을 애도하는 방식을 더 건강하고 건설적으로 가져갈 수 있겠다는 생각은 합니다. 하지만 이 기술이 발전되고 발전되어 촉감까지 느낄 수 있는, 체온도 느낄 수 있는 수준까지 올라간다면 어떨까요? 그 사람은 죽었다고 봐야 할까요, 살았다고 봐야 할까요? 그로 인해 살아있는 사람들에게 발생하는 여러 심리적, 정신적 문제들은 없을까요? 있다면 어떤 것들이 있을까요? 생각해봐야 할 문제들이 산더미입니다. 이 주제를 가지고 만들어진 소설, 영화, 드라마가 적지 않습니다. 그만큼 우리에게 가까이 왔다는 증거 아닐까요? RIP라는 표현은 원래 'Rest in Peace'라는 표현으로 '평화 속 쉬다'라는 뜻으로 사용이 되었는데 최근 인공지능의 발달로 삶의 경계가 모호해지면서 'Rest in Pixels'로 표현되기도 합니다.

 

당신의 인식 능력을 왜곡하는 인공지능 윤리

 "가상 인플루언서는 인스타그램, 유튜브 등의 SNS에서 인플루언서로 활동하는 디지털 인물이다. 일종의 가상 인간이다. 기업들은 자신들의 브랜드 이미지를 잘 드러낼 수 있는 홍보 대사를 찾는 것이 쉽지 않다고 한다. 설령 찾는다고 하더라도 그 홍보 대사가 나중에 사회적 물의를 일으키는 과거의 숨기고 싶은 아픈 이력들이 대중들에게 드러날 경우 브랜드 이미지도 함께 추락하는 위험이 생기기 대문이다."

 

 이제 한국에서 가상 인플루언서라는 존재가 우리 앞에 나타난 지도 5년 정도가 되었습니다. 너무나도 신기해 했던 기억이 납니다. '어떻게 봐도 사람이고, 행동하거나 말하는 거 모든 게 사람 같이 자연스러운데 사람이 아니라니 인공지능 기술이 여기까지 발전했구나!'라는 생각이 들었습니다. 기업에서는 사람들이 친숙하게 느끼면서 사람들의 이목을 끌 수 있는 외모, 나이, 취미 등의 특성을 분석하여 가상 인플루언서에게 분석한 특성을 부여했습니다. 그 결과 사람들은 가상 인플루언서라는 지각도 하지 못하고 팬을 자처했습니다. 그리고 이후에 본인이 가상 인플루언서라는 사실을 밝히면서 팬을 자처했던 사람들이 충격을 받기도 했습니다. 우리의 인식 능력을 왜곡하는 인공지능이 등장한 것입니다.

 

 기업 입장에서 가상 인플루언서를 사용하는 데서 얻을 수 있는 이점이 많습니다. 첫 번째로 홍보 모델 선정에서 발생하는 위험을 감수하지 않아도 된다는 점입니다. 기업의 이미지에 직접적으로 영향을 미치는 홍보 모델이 학생 시절의 문제, 사생활 문제, 공적인 자리에서의 말실수 등 여러 가지 문제로 대중의 미움을 받게 되면 기업의 이미지에도 직접적인 타격을 주게 됩니다. 만약 그 홍보 모델을 통해 다양한 매체에 광고까지 하고 있었다면 광고도 모두 취소해야 하면서 직접적인 경제적 타격도 불가피합니다. 하지만 이는 홍보 모델이 사람인 경우에만 해당됩니다. 만약 홍보 모델이 사람이 아닌 인공지능으로 구현된 가상 인플루언서라면? 이럴 일이 전혀 없습니다. 이럴 일이 전혀 없도록 기업에서 만들 테니까요.

 

 두 번째 이점은 경제적 이점입니다. 가상 인플루언서는 개발하는 과정에 들어가는 비용이 거의 전부입니다. 그 이후에는 전 세계 어디에서 활동하든, 인터넷상에서 활동하든 비용이 들지 않습니다. 또한 쉴 필요도, 먹을 필요도, 잠을 잘 필요도 없습니다. 공간과 시간의 제약에서도 자유롭습니다. 이렇게 생각해 보면 기업 입장에서는 가상 인플루언서를 고용하지 않을 이유가 없습니다. 하지만 지금까지의 논의에서는 대중의 시선은 포함되어 있지 않았습니다. 대중의 시선은 어떨까요?

 

 2021년에 실시한 국내 조사에 따르면 가상 인플루언서의 마케팅 활동 자체에 부정적인 시각을 갖고 있는 사람들의 비율은 56.3%였습니다. 1000명 중 563명은 가상 인플루언서의 마케팅 활동에 부정적인 시각을 갖고 있다는 이야기죠. 여기서 그치지 않고, 인플루언서는 자신의 언행이 사회에 끼친 영향에 대해 책임을 져야 하며, 만일 사회적 물의를 일으키면 은퇴하는 것까지도 필요하다고 사람들은 이야기했습니다. 인공지능에게도 윤리적 판단의 잣대를 들이밀기 시작한 것이죠.

 

 그럼 여기서 한 가지 생각을 해보면, 만약 가상 인플루언서가 사회적 물의를 일으켜서 은퇴를 해야 하는 상황에 이르렀습니다. 그래서 은퇴를 했는데, 기업에서 1달 뒤에 새로운 가상 인플루언서를 개발해서 홍보 모델로 데뷔시킨다면 기업은 큰 문제가 없습니다. 그리고 은퇴를 한 가상 인플루언서는 어차피 의지나 감정이 없기 때문에 은퇴를 한다고 해도 모델에게도 큰 타격이 없습니다. 이런 상황이라면 가상 인플루언서는 자신이 일으킨 사회적 물의에 대한 책임을 진 것일까요, 책임을 지지 않은 것일까요? 앞서 말한 부분들이 아직 사회적으로 활발하게 논의되고 합의점에 이르지 못했기 때문에 논쟁 거리로 충분히 커질 수 있다고 생각합니다. 언젠간 우리가 고민해봐야 할 인공지능 윤리 문제 중 하나라고도 생각하고요.

 

글을 마치며

 인공지능 윤리에 대한 고민과 숙고는 이제서야 시작됐습니다. 앞에서 언급했던 여러 가지 문제들뿐만 아니라 발생할 수도 있는 문제들에 대해서도 충분한 논의와 합의점을 찾아야 할 것입니다. '하나하나 문제가 발생하면 그때마다 해결하면 되지 않나?'라고 생각하실 수도 있습니다. 하지만 이 글에서 언급한 문제들보다 훨씬 복잡한 문제들도 많습니다. 이와 관련해서는 'AI는 양심이 없다 2'에서 이어서 다뤄보도록 하겠습니다.

 

인공지능(AI) 윤리의 필요성: AI는 양심이 없다 2

인공지능 관련 문제들은 다른 기술들과 달리 법만으로 해결하기 어렵습니다. 우리가 인공지능으로 인해 발생하는 문제들을 인식하고 법제화하려고 시도하는 동안에 이미 인공지능은 저 멀리

curious-sy.tistory.com

 

 

 

<출처: AI는 양심이 없다 by 김명주>

댓글