2020-04-16 09:06:50

기술 자체는 선(善)하지도 악(惡)하지도 않습니다. 그것을 누가 어디에 사용하는가에 따라 선해지기도 악해지기도 합니다. 어떤 사람은 그 기술을 가치있는 일, 선한 일에 사용하지만, 또 다른 사람은 기술을 무익한 일, 남을 해치는 일에 사용합니다. 노벨이 발명한 다이너마이트를 어떤 사람은 터널을 뚫는데 사용하지만, 어떤 사람은 살상 무기로 사용합니다. 주방장은 예리한 칼을 회를 뜨는데 사용하는 반면, 깡패는 사람을 찌르는데 사용합니다. 

 

제가 연구하고 있는 컴퓨터비전(computer vision, CV) 및 인공지능(artificial intelligence, AI)이라는 기술도 마찬가지입니다. 많은 경우 가치 중립적입니다. 그러나 항상 기술이라는 것은 선용하는 사람들과 악용하는 사람들이 모두 있기 마련입니다. 오늘은 컴퓨터비전 기술이 좋게 쓰인 예 하나와 나쁘게 쓰인 예 하나를 소개시켜드리려고 합니다. 

 

선용된 실례

우리의 삶에서는 팔이나 다리가 절단되는 사고, 또는 절단해야하는 경우가 불행히도 발생하곤 합니다. 어떤 연구자들은 이런 분들을 위해, 사고를 당해 팔을 잃은 분들의 팔 절단부 위쪽에서 일어나는 신호(signal)를 분류할 수 있는 기술을 연구하고 있습니다. "이런 신호는 주먹을 쥐는 신호", "이런 신호는 손가락을 쫙 펴는 신호", "이런 신호는 엄지를 드는 신호", 이렇게 신호를 분류해낼 수 있는 분류기를 개발하는 것이죠. 이러한 분류기가 있다면, 여러 동작을 수행할 수 있는 로봇 팔을 만들어서 그 팔의 주인이 원하는 동작을 하는데 큰 도움이 될 것입니다. 이 분류기가 매우 정교하다면, 거의 사람의 실제 팔과 같이 작동할 것입니다. 이런 연구들은 잘 진행되어 정말 신체의 일부를 잃으신 분들에게 큰 도움이 되었으면 좋겠습니다. 

 

악용된 실례

최근에 한 기사를 접했습니다. 한국경제에서 나온 "[단독] AI 기술 악용한 연예인 '딥페이크' 음란물 제작 현장 포착" 이라는 제목의 기사입니다. 딥페이크(DeepFake)라는 이미지 합성 알고리즘을 이용해서 연예인 얼굴을 나체 사진에 합성시킨 개발자들이 적발되었다는 것입니다. 부끄럽게도 우리 한국인 개발자들이었다고 합니다. 저는 이런 일들이 지구상 어딘가에서 일어나고 있을 것이라고 충분히 예상하고 있었습니다. 왜냐하면 저희 연구실에서 몇몇 후배들이 어떤 사진 또는 동영상이 합성된 것인지에 대한 진위여부를 판단하는 모델을 개발하고 있었기 때문입니다. 그래서 딥페이크라는 기술도 알고 있었고요. 사실 영상 기술이 포르노에 사용된 것이 이번이 처음은 아닙니다. 3D 영화, VR 가상현실과 같은 기술도 가장 먼저 상업적으로 적용되었던 것이 포르노 제작이었다고 합니다. "돈"이 되기 때문이죠. 돈이 된다는 것은 찾는 사람들이 있다는 것입니다. 우리 인간의 어두운 면이죠. 이미지 합성 기술의 경우는 예능 프로그램이나 영화에서 CG 효과로 선용될 수도 있겠지만, 악용될 여지가 더 많은 기술인 것 같습니다. 한 사람의 인격과 인생을 파괴하는데 사용될 여지가 너무 많습니다. 

 

 

저도 연구자를 꿈꾸고 연구를 해나가고 있는 사람으로서, 어떤 분야를 계속해서 연구해야할지 고민이 됩니다. 기술 자체는 분명 중립적이지만, 분명히 선용될 여지가 더 큰 기술이 있고, 반대로 악용될 여지가 더 큰 기술도 있기 때문입니다. 그러나 그것 하나만큼은 분명합니다. 아무리 선용될 가능성이 큰 기술을 만들어내더라도, 그것을 어떻게든 악용할 사람은 분명히 있을 것이라는 것입니다. 이런 상황에서 제가 할 수 있는 다짐은 "악용될 여지가 큰 기술은 손대지 말자"입니다. 이 다짐이 평생 지켜졌으면 좋겠습니다.