넷플 다큐에 AI 이미지 사용 논란
무분별한 AI 활용에도 제한 없어
“의무 규정 없다면 AI 제작 숨길듯”
‘AI 기본법’ 1년 넘게 국회 계류중
생성형 인공지능(AI)을 활용한 콘텐츠들이 쏟아지면서 AI로 만든 이미지나 영상이 다큐멘터리 장르에도 활용돼 논란이 일고 있다. 실제 사건이나 현상을 다루는 다큐멘터리의 특성상 AI로 만든 ‘가짜’를 아무런 표기 없이 사용하면 실제 촬영한 것으로 혼동하거나 사실이 왜곡될 가능성도 있어서다.
게다가 최근 동영상 생성 AI ‘소라’(Sora)가 출시돼 누구나 손쉽게 AI로 영상을 만들 수 있게 되면서 사건과 무관한 영상이 사용된 콘텐츠도 늘어날 것으로 보인다. 이런 상황에서 AI로 제작한 콘텐츠에 대한 식별표시(워터마크) 의무화 등을 담은 법안이 21대 국회에서 폐기될 처지에 놓여 AI 콘텐츠의 무분별한 사용에 대한 우려가 커지고 있다.
30일 업계에 따르면 넷플릭스가 지난 10일 공개한 다큐멘터리 ‘제니퍼는 무슨 짓을 했는가’에 사용된 사진이 AI로 만들어 낸 이미지라는 의혹이 제기돼 잡음이 일었다. 제니퍼 팬이 파티를 즐기는 모습을 포착한 사진에서 손가락 모양, 치아 등이 실물과 다르고 부자연스럽단 지적이 제기됐다. 캐나다에서 2010년 부모를 청부 살인한 혐의로 체포된 실화를 다룬 다큐멘터리인 만큼 현실과 가상의 구분을 흐리는 AI 활용은 별도의 표기가 필요하다는 비판이 나왔다.
AI로 만든 이미지나 영상은 유튜브에서도 빈번하게 사용된다. 범죄 사건을 다루는 유튜브 채널을 보는 직장인 하모(28)씨는 “AI로 만든 이미지를 보고 해당 사건의 범인으로 착각한 적도 있다”며 “영상에서 실제 범인을 설명하며 사진이 나오다 보니 ‘범죄자 사진을 어떻게 구한 거냐’고 묻는 다른 구독자들도 많다”고 전했다. 영상 제작업계 관계자는 “영상의 몰입감을 방해할 수 있어 의무 규정이 생기기 전까지는 굳이 AI로 제작했다는 사실을 밝히지 않을 것”이라고 전했다.
업계에서는 AI를 활용한 영상이나 이미지 사용이 더 많아질 것으로 본다. 지금도 중년 배우의 청년 시절 장면을 재현하는 경우나 재연이 어려우면 다큐멘터리 등 사실성이 중요한 장르에서도 AI 기술을 활용한다.
AI가 만든 콘텐츠가 일상을 파고드는 만큼 식별표시나 제작 가이드라인 등 최소한의 기준이 필요하다는 목소리가 높지만 AI 산업 육성 및 신뢰 기반 조성에 관한 법률안(AI 기본법)은 1년 넘게 국회에 계류 중이다. 이 법안에는 이용자 보호를 위한 규제와 고위험 AI에 대한 사전 고지의무 등이 담겨있다. 하지만 다음달 임시국회가 열려도 여러 절차가 남은 만큼 21대 국회에서는 법안 통과가 쉽지 않다.
김명주 바른AI연구센터장은 “방송통신심의위원회에서 AI 생성물에 워터마크를 의무화하기로 했지만 AI 기본법이 통과되기 전에는 자율 규제에 불과해 강제성이 없다”며 “AI가 만든 콘텐츠에 대한 제도적인 정비가 시급하다”고 말했다.
무분별한 AI 활용에도 제한 없어
“의무 규정 없다면 AI 제작 숨길듯”
‘AI 기본법’ 1년 넘게 국회 계류중
오픈AI 로고. 기사 내용과 무관함. 로이터 연합뉴스
게다가 최근 동영상 생성 AI ‘소라’(Sora)가 출시돼 누구나 손쉽게 AI로 영상을 만들 수 있게 되면서 사건과 무관한 영상이 사용된 콘텐츠도 늘어날 것으로 보인다. 이런 상황에서 AI로 제작한 콘텐츠에 대한 식별표시(워터마크) 의무화 등을 담은 법안이 21대 국회에서 폐기될 처지에 놓여 AI 콘텐츠의 무분별한 사용에 대한 우려가 커지고 있다.
30일 업계에 따르면 넷플릭스가 지난 10일 공개한 다큐멘터리 ‘제니퍼는 무슨 짓을 했는가’에 사용된 사진이 AI로 만들어 낸 이미지라는 의혹이 제기돼 잡음이 일었다. 제니퍼 팬이 파티를 즐기는 모습을 포착한 사진에서 손가락 모양, 치아 등이 실물과 다르고 부자연스럽단 지적이 제기됐다. 캐나다에서 2010년 부모를 청부 살인한 혐의로 체포된 실화를 다룬 다큐멘터리인 만큼 현실과 가상의 구분을 흐리는 AI 활용은 별도의 표기가 필요하다는 비판이 나왔다.
AI로 만든 이미지나 영상은 유튜브에서도 빈번하게 사용된다. 범죄 사건을 다루는 유튜브 채널을 보는 직장인 하모(28)씨는 “AI로 만든 이미지를 보고 해당 사건의 범인으로 착각한 적도 있다”며 “영상에서 실제 범인을 설명하며 사진이 나오다 보니 ‘범죄자 사진을 어떻게 구한 거냐’고 묻는 다른 구독자들도 많다”고 전했다. 영상 제작업계 관계자는 “영상의 몰입감을 방해할 수 있어 의무 규정이 생기기 전까지는 굳이 AI로 제작했다는 사실을 밝히지 않을 것”이라고 전했다.
AI가 만든 콘텐츠가 일상을 파고드는 만큼 식별표시나 제작 가이드라인 등 최소한의 기준이 필요하다는 목소리가 높지만 AI 산업 육성 및 신뢰 기반 조성에 관한 법률안(AI 기본법)은 1년 넘게 국회에 계류 중이다. 이 법안에는 이용자 보호를 위한 규제와 고위험 AI에 대한 사전 고지의무 등이 담겨있다. 하지만 다음달 임시국회가 열려도 여러 절차가 남은 만큼 21대 국회에서는 법안 통과가 쉽지 않다.
김명주 바른AI연구센터장은 “방송통신심의위원회에서 AI 생성물에 워터마크를 의무화하기로 했지만 AI 기본법이 통과되기 전에는 자율 규제에 불과해 강제성이 없다”며 “AI가 만든 콘텐츠에 대한 제도적인 정비가 시급하다”고 말했다.