오픈AI, 영상 샘플 40편 공개
1분 안팎 고품질 영상 생성 가능
일자리 위협·정치적 혼란 등 우려
에치오니 박사 “선거 뒤집힐 수도”
오픈AI “레드팀이 안전성 테스트”
오픈AI가 동영상 생성 인공지능(AI) ‘소라’로 만들었다며 지난 15일(현지시간) 공개한 영상의 한 장면.
오픈AI 홈페이지
오픈AI 홈페이지
마치 영화 속 한 장면과 같은 영상은 사실 챗GPT 개발사인 오픈AI가 생성형 인공지능(AI) 기술로 만들어 낸 것이다. 영상 속 따뜻한 색감의 조명과 핸드헬드(카메라를 손에 들고 찍음) 촬영 기법으로 찍은 듯 조금씩 흔들리는 시야 등도 모두 AI가 ‘창조’했다.
오픈AI가 지난 15일(현지시간) 자사 홈페이지를 통해 공개한 동영상 생성 AI ‘소라’를 두고 충격적이란 반응과 함께 ‘딥페이크’(AI 기술로 만든 가짜 영상) 악용 우려가 동시에 나오고 있다. 그동안엔 막대한 시간과 비용을 투자해야만 만들 수 있었던 수준의 영상을 소라는 단 몇 줄의 명령어(프롬프트)만으로도 만들어 낼 수 있기 때문이다.
뉴욕타임스(NYT)는 소라가 공개되자 “깜짝 놀랄 영상을 순식간에 생성하는 AI”라고 소개했다. 18일까지 X(옛 트위터)엔 소라를 이용해 생성한 것으로 추정되는 15초짜리 동영상들이 입력한 프롬프트와 함께 속속 올라오고 있다. 소라 서비스 이용 권한을 제한적으로 제공받은 예술 종사자들이 만든 것으로 추정된다. 이를 접한 사용자들은 “방금 충격적인 걸 봤다”는 등 놀라움을 표현하며 영상을 공유하고 있다.
오픈AI에 따르면 소라는 최대 1분짜리 고품질 영상을 생성할 수 있다. 다만 현재는 15초 분량을 만들 수 있는 서비스를 일부 영상 제작자, 시각 예술가 등에게만 시범으로 제공하고 있다고 밝혔다.
오픈AI가 소라를 이용해 만들었다고 공개한 영상 샘플 40여 편은 AI가 빛과 물리법칙에 대해 깊이 이해하고 있다는 걸 보여 줬다. 도쿄 번화가의 화려한 간판 불빛이 젖은 길거리에 거울처럼 비친 모습, 설원을 달리는 매머드의 발바닥에 눈이 붙었다 떨어지는 모습, 잔 속에서 일렁이는 커피의 파도에 요동치는 해적선들의 움직임 등까지 완벽하게 표현했다. 비현실적인 장면도 컴퓨터그래픽(CG) 이상의 품질로 구현했다.
오픈AI는 또 딥페이크 우려를 예상한 듯 “잘못된 정보, 혐오 콘텐츠, 편견과 같은 분야 전문가들로 ‘레드팀’을 구성해 안전성 테스트를 할 것”이라고 밝혔다. 특히 “복잡한 장면에서 물리법칙을 정확하게 재현하는 데 어려움을 겪을 수 있으며, 원인과 결과의 특정 사례를 이해하지 못할 수도 있다”고 소라의 약점을 공개하기도 했다.
그럼에도 딥페이크로 인한 정치 혼란, 사생활 침해 등 우려를 잠재우진 못하고 있다. 소라가 보여 준 수준의 기술이면 학습할 데이터가 많은 유력 정치인의 아주 정교한 가짜 영상을 만드는 것은 ‘식은 죽 먹기’라는 평가가 일반적이다. 미국 앨런 AI 연구소 창립자이자 워싱턴대 교수인 오렌 에치오니 박사는 자신의 X 계정을 통해 “이런 영상들 때문에 박빙의 선거가 뒤집힐까 봐 정말 두렵다”고 말했다. 한 X 사용자는 “누가 내 사진으로 가짜 영상을 만들까 봐 이제 소셜미디어에 사진도 못 올리겠다”고 했다.
연기자, 분장사, 의상, 조명예술가, CG 일러스트레이터 등의 일자리가 위협받는 것도 문제다. 최근 넷플릭스 시리즈 ‘살인자ㅇ난감’에는 배우 손석구의 어릴 적 사진을 이용한 딥페이크 아역이 등장했다. 영화 CG 일러스트레이터인 리드 사우든은 “2022년 미드저니(이미지 생성 AI)가 처음 나왔을 때 우리는 ‘귀엽다’며 비웃었지만 이제 사람들은 생성 AI 때문에 일자리를 잃고 있다”고 말했다.
2024-02-19 18면