이상욱 한양대 철학과·AI학과 교수
AI 결론 놓고 판단할 전문성 필요탈숙련 함정에 빠지지 않게 경계
이상욱 한양대 철학과·인공지능학과 교수
인공지능(AI)은 인간의 능력을 향상시키는 데 항상 유용하다고 할 수 있을까. ‘과학철학자’ 이상욱 한양대 철학과·인공지능학과 교수는 “목적이 명확하지 않은 경우 AI는 만능일 수 없다”고 진단했다.
23일 서울 중구 웨스틴조선호텔에서 열린 ‘2024 서울미래컨퍼런스’ 기조연설자로 나선 이 교수는 ‘인간, 낯선 AI와 마주하다’라는 주제로 AI에 대한 낙관·비관론을 넘어선 제3의 길의 중요성을 밝혔다. 이 교수는 “성취하려는 목표를 수학적으로 정리할 수 있고 양질의 데이터가 많을 때 AI가 유용하게 쓰일 수 있다”고 지적하면서 올해 노벨화학상 수상자인 데미스 허사비스와 존 점퍼의 사례를 제시했다. 두 사람은 각각 구글의 AI 기업 딥마인드의 최고경영자(CEO)와 연구원이다. AI 모델 ‘알파폴드’를 만들어 단백질 구조를 예측하는 시간을 크게 단축시킨 공로로 수상했다.
이 교수는 “알파폴드는 화학자가 2년에 걸쳐 확인할 수 있는 단백질의 3차원 구조를 2개월 만에 판단했다. 그게 가능했던 이유는 많은 양의 데이터가 있고 ‘안전성’이라는 목표가 명확했기 때문”이라고 했다. 바꿔 말하면 목표가 불명확하고 데이터가 적다면 AI의 유용성은 제한적이란 뜻이다.
이 교수는 인간의 시각에서 AI를 판단하는 것은 위험하다고 했다. 신약 개발 등의 분야에서 AI가 빠른 속도로 활용되고 있는데, AI가 도출한 결론을 인간의 사고로는 이해하지 못하는 상황도 있어서다. 이 교수가 AI를 ‘낯설다’고 한 이유다.
결국 해답은 AI를 활용하는 인간의 숙련도에 있다는 게 이 교수의 생각이다. 그는 “AI를 활용하면 인간의 능력을 증가(augmentation)시킬 수 있다”면서 “다만 그 전제는 인간이 전문성을 가질 때”라고 지적했다. 전문성이 없는 초심자라면 AI를 활용하더라도 그 결과물을 놓고 어떤 것이 맞는지 틀린지, 유용한지 불필요한지 판단할 수 있는 능력이 없기 때문이다.
그는 AI를 사용할수록 숙련도가 떨어지는 ‘탈숙련(deskill) 문제’를 경계할 것을 경고하며 “인간이 (AI에 대한) 통제권을 가질 수 있으려면 교육을 통해 문해력, 통찰력과 같은 능력을 키워야 한다”고 했다.
이 교수는 미래가 단지 기술에 의해 결정되는 게 아니란 점을 강조했다. 그는 “수도(水道)가 인류의 복지에 기여한 기술이 된 건 혁신적이어서가 아니라 보편적으로 향유될 수 있도록 거버넌스를 만들었기 때문이었다”면서 “AI도 수용 또는 거부란 이분법적 사고를 넘어 미래를 그려 나가는 데 유용한 기술로 발전시키는 게 중요하다”고 말했다.
2024-10-24 2면