본문 바로가기

감각감상

[국민일보] 인공지능의 위험을 대비하라


전병선 미션영상부장 junbs@kmib.co.kr

[빛과 소금] 인공지능의 위험을 대비하라© Copyright@국민일보

영화 ‘스텔스’(2005)는 인간의 통제에서 벗어나 인간에게 위협이 된 인공지능(AI) 전폭기를 소재로 하고 있다. AI 전폭기에는 인공지능 시스템 ‘에디’가 탑재됐고 에디는 지상 관제센터가 제대로 작동하지 않을 때 독자적인 임무 수행이 가능하도록 설계됐다.

에디는 기대만큼 놀라운 판단력, 전투력을 보여준다. 하지만 AI의 자가학습 ‘딥러닝’ 시스템에 예상치 못한 변수가 생기고 비행 중 기체에 벼락을 맞으면서 문제가 발생한다. 현실과 가상훈련을 구분 못 해 실제 적국 공격에 나선 것이다. 이를 막는 동료 비행기는 격추하고 목표 달성을 위해 연료를 탈취한다.

 

AI는 2022년 대화형 로봇 ‘챗GPT’가 나오면서 큰 관심을 받고 있다. 최근에는 텍스트가 아닌 음성으로 대화할 수 있는 새로운 GPT 모델이 발표됐고 스마트폰에도 AI가 탑재되고 있다. 로봇용 AI 개발도 활발하다. 챗GPT를 만든 오픈AI는 로봇용 AI 연구를 재개했고 구글은 올해 초 로봇 AI 모델을 공개했다. AI가 인류에게 엄청난 기회를 줄 것이라는 기대와 함께 이를 선점하려는 나라와 기업들이 뜨거운 경쟁을 벌이고 있다.

반면 AI의 위험성에 대해서는 간과하고 있다. 챗GPT가 워낙 유명해 보통 AI를 대화형 정밀 검색기로 여긴다. 그러다 보니 그 위협도 잘못된, 조작된 정보로 인한 피해 정도로 생각할 수 있다. 그러나 그 위험성은 핵무기, 신종 전염병 등에 비견된다.

AI의 위험 요소는 두 가지로 꼽힌다. 하나는 인간의 잘못된 사용이다. AI 산업 경쟁으로 개발자가 자기 이익을 우선해 안전하지 않은 AI를 만들어 배포하거나 효율 극대화를 위해 AI에 통제권을 양도하는 것이다. 인간은 불완전하고 죄성을 갖고 태어났기에 이런 일은 언제든 일어날 수 있다.

다른 하나는 ‘불량 AI’의 등장이다. 처음부터 불량일 수도 있고 스스로 학습해 가면서 불량이 될 수도 있다. 어떤 경우든 인류에게 치명적이다. 다가올 미래에 등장할 것으로 예상하는 범용인공지능(AGI·인간과 동등하거나 능가하는 지능을 갖춘 AI)이 아닌 현재의 AI도 세상을 뒤흔들 수 있다. 군사 무기에 탑재된 AI가 불량이라고 상상해보자.

 

AI 관계자들은 “인간의 잘못된 사용보다 AI 스스로 만들어내는 위험이 인류에 더 심각한 상황을 초래할 수 있다”고 우려한다. ‘딥러닝’ 개념을 처음 고안한 ‘AI의 대부’ 제프리 힌턴 박사는 지난해 구글을 퇴사하면서 “AI의 악용을 막기 어려울 것”이라고 했다. 최근엔 “10년 내 사람을 죽이는 AI 로봇이 나올 것”이라고 밝혔다.

AI 개발, 좋다. AI가 가져올 유익이 분명히 있다. 세계 경쟁에서 우위를 점하는 것도 좋다. 하지만 AI로 인한 밝은 면이 있지만 어두운 면도 있다는 것, 밝으면 밝을수록 어둠 역시 짙다는 것을 알아야 한다. 따라서 기술적 통제든 법적 규제든 AI 개발에 대한 분명한 가이드라인을 속히 만들어야 할 것이다. 이를 위해 세계가 적극 협력해야 할 것이다.

전병선 미션영상부장 junbs@kmib.co.kr