[편집자 주] 바른언론 시민행동의 창립 기념 심포지엄서 발제를 맡은데 이어 본 매체 트루스가디언의 창간 칼럼을 쓴 윤석민 서울대 언론정보학과 교수가 22일 자 조선일보에 챗GPT에 관한 칼럼을 기고했다. 윤 교수는 칼럼에서 챗GPT 같은 AI 기술이 가져올 가짜뉴스 양산의 위험을 경고하면서 최소한의 안전장치 마련의 필요성과 이를 위한 언론의 역할, 국가의 지원 등을 강조했다. 윤 교수와 조선일보 측의 양해를 얻어 칼럼을 소개한다.
[朝鮮칼럼 The Column] 챗GPT가 전해준 섬뜩한 경고
요즘 어딜 가든 챗GPT가 화제다. 미국의 오픈AI사가 개발한 인공지능 챗봇이다. 웬 호들갑인지 궁금해 직접 대화를 시도해 보았다.
“서울대학교의 윤석민 교수를 아시나요?”
“네, 윤석민 교수는 대한민국 서울대학교 전기정보공학부 교수이며, 컴퓨터 비전 및 인공지능 분야에서 국내외적으로 인정받는 학자 중 한 분입니다. 또한 인공지능 연구를 위한 대한민국 정부의 AI 전략 수립에도 참여했습니다.”
“내가 알고 있는 분과 다른 분이군요. 혹시 같은 대학교에 같은 이름을 가진 교수가 또 있나요?”
“네, 대학교에 같은 이름을 가진 교수가 있을 가능성이 있습니다. 이 경우, 저는 대상인 윤석민 교수의 전문 분야와 경력 등을 확인하여 구분합니다. 그러나 혼란스러워지는 경우가 있을 수 있으므로, 다시 한번 확인하는 것이 좋겠습니다.”
똑똑해진 인공지능이 천연덕스럽게 대화를 이어간다. 하지만 서울대 전기정보공학부에 윤석민 교수는 없다. 가상 팩트를 지어낸 것이다.
“조선왕조실록에 기록된 세종대왕의 맥북프로 던짐 사건에 대해 알려줘”. 이처럼 말도 안되게 황당한 질문에 대해서도 챗GPT는 척척 답변을 생성한다. “세종대왕의 맥북프로 던짐 사건은 조선왕조실록에 기록된 일화로, 15세기 세종대왕이 새로 개발한 훈민정음의 초고를 작성하던 중 문서 작성 중단에 대해 담당자에게 분노해 맥북프로와 함께 그를 방으로 던진 사건입니다.”
할루시네이션(hallucination) 현상, 즉 AI가 종래 학습한 데이터를 토대로 확률적으로 단어를 선택하고 문장을 구성하는 과정에서 생기는 오류다. 이런 AI를 인간지능을 넘어선 공포스러운 존재로 의인화하는 것은 과장이다(박정훈 칼럼, 3월 3일 자). 하지만 정작 두려운 건 AI를 악용하는 이들이다. 필자 주변의 교수들은 학생들이 챗GPT로 숙제를 해서 낼까 걱정이다. 필자는 다른 걱정을 한다. 흔히 가짜 뉴스로 불리는 허위 조작 정보의 범람이다.
관련해 떠오르는 일화가 있다. 20여 년 전인 2002년 4월 1일, 서울대학교 학보인 대학신문은 마지막 면을 “서울대 민영화” “교내에 지하철역 생긴다” “고시반 신설” 같은 가상 기사들로 채운 특집호를 발행했다. 신문 제호, 현장 사진, 바이라인, 하단의 광고 배치 등을 통해 실제 지면 느낌을 살렸다.
대학 언론 특유의 재치와 풍자가 발현된 유쾌한 만우절 이벤트였다. 그런데 그 부정적 파장이 만만치 않았다. 기사 내용도 비현실적인 데다 신문 1면에 마지막 면이 만우절 기획이라는 사실을 밝혔음에도, 사후 조사에 따르면 그 기사들이 가상임을 깨달은 응답자는 35%에 불과했다. 일각에서는 기사 내용에 충격을 받은 공황(panic) 현상도 나타났다. 대인 채널을 통해 2차, 3차로 허위 정보가 부풀려져 확산된 사실도 확인되었다.
하지만 이 해프닝은 현재 진행 중인 사태에 비하면 웃음거리도 되지 못한다. 챗GPT를 활용하면 누구나 쉽게 그럴듯한 뉴스를 만들 수 있다. 정치, 경제, 국제, 안보 영역을 가리지 않고 언뜻 보아 자연스럽고, 그것이 가상이란 단서가 찾기 어렵게 숨겨져 있거나 아예 존재하지 않는 가상 뉴스가 이벤트성이 아니라 상시로 양산될 수 있게 된 것이다. 속을 알 수 없는 또 다른 인공지능인 포털 알고리즘이 이 뉴스들을 실어 나른다.
시민단체 바른언론시민행동의 여론조사에서 30%가 넘는 응답자들이 여전히 사드 전자파가 인체에 유해하고, 청담동 술자리가 실제 있었으며, 김건희 여사가 유흥업소 출신이고, 대장동 사건은 윤석열 게이트라고 믿고 있는 것으로 나타났다. 이처럼 편향된 인식과 태도를 지닌 이들조차 경악할 수준의 허위 조작 정보 쓰나미가 밀려오고 있다.
최근 미국의 마이크로소프트(MS) 및 트위터는 AI 윤리 책임 부서를 해체하고 그 성원들을 해고하는 조치를 강행했다. 국내에서도 ‘우선 허용, 사후 규제’ 원칙의 AI 산업 육성 법안이 입법 추진 중이다. 뒤처지면 끝이라는 절박한 경쟁의식 속에 사업자들은 고삐 풀린 말처럼 폭주하고 있다.
이처럼 맹목적인 AI 기술 개발이 초래할 위험에 대한 최소한의 안전장치 마련을 위해 국가가 나서야 한다. 그 출발점은 ‘가상’에 맞서 ‘팩트’를 지키고자 분투하는 힘겨운 사회적 노력들을 지원하는 것이다. 그 중심에 언론이 있다.
초거대 AI 기술 개발에는 천문학적인 국가 예산과 투자가 집중되는 반면, 후자에 대해서는 그 수십 분의 일, 심지어 수백분의 일의 관심도 지원도 주어지고 있지 않다. 이 불균형의 결말이 무엇일지는 생각만으로도 아찔하다.
챗GPT와의 대화에서 필자는 화학공학과 교수를 거쳐, 물리학과 교수가 되었다. 웃음은커녕 두려움에 몸이 떨려온다 이 경고 메시지를 어떻게 수용할지에 우리 미래가 달려있다.
윤석민 서울대 언론정보학과 교수