[경사연에포커스] 느닷없이 다가온 인공지능에 대한 기대와 우려

경제사회연구원&에포크미디어코리아 프리미엄 콘텐츠

이윤정
2023년 09월 07일 오후 2:32 업데이트: 2024년 01월 10일 오전 11:20
P


글_이덕환 서강대 화학·과학커뮤니케이션학과 명예교수

인공지능(AI) 열기가 폭발적으로 달아오르고 있습니다.

작년 11월 30일 처음 등장한 챗GPT라는 생성형 챗봇(generative chatbot) 때문입니다. 출시 100일 만에 사용자가 1억 명을 넘어섰고, 언론은 연일 챗GPT에 대한 화려한 성공 스토리를 쏟아내고 있습니다. 챗GPT의 등장은 인류사에 ‘중대한 사건’이라는 게 마이크로소프트 창업자 빌 게이츠 평가입니다. 챗GPT와의 대화록을 엮어서 책으로 출판한 뇌과학자도 있습니다. 2030년까지 무려 15조 7000만 달러의 경제적 효과를 창출할 거라는 분석도 있습니다. 본격적인 4차 산업혁명 시대가 열린 것처럼 야단법석이죠.

생성형 챗봇의 진화 속도도 놀랍습니다. 석 달 만인 지난 3월 14일, 언어 능력과 이해력이 업그레이된 훨씬 더 ‘똑똑한’ 챗GPT-4가 등장했습니다. 미국 변호사시험과 생물 올림피아드에서도 좋은 성적을 올렸고, 일상적인 대화는 물론 화려하고 복잡한 이미지도 가뿐하게 처리합니다. 엑셀‧파워포인트‧워드와도 부드럽게 연동됩니다. 극단적인 편향‧차별‧혐오가 아니라면 그야말로 못 하는 일이 없는 ‘만물박사’가 등장한 겁니다.

그렇다고 모두가 챗GPT의 등장을 반기는 것은 아닙니다. 세계적인 언어학자 노엄 촘스키는 챗GPT는 ‘첨단기술 표절기’에 불과하다고 혹평했습니다. 챗GPT 같은 ‘짝퉁’ 인공지능의 얄팍한 표절이 인류 문명을 심각하게 오염시키도록 놔둬선 안 된다는 경고도 덧붙였습니다.

현란하고 매력적인 언어 모형

챗GPT는 단순히 인터넷에 있는 정보를 수동적으로 알려주는 구글‧네이버 같은 ‘검색’ 서비스와는 차원이 완전히 다릅니다. 개발사인 오픈AI가 밝힌 챗GPT의 정체는 ‘사용자의 질문과 대화에 대한 답변’을 생성하는 것입니다. 단순히 자료를 찾아주는 게 아니라 사용자와 자연스러운 대화를 할 수 있는 ‘지능’을 가지고 있다는 뜻이죠. 그런 챗GPT는 ‘자연어의 처리·생성과 기계 번역 등의 NLP(자연어 처리)와 관련된 다양한 응용에 사용될 수 있다’고 합니다.

챗GPT는 컴퓨터로 인간의 인지·추론·판단 능력을 구현하기 위한 인공지능(Artificial Intelligence) 기술의 산물입니다. 1956년 존 매카시가 처음 인공지능의 가능성을 제시한 이후 지금까지 끊임없이 발전을 거듭하고 있는 기술이기도 합니다. 인공지능은 주변 환경을 인식하고, 무한정의 상상력을 동원해서 추론하고, 막강한 논리력을 이용한 합리적·이성적으로 판단하는 인간의 지적(知的) 능력을 흉내 내는 기술입니다. 도구·소재·기계·정보·통신에 이어서 인류 문명을 화려한 절정에 올려 놓아줄 미래 기술이기도 합니다.

챗GPT는 딥러닝과 신경망 회로의 기술을 이용한 기계학습으로 개발된 ‘거대 언어모델’을 사용합니다. 문장에 포함된 단어에 대한 개별적 지식에 통계적 방법론을 적극적으로 적용합니다. 딥러닝과 신경망 회로 기법을 활용하는 LLM을 학습한 챗GPT가 단어를 꿰어맞춰서 만들어낼 수 있는 대화는 무한정입니다. 2016년 이세돌 9단과의 대국으로 세상을 떠들썩하게 만들었던 알파고처럼 특정한 목적·목표에 한정된 것도 아닙니다.

실제로 일상 언어로 사용자와 소통하는 생성형 챗GPT의 능력은 놀라운 수준입니다. ‘탄소중립’에 대해서 상당히 균형 잡힌 칼럼도 쓰고, 세상 만물의 변화를 연구하는 ‘화학’에 대해 그럴듯한 시(詩)도 씁니다. 아인슈타인의 모습을 고흐 풍으로 그린 초상화도 거뜬히 그려줍니다. 개발사가 처음부터 의도적으로 배제한 영역이 아니라면 어떤 대화도 마다하지 않습니다. 심지어 한 시간 동안 할 수 있는 ‘소일거리’도 알려줍니다.

챗GPT의 성능은 동원할 수 있는 컴퓨터 자원에 비례합니다. 실제로 챗GPT가 동원하는 컴퓨터 자원의 규모는 상상 이상입니다. 챗GPT-4는 무려 1조(兆) 개의 파라미터(parameter)와 45GB의 데이터를 사용합니다. 1750억 개의 파라미터와 17GB의 데이터를 사용하던 챗GPT-3과는 비교하기도 어려울 정도입니다. 언론에 소개되는 챗GPT의 화려한 성공 스토리는 모두 그런 거대 자원이 만들어 낸 것입니다. 물론 공짜가 아니며 엄청난 양의 전력을 소비해야만 합니다. 기후 위기를 걱정하는 우리에겐 결코 가볍게 넘길 일이 아닙니다.

무윤리·무논리·무상식의 표절기

챗GPT가 만들어 내는 문장은 화려하고 매력적이며 문법적으로도 완벽합니다. 오탈자와 비문(非文)은 걱정할 필요 없고, 지루하게 기다려야 하는 것도 아닙니다. 챗GPT의 속도는 상상을 넘어서며 어떤 요구에도 순간적으로 답을 합니다. 평소 글쓰기에 익숙하지 않은 사용자에게는 더없이 반가운 일이기도 합니다.

하지만 챗GPT의 화려하고 정확한 답이 오히려 독(毒)이 될 수도 있습니다. 어문학적으로 완벽한 것으로 보이는 문장에서 내용적 오류를 의심하기는 쉽지 않기 때문입니다. 문제는 챗GPT가 ‘언어모델’이라는 사실입니다. 문장·문맥을 확률론적으로 구성하는 챗GPT는 자신이 만들어 내는 문장의 내용에는 신경을 쓰지 않습니다. 그래서 ‘지구가 둥글다’는 사실과 ‘지구가 평편하다’는 억지를 구분하지 못합니다. 챗 GPT의 작동에는 윤리적 결함이나 논리적 모순, 또는 일반적인 상식을 확인하는 절차가 통째로 빠져있다는 뜻입니다.

챗GPT의 골치 아픈 결함으로 알려진 ‘환각(Hallucination)’은 단순히 데이터나 학습의 부족 때문에 발생하는 것이 아닙니다. 물론 신사임당이 이순신의 남편이라거나 조선의 23번째 왕이었다는 수준의 초보적인 ‘환각’은 곧바로 수정될 수 있습니다. 그러나 화려하고 매력적인 문장에 은밀하게 숨겨져 있는 ‘환각’을 찾아내는 일은 결코 생각처럼 쉽지 않을 것입니다. 챗GPT가 쓴 시·소설·에세이가 문학을 오염시킬 위험성을 심각하게 걱정해야 합니다.

사실 어떤 개념을 언어적으로 ‘설명’하는 능력과 그 개념을 정확하게 이해하고 실제로 ‘사용’하는 능력은 분명하게 구별됩니다. 이는 메타(페이스북)의 최고 AI 과학자인 얀 르쿤과 AI 철학자 제이콥 브라우닝의 엄중한 지적입니다. 챗GPT의 ‘얄팍한 이해력’을 인간이 세상을 살아가면서 다른 사람과 상호교류하고 문화적으로 습득하는 ‘깊은 이해력’과 혼동해서는 안 된다는 뜻입니다.

챗GPT의 대화가 독자적인 ‘사고’를 통해서 만들어진 게 아니라는 사실도 심각한 문제입니다. 결국 챗GPT의 대화는 인터넷 자료를 임의로 취사·선택해서 만들어 낸 ‘표절’일 수밖에 없습니다. 챗GPT가 참고한 자료나 선택의 기준을 당당하게 밝혀주지도 않습니다. 모든 자료를 두루뭉술하게 섞어서 자신의 독창·독자적인 텍스트인 것처럼 내놓는 것은 연구 윤리의 입장에서도 가장 악질적인 표절에 해당합니다.

설상가상으로 챗GPT가 절대적으로 의존하는 인터넷은 이미 엉터리 가짜 뉴스로 뒤범벅이 된 상황입니다. 원칙적으로 언어 모델의 한계에 갇혀있는 챗GPT도 ‘쓰레기를 넣으면, 쓰레기가 나온다(Garbage In, Garbage Out)’는 통계의 기본 철칙을 벗어날 수 없습니다.

더욱이 인터넷의 자료를 모두 보여주고, 사용자에게 선택권을 넘겨주는 ‘검색’과는 차원이 다른 행태입니다. 챗GPT가 언어·인지·인간의 이해와 관련된 인문학과 사회과학에서는 아무 가치가 없을 것이라는 노엄 촘스키의 엄중한 경고도 출처를 절대 확인할 수 없는 표절의 심각성을 지적한 것입니다.

과학계도 챗GPT의 등장을 반기지 않습니다. 과학계의 대표적인 학술지인 ‘네이처’는 챗GPT를 논문의 저자로 인정하지 않겠다고 밝혔습니다. 챗GPT와 같은 생성형 AI가 과학 논문에 대한 사회적 책임을 질 수 없다는 이유 때문입니다. 또한 네이처는 챗GPT와 같은 언어모델을 사용하는 연구자는 논문에 그 사실을 명시하도록 요구합니다. 가능성을 기대하기는 어렵지만 언어모델로 작성한 논문을 가려내는 방안을 마련하겠다는 계획도 밝혔습니다.

되돌아온 가상화폐의 데자뷔

2009년 1월 ‘사토시 나카모토’라는 익명의 개발자가 만든 ‘비트코인’ 때문에 온 세상이 떠들썩했던 적이 있었습니다. 블록체인 기술을 이용해서 정부·중앙은행·금융회사의 개입을 원천적으로 거부하는 암호·가상화폐가 세상을 완전히 바꿔놓을 것이라는 주장이 대세였습니다.

그리고 10여 년이 흘렀지만, 인터넷의 성공 경험과 블록체인의 기술적 가능성을 확실하게 믿었던 과학자들이 떠들썩하게 강조했던 장밋빛 미래는 현실화하지 못했습니다. 오히려 사회적으로 아무 의미가 없는 가상화폐 ‘채굴’ 때문에 많은 양의 전력을 무의미하게 낭비했고, 사회적 관리 시스템을 완전히 벗어난 가상화폐 때문에 막대한 손실을 본 소비자도 넘쳐났습니다. 오늘날 전 세계적으로 떠들썩한 루나·테라 사태도 자율적인 가상 세계에 대한 환상이 만들어 낸 재앙입니다.

미래 기술에 대한 터무니없는 환상은 철저하게 경계해야 합니다. 화려하게 소개되는 인터넷·가상세계·메타버스가 미래 기술의 성공을 보장해 주는 건 절대 아닙니다. 사용자의 선택권을 원천적으로 차단해 버리는 미래 기술은 절대 성공할 수 없습니다. 아무리 화려한 성공 스토리도 의미가 없는 것입니다.

인터넷의 자율성을 최대한 활용하겠다는 가상화폐도 궁극적으로 불법과 비리를 차단하기 위한 사회적 관리·감독을 벗어날 수 없다는 현실을 적극적으로 수용했어야만 합니다. 익명의 그늘에 숨어서 자신의 책임을 회피했던 ‘사토시 나카모토’의 정체성에 더 많은 관심이 필요했던 것이죠.

챗GPT에 대한 과도한 환상도 경계해야 합니다. 현재의 챗GPT가 내재적으로 무(無)윤리·무논리·무상식의 표절 기술이라는 지적은 명백한 사실입니다. 사용자가 아무 생각 없이 챗 GPT에 제공하는 자료의 보안에도 신경을 써야 합니다. 아무 의미 없이 낭비되는 전력에 대한 더 적극적인 관심도 필요합니다. 가상화폐의 실수를 다시 반복해선 안 됩니다.

원문 보기
경제사회연구원 이슈 인사이트