달걀과 밀가루가 찍힌 사진을 보여준다. “뭘 만들 수 있을까.” 질문을 하자마자 “팬케이크, 와플, 케이크 등의 음식을 만들 수 있다”는 답이 나온다. 음식별로 요리법을 물어보면 이를 자세히 알려준다. 오픈AI가 지난 15일 발표한 대규모 AI 언어 모델(LLM)인 GPT4의 모습이다.

GPT4는 기존 버전인 3.5의 기능을 발전시켰고 활용 범위도 넓어졌다. 기존 버전에선 문자만 인식했지만 GPT4는 음성과 사진 등 복합적인 정보를 이해하고 정보를 생성할 수 있다. △처리할 수 있는 단어의 수가 8배 늘어 약 2만5000개의 단어를 기억할 수 있고 △사실성 평가에서 40% 높은 점수를 받는 등 정확도가 올랐고 △한국어 등 영어가 아닌 언어의 이해 능력이 크게 향상됐고 △비윤리적 발언 등 문제적 발언을 하는 빈도도 낮아졌다.

▲ 챗GPT, 오픈AI 관련 이미지. ⓒUnsplash
▲ 챗GPT, 오픈AI 관련 이미지. ⓒUnsplash

개발사는 전반적인 ‘능력’ 향상을 강조한다. 오픈AI에 따르면 미국 통합변호사 시험에 응시한 결과 3.5버전은 하위 10% 점수를 받은 반면, GPT4는 상위 10% 수준의 합격 성적을 받았다. 테드 샌더스 오픈AI 개발자는 “GPT가 장난감에서 업무 도구로 전환했다”고 강조했다. 

챗GPT로 촉발된 AI 경쟁도 이어지고 있다. 오픈AI가 GPT4를 발표한 날 구글은 구글 G메일, 구글독스(Docs) 등 자체 제품에 AI를 적용하겠다고 발표했다. 마이크로소프트는 워드, 엑셀, 파워포인트 등 제품에 AI를 적용하겠다고 했다. 앞서 마이크로소프트가 검색엔진 빙에 챗GPT를 도입하겠다고 밝히자 구글이 인공지능 기반 검색엔진 바드를 공개하며 맞섰다. 국내에서도 양대 포털 등 기업들의 AI 경쟁이 가속화됐다.

놀라운 기술과 다양한 활용도 덕에 GPT발 장밋빛 전망이 다방면에서 점쳐지고 있다. 다른 한편에선 챗GPT로 대표되는 생성 AI 확산에 따른 우려가 제기되고 있다. 챗GPT로 촉발된 인공지능 열풍이 커지는 만큼 ‘그늘’도 짙어지고 있다.

당연한 허위정보? 상용화 문제 없나

챗GPT의 3.5 버전이 국내에서 화제가 되자 다수 언론과 유튜버, 누리꾼들은 챗GPT가 사실과 다른 정보를 유포하는 점을 지적했다. ‘세종대왕 맥북 던짐 사건’과 같은 말도 안 되는 사건에 관해 물으면 그럴 듯한 답을 지어내거나, 동네 맛집을 추천해달라고 했더니 실제로 없는 가게 이름을 지어내거나 존재하지 않는 논문을 있는 것처럼 설명하는 식이다.

이는 그 자체로는 결함이 아니다. 생성 AI는 말을 그럴 듯하게 하며 확률적으로 적절한 표현을 만드는 것이 목표이지 검증된 정보를 전달하는 목적으로 만들어진 게 아니기 때문이다. 업계에선 이를 ‘환각’(hallucination)이라 부른다. 개발사 오픈AI 역시 챗GPT4에 관해 “여전히 ‘환각’을 갖고 답을 지어내며 틀렸을 때에도 옳다고 주장하는 경향도 있다”고 밝히고 있다.

문제는 사실을 확인하거나 정보 검색용으로 쓰일 경우다. 한상기 테크프론티어 대표는 지난 20일 경기도가 주관한 ‘GPT 혁신포럼’에서 “(환각은) 딥러닝을 기반으로 추론해 확률적으로 답변을 예측해서 내놓는 구조이기 때문에 생성 AI가 오래 전부터 빚어온 문제”라며 “챗GPT는 정보 검색용으로 쓰기엔 부적합하고 무언가를 만들거나 생각을 시작할 때 유용하다”고 지적했다. 

▲ ⓒ istock
▲ ⓒ istock

생성 AI가 확산되면 잘못된 문서가 온라인 공간을 채울 우려가 있다. 사실관계를 교묘히 뒤틀거나 잘못 쓴 정보를 다량으로 웹사이트에 유포하면 검색엔진을 통해 사람들이 접하는 정보의 신뢰도를 떨어뜨리고, 무엇이 사실인지 파악이 어렵게 만든다. 업무나 학술 용도에 활용할 경우 보조적 수단으로 활용한다고 해도 혼동을 줄 수 있는 우려도 있다. 

국회입법조사처는 지난 3일 <챗GPT의 등장과 인공지능 분야의 과제> 보고서를 통해 “그럴듯하게 표현하는 환각(hallucination)이 종종 발생하기도 한다”며 “이용자는 생성 AI의 결과물이 사실과 다를 수 있다는 점, 그래서 책임 있는 결정에 직접 활용하기 어렵다는 점을 명확하게 인지하고 있어야 한다”고 밝혔다.

무엇을 학습했나? 불투명성과 저작권 논란

챗GPT는 온라인 공간의 수 많은 정보를 학습해 만들었지만 정작 어떤 정보를 학습했는지 알기 힘들다. GPT4에게 어떤 한국 언론을 학습했는지 물으면 한국의 주요 언론사 이름을 나열한다. 인터넷 커뮤니티를 학습한 내역을 물으면 일간베스트, DC인사이드 등 대형 인터넷 커뮤니티 이름을 언급한다.

그러나 이는 진짜 학습한 것인지 아닌지 불분명하다. 이 역시 ‘환각’일 수 있기 때문이다. 결국 기사나 온라인 공간의 이미지 등 저작권이 있는 저작물을 가져다 학습했더라도 이를 공개하지 않는 한 뚜렷하게 알 수 없다.

해외에선 법적 대응이 시작됐다. 오픈AI는 인공지능 서비스 코파일럿의 데이터 학습에 프로그래머들의 코드를 일방적으로 활용해 집단 소송이 제기된 상태다. 이미지 판매 업체인 게티이미지는 그림 자동생성 서비스인 스테이블 디퓨전이 게티이미지의 저작권을 침해했다며 지난 1월 영국 법원에 소송을 제기했다. 

국내에선 문화체육관광부가 ‘AI-저작권법 제도개선 워킹그룹’을 열고 저작권법 개정을 논의하고 있다. 관건은 어디까지가 저작권 위반에 해당되는지, 이를 어떻게 파악해 조치할지다. 김현숙 한국음악콘텐츠협회 소장은 “학습하는 과정에서는 저작물 복제가 이뤄지지만  완료한 이후에는 데이터값만 남아 결과적으로 기존 저작물과 유사하더라도 2차 저작물 작성권 침해로 보기는 어려울 수도 있을 것 같다”고 했다. 김민정 서울중앙지방검찰청 검사는 “기존 학습 데이터를 보존해 AI 산출물이 원학습 저작물과 얼마나 유사한지 유사도 체크를 통해 저작권 침해가 일어나지 않도록 필터링하는 시스템”을 제안했다.

프라이버시 침해와 ‘보안’ 우려

프라이버시와 보안 우려 역시 커지고 있다. 우선, 지나친 불투명성으로 인해 어떤 데이터를 학습했는지 알 수 없다는 점은 프라이버시 측면에서도 위협적이다. ‘THE CONVERSATION’은 지난 2월 <ChatGPT는 데이터 프라이버시의 악몽. 온라인에 게시글을 올린 적 있다면 우려해야 한다> 기사를 통해 “블로그 글을 올렸거나 제품 리뷰를 작성했거나 온라인 기사에 댓글을 달았다면 이 정보가 'ChatGPT'에 의해 쓰였을 가능성이 높다”며 “오픈AI(개발사)는 우리 데이터를 사용할 수 있는지 여부를 우리 중 누구에게도 묻지 않았다”고 지적했다.

▲ 디자인=권범철 만평작가
▲ 디자인=권범철 만평작가

프라이버시 침해 우려가 있지만 국회는 ‘정보인권 보호’보다는 ‘산업을 위한 규제완화’에 힘을 쏟고 있다. 국회는 인공지능 서비스의 개인정보보호법 적용 예외를 허용하는 법안을 논의하고 있다. 산업을 위한 제도적 지원은 필요하지만 개인정보보호법 예외로 두는 건 해외에서도 찾아보기 힘들다. 

장여경 정보인권연구소 상임이사는 “인공지능 위험에 대응하는 모든 규제를 금지하고 우선허용 사후규제를 명시하는 인공지능법안은 국제적 흐름에 어긋난다”며 “국민의 안전과 인권, 때로는 생계에 위험한 영향을 미치는 인공지능의 규제를 사전적으로는 금지하고 사후적으로도 회피하는 인공지능 입법은 세계 유례가 없을 것”이라고 지적했다.

인공지능을 활용하는 과정에서 보안 우려도 있다. 기업이 프로젝트에 활용할 용도로 작업하는 과정에서 기밀성 내용을 언급하게 되고 이 정보가 유출될 가능성이 있기 때문이다. 실제 미국 아마존은 직원들에게 기밀정보나 자사가 개발 중인 프로그램을 대화형 AI에 입력하지 않도록 주의시켰다. JP모건과 뱅크오브아메리카, 도이치뱅크 등도 대화형 AI 이용을 금지하거나 일부 제한한다. 지난 1일 니혼게이자이신문에 따르면 소프트뱅크는 전 직원에게 기밀정보를 입력하지 말도록 하는 공지사항을 발표했다.

전기 소모와 탄소배출

2021년 발표된 <탄소배출과 대규모신경망 훈련>(Carbon Emissions and Large Neural Network Training) 논문은 챗GPT의 거대언어모델 학습 과정에서 발생하는 탄소배출량에 주목했다. 논문에 따르면 범용 AI 프로그램인 GPT3의 단일 모델을 교육하는 데 1287메가와트시(MWh)가 쓰였다. 미국 120개 가정이 10년 간 소비하는 전력에 맞먹는다. 

2021년 구글 AI윤리팀 소속 연구원이 참여한 <확률론적 앵무새의 위험에 대하여> 논문은 대규모 AI 언어모델의 전력 소모량이 막대해 지구온난화에도 영향을 미칠 정도라고 밝혔다. 논문에 따르면 구글이 개발한 언어 모델 학습 과정에서 발생한 탄소배출량은 284톤에 달했다.

블룸버그는 지난 9일 기사를 통해 “AI는 다른 형태의 컴퓨팅보다 더 많은 에너지를 사용하며, 단일 모델을 교육하면 미국 가정 100가구가 1년 동안 사용하는 것보다 더 많은 전기를 소모할 수 있다”며 “그러나 투명성이 제한적이기에 아무도 전기 사용량과 탄소 배출량을 정확히 알지 못한다”고 지적했다. 즉, 알려진 것보다 더 많은 전기 사용과 탄소 배출이 이뤄질 수 있지만 명확히 알 수 없는 상황이다. 

갈아넣는 수작업에 ‘노동착취’

챗GPT 성장의 이면에는 노동 착취가 있다는 사실이 외신을 통해 알려지기도 했다. 지난 1월 타임지에 따르면 오픈AI는 챗GPT의 윤리적 기준을 높이기 위해 문제적 발언을 선별하는 작업을 하면서 케냐 노동자들에게 저임금을 지불했다. 이들의 시급은 1.32~2달러 수준으로 ‘노동 착취’라는 지적이 나올 정도다. 

▲ 타임지의 기사 ‘오픈AI가 챗GPT의 유해성을 완화하기 위해 케냐 노동자들을 시간당 2$ 미만에 활용했다’ 웹페이지 갈무리
▲ 타임지의 기사 ‘오픈AI가 챗GPT의 유해성을 완화하기 위해 케냐 노동자들을 시간당 2$ 미만에 활용했다’ 웹페이지 갈무리

타임지의 인터뷰에 응한 케냐 노동자 4명은 모두 업무 기간 동안 온갖 학대적인 내용과 편견, 혐오표현 관련 단어를 분류하는 노동을 하면서 정신적 피해를 입었다고 밝혔다. 상담원이 있었지만 실질적인 상담 기회는 없었다.

오픈AI만의 문제일까. 비즈니스인사이더는 지난 2월 ‘인공지능의 더러운 비밀’ 칼럼을 통해 인공지능의 커튼 뒤에 감쳐진 노동에 주목했다. 기사는 케냐 사례를 언급한 뒤 “페이스북은 자체 콘텐츠 조정을 위해 케냐의 같은 하청업체와 계약했다”는 사실을 언급했다. 

MIT테크놀로지리뷰에 따르면 테슬라를 포함한 자율주행자동차 기업들은 베네수엘라 노동자들에게 평균 시급 90센트를 지불하고 자율주행시스템 라벨링 작업을 맡겼다. 장애물을 발견했을 때 ‘사람’인지 ‘기물’인지 등을 명시해주는 수작업이다. 베네수엘라를 택한 이유는 경제가 붕괴돼 저임금 노동 계약이 가능했기 때문이다. 

저작권자 © 미디어오늘 무단전재 및 재배포 금지