인공지능 챗봇 ‘이루다’에 대한 논란이 이어진 가운데 시민단체들이 개인정보보호위원회에 조사를 촉구하고 법적 대응도 시사했다.

민주사회를위한변호사모임 디지털정보위원회, 사단법인 정보인권연구소, 진보네트워크센터, 참여연대는 13일 공동성명을 내고 “개인정보보호위원회의 철저한 조사와 엄정한 처벌을 촉구한다”며 “우리 단체들은 개인정보보호위원회에 대한 의견, 민원 뿐 아니라 국가인권위원회 등 관련 부처에 대한 민원, 필요하다면 소송 등으로 계속해 공동으로 대응할 예정”이라고 밝혔다.

스캐터랩이 개발한 인공지능 챗봇 ‘이루다’는 성적 착취, 혐오 논란에 이어 대화 내용에 특정인의 이름, 주소, 계좌정보가 뜨는 등 개인정보 문제도 불거졌다. 이루다는 스캐터랩이 운영하는 다른 서비스인 ‘연애의 과학’이 수집한 데이터를 학습했다. 이 서비스는 이용자가 카카오톡 대화 내용을 제공하면 대화 상대방의 호감도를 분석한다. 

▲ 인공지능 챗봇 이루다.
▲ 인공지능 챗봇 이루다.

이들 단체는 ‘이루다’의 개인정보보호법 위반 소지에 대해 △개인정보의 목적 외 이용과 부적절한 고지 △대화 상대방의 동의 부존재 △대화 내용에 포함된 민감정보, 고유식별정보 등이 문제라고 분석했다. 

스캐터랩은 ‘연애의 과학’ 카카오톡 대화 수집 과정에서 대화 내용을 ‘이루다’에 학습시킨다는 표현을 쓰는 대신 ‘신규 서비스 개발 및 맞춤 서비스 제공’이라고 모호하게 표현했다. 또한 카카오톡 대화는 2인 이상으로 이뤄짐에도 대화 참여 당사자들의 동의 없이 일방에 의해 개인정보 제공을 한 점도 문제였다.

스캐터랩은 ‘이루다’가 학습한 대화내용에서 숫자와 영문, 실명 정보 등 개인이 드러날 수 있는 정보는 ‘비식별화’(개인이 드러나지 않도록 가공하는 것)가 충분히 이뤄졌다는 입장이었지만 사실과 달랐다. 이들 단체는 “스캐터랩은 얼마 전까지 연애의 과학에서 추출된 일부 대화 내용을 오픈소스 플랫폼에 훈련 데이터셋으로 공개하기도 했다. 해당 데이터셋의 경우 이름, 건강상태, 직장 등의 개인정보가 비식별화되지 않은 상태였다”고 지적했다.

이들 단체는 이루다 논란은 ‘데이터 3법’을 비롯한 규제 완화와도 관련이 있다고 봤다. 데이터3법 논의 국면에서 시민단체들은 산업을 위한 개인정보 규제 완화의 위험성과 가공된 정보에서도 개인이 드러날 수 있다는 점 등을 우려하며 입법에 반대했다. 당시 보수언론과 여야 양당은 ‘산업 활성화’를 위해 필요하며, 개인정보 식별 가능성은 미미하다는 산업계와 입장을 같이 했다.

이들 단체는 “‘이루다’ 논란은 기업을 위한 데이터3법이 자초한 문제이기도 하다. 시민사회는 데이터3법이 기업들로 하여금 개인정보를 가명처리한 후 정보주체의 동의 없이 인공지능 제품 등 기업의 상품개발에 거의 무한대로 이용할 수 있도록 허용한 데 대해 비판해왔다”고 했다. 그러면서 “정보주체의 권리를 보장하기 위해서는 현 가명정보에 면제한 열람권, 삭제권 등을 보장하는 방향으로 법개정이 있어야한 한다”고 덧붙였다.

▲ 디자인=권범철 만평작가.
▲ 디자인=권범철 만평작가.

이들 단체는 “이루다 논란은 기업의 인공지능 제품이 일으킬 수 있는 문제의 한 단면일 뿐이며 이에 대한 대책을 기업 자율에만 맡겨둘 수 없다”며 “이미 우리 생활 곳곳에 들어와 있는 인공지능 제품에 대한 구체적이고 명료한 법적 규범을 마련할 것을 촉구한다”고 강조했다.

유럽연합은 인공지능 제품과 서비스에 대해 기존 법률의 준수는 물론이고, ‘고위험’ 인공지능에 해당할 경우 훈련데이터, 기록보존, 정보공개, 견고성, 인적 감독 등의 법적 의무를 부과하는 방안을 추진하고 있다. 최근 미국 연방거래위원회(FTC)는 불법적으로 사진을 수집해 얼굴인식 알고리즘 훈련용 데이터로 이용한 기업에 해당 모델과 알고리즘을 삭제하라는 명령을 내렸다.

한편 이들 단체는 일부 언론 보도에 대해 “해외시장에서 경쟁하려는 국내 청년 스타트업의 불가피한 시행착오로 포장하려는 일부 언론의 보도에 대해 우려하고 있으며, 엄연히 피해자가 드러난 사안에 대하여 법적 책임을 회피하려는 일체의 시도에 대하여 엄중하게 경고한다”고 밝혔다.

저작권자 © 미디어오늘 무단전재 및 재배포 금지