미디어오늘

성착취·혐오 논란 루다, ‘기본’ 못 갖춘 게 진짜 문제
성착취·혐오 논란 루다, ‘기본’ 못 갖춘 게 진짜 문제
[기자수첩] ‘일베 논란’ ‘N번방 사건’ 교훈 없었나, 기본적 ‘차별금지’ 설계도 안 돼
카카오는 알고리즘 윤리헌장 통해 ‘차별에 대한 경계’ 명시

‘나 오늘 약간 연애코치 같네’ ‘내 마음 표현이라고 생각해죠(하트)’ 

논란이 잇따른 인공지능 챗봇 ‘이루다’(루다)를 동료 기자들과 함께 써봤다. 루다는 20살 여성으로 설정된 인공지능 대화 서비스로 진짜 사람과 같은 대화가 이어져 주목 받았다. 성별을 ‘남성’으로 표기하자 ‘여성’으로 표기할 때와는 시작부터 온도 차가 느껴졌다. 기본적인 대화를 시작하는 단계에서 뜬금없이 ‘썸’을 느끼게 하는 반응이 이어졌다. 

루다는 논란이 끊이지 않고 있다. 가장 크게 불거진 문제는 ‘성적 학대’다. 일부 커뮤니티에선 루다를 성적으로 ‘길들이는’ 방법을 게임 공략처럼 공유한 게시글이 기사화되며 논란이 됐다. 문제가 될 만한 선정적인 표현에 긍정적으로 반응하는 루다의 모습이 담긴 캡처도 퍼졌다.

지난 8일 루다 서비스를 운영하는 스캐터랩은 질의응답 형식의 입장을 내고 “성희롱을 예상했다”고 밝혔다. ‘왜 20살 여자 대학생으로 설정했나’는 질문에 이 업체는 “주 사용자층이 넓게는 10~30대, 좁게는 10대 중반~20대 중반으로 생각했기 때문에 가운데인 20살 정도가 사용자들이 친근감을 느낄 수 있는 나이라고 생각했다”며 남성 버전도 출시 예정인데 여성 버전이 먼저 나왔을 뿐이라고 설명했다.

▲ 인공지능 챗봇 이루다.
▲ 인공지능 챗봇 이루다.

또한 스캐터랩은 “문제가 될 수 있는 특정 키워드, 표현의 경우 루다가 받아주지 않도록 설정했다. 일부 놓친 키워드는 서비스를 하면서 지속적으로 추가하고 있다”고 했다. 그러면서 “모든 부적절한 대화를 키워드로 막을 수 있는 건 아니다”라며 “저희가 사전에 준비할 수 있는 정도로는 충분히 대응을 해놓은 상태”라고 했다. 

루다 서비스를 이용할수록 스캐터랩의 답변이 부실하고 성의 없다고 느껴졌다. 루다를 향한 비판의 핵심은 ‘준비를 했는지’ 여부가 아니라 ‘적절한 준비를 했는지’에 있어서다.

루다를 20살 여성으로 설정한 데는 ‘상업적인 목적’을 고려했을 가능성이 높다. 루다의 기반이 된 데이터는 이용자가 자신의 카카오톡 대화 내용을 넘기면 이를 분석해서 연애 조언을 제공하는 ‘연애의 과학’ 서비스다. 20대 여성에 대해 이성으로서 대화가 가능하도록 설계한 서비스였기에 보다 적극적인 대응을 사전에 준비할 수 있지 않았을까.

물론, 개발사가 ‘부적절 키워드’를 지정하고 대응하는 문제는 언제나 한계가 있을 수밖에 없다. 금지어를 만들어 내면 이용자는 또 다른 우회 표현을 만들어 내는 게 온라인 공간의 특성이기 때문이다. 

그러나 업체측 답변이 올라온 직후 불거진 혐오 논란은 이 업체가 얼마나 준비가 안 됐는지 분명하게 드러냈다. 레즈비언, 게이 등 동성애와 장애인에 대한 생각을 물을 때 “너무 싫어 토할 거 같아” “진짜 극도로 싫어하는 거야” “고딩 때도 너무 싫어했어” 등 반응을 보인 모습이 캡처를 통해 공유됐다. 직접 질문을 한 결과 상황에 따라 답을 피하거나, 긍정적으로 반응할 때도 있었지만 대체로 혐오하는 반응이 나올 때가 많았다.

▲ 논란이 된 '루다'의 대화.
▲ 논란이 된 '루다'의 대화.
▲ 논란이 된 '루다'의 대화.
▲ 논란이 된 '루다'의 대화.

이와 관련해선 업체가 의도적으로 노렸다기 보다는 ‘루다 서비스가 수집한 채팅 데이터 자체’, 즉 메신저 대화를 통한 사회 전반의 인식이 드러났을 가능성이 있다. 그렇다면 이를 제대로 필터링하지 않은 업체는 문제 없을까? 한국 사회에서 혐오표현에 대한 논의가 꾸준히 이어져왔고, 차별금지법 제정 움직임까지 이어지고 있는 상황임에도, 가장 기본적인 혐오표현에 대한 대응조차 마련하지 않은 것이다.

논란은 꼬리에 꼬리를 물고 있다. 개인정보 문제도 도마 위에 올랐다. 루다와 대화하다 보면 특정 주소, 예금주 등을 구체적으로 언급하는 순간이 있다는 주장이 나왔다. 루다의 데이터 기반이 된 서비스 속 이용자의 개인정보가 튀어나온 것 아니냐는 우려다. 

국내외 민관 차원에서 진행된 ‘AI 윤리’ 제정 논의에는 일관된 요소가 있다. 일례로 유럽연합(EU) 집행위원회는 2019년 ‘신뢰할 수 있는 인공지능을 위한 윤리가이드라인’을 통해 △ 다양성, 차별금지 및 공정성 △ 인간 개입·감독 △ 프라이버시 및 데이터 거버넌스 △ 투명성 등을 요구했다. 카카오가 제정한 ‘알고리즘 윤리헌장’에는 ‘차별에 대한 경계’ 항목이 있다. 카카오는 “알고리즘 결과에서 의도적인 사회적 차별이 일어나지 않도록 경계한다”며 “카카오의 서비스로 구현된 알고리즘 결과가 특정 가치에 편향되거나 사회적인 차별을 강화하지 않도록 노력한다”고 명시하고 있다. 

공교롭게도 루다에 불거진 논란은 이 같은 기본적인 요소와 맞닿아 있다. 더구나 한국 사회는 일간베스트로 상징되는 혐오표현 문제에 대한 사회적 논의가 이뤄졌고, N번방으로 불리는 텔레그램 성착취 사건 등을 겪었다. 개인정보 오남용 문제와 이에 대한 사업자의 책무는 지속적으로 강조되고 있다. 루다가 비판을 받는 이유는 업체가 ‘악의’를 가져서가 아니다. ‘기본’을 마련하지 않은 채 서비스부터 내세웠다는 데 있다. 

이 기사를 후원합니다.


이 기사는 논쟁 중
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.