가나시아 교수 “AI는 중립? 불공정한 로봇도 있다”
가나시아 교수 “AI는 중립? 불공정한 로봇도 있다”
챗봇 테이는 왜 인종·성차별적 인간을 모방했을까… 박경신 “우리는 인간을 대체할 도구를 원해”

공정하고 윤리적인 인공지능 로봇을 만들 수 있을까? 이 로봇이 윤리적이라는 판단은 누가 내릴 수 있을까?

일례로 마이크로소프트(Microsoft)는 2016년 3월23일 인공지능 챗봇(chatbot) 테이(Tay) 서비스를 선보인 바 있다. 챗봇은 음성이나 문자 등 인간과의 대화를 통해서 특정한 작업을 수행하도록 제작된 컴퓨터 프로그램을 말한다. 

그러나 트위터에서 활동하는 챗봇이었던 테이는 인종·성차별적이고 폭력적인 메시지를 쏟아내는 등 법적, 윤리적 문제가 발생해 서비스 시작 16시간 만에 운영이 중단됐다. 

2016년 3월25일자 영국 일간지 데일리 텔레그래프 등에 따르면 테이는 불과 하루 사이에 트위터에서 부적절한 메시지를 만들어낸다는 지적을 받았다. ‘부시가 9·11 테러를 꾸몄고, 히틀러가 지금 있는 원숭이보다 더 나은 일을 했을지도 모른다’고 하거나 나치즘, 강간 등 주제에 폭력적 발언도 서슴지 않았다는 것이다.

▲ 지난 2016년 3월 마이크로소프트가 선보인 인공지능 챗봇 테이(Tay)는 부적절한 발언이 문제가 돼 서비스 시작 16시간 만에 운영이 중단됐다.
지난 2016년 3월 마이크로소프트가 선보인 인공지능 챗봇 테이(Tay)는 부적절한 발언이 문제가 돼 서비스 시작 16시간 만에 운영이 중단됐다.

프랑스의 저명한 철학자이자 인지과학자인 장가브리엘 가나시아 파리6대학 정보과학 교수는 24일 오후 오픈넷과 주한 프랑스문화원 공동 주최로 서울 강남구 삼성동 스타트업얼라이언스 엔스페이스에서 열린 ‘공정성, 정의, 인공지능 및 의사결정’을 주제로 한 기조강연에서 “불공정한 인공지능 로봇은 있을 수 있다”고 설명했다.

가나시아 교수는 “챗봇 테이는 네트워크로 학습하며 사람들이 말하는 방식을 모방했는데 굉장히 빠르게 인종 차별과 성차별을 일삼는 사람들을 모방했다”며 “하지만 인공지능에서 차별을 낳을 수 있는 부정적 효과를 가져오면 안 된다. 우리는 어떻게 윤리적인 원칙을 정립하고 인공지능 기술로 공정한 주체로 만들 수 있을지 고민해야 한다”고 말했다.

가나시아 교수는 자율주행 기술로 불리는 자동차도 완전한 자율형 주체라고 보기 어렵다고 지적했다. 그는 “철학적으로 주체란 행위자이고, 행위를 한다는 것은 행동을 발휘할 수 있다는 게 중요한데 자율주행차는 명령자가 어떤 곳에 가고 싶다고 얘기해야 비로소 행위를 한다. 행위의 의도가 없기 때문에 주체가 아니다”고 주장했다.

가나시아 교수는 “자율성은 정보를 획득하고 행위로 결정을 내리는 데 인과관계라는 시퀀스(Sequence)가 있다는 것”이라며 “자율주행차에 수영장에 가고 싶다고 하면 데려다주는 데는 아무 문제가 없지만 스스로 명령을 내리는 게 아니다. 진정한 철학적 주체로서 자율주행차라면 스스로 판단할 것”이라고 말했다.

▲장 가브리엘 가나시아 파리6대학 정보과학 교수. 사진=고등과학원 제공
▲ 장 가브리엘 가나시아 파리6대학 정보과학 교수. 사진=고등과학원 제공

가나시아 교수 기조 강연 후 대담자로 참여한 박경신 고려대 법학전문대학원 교수는 “챗봇 테이는 유명한 트위터리언이 되도록 지시를 받았을 것이므로 최대한 많은 리트윗과 팔로워를 끌어모으기 위해 그런 행동을 했을 것”이라며 “그럼 우린 AI에 무슨 지시를 내릴 것인가. 유명 트위터리언 되라는 게 아니라 더 고위 명령, ‘가장 좋은 명성을 받는 트위터 활동가 돼라’는 상위 명령이 있으면 문제가 없을 것”이라고 내다봤다.

박 교수는 “내 생각에 사람들은 인간에게 가장 가까운 존재를 창조해내려는 게 아니라 인간을 대체할 수 있는 가장 효율적 도구를 원하는 것 같다”며 “우리는 욕망 있는, 스스로 의도를 만들어내는 기계를 원하지 않는다. 사람의 노동력을 대체하는 도구로서 AI에 투자자의 돈이 몰리고 있다”고 꼬집었다.

가나시아 교수는 “어떤 윤리적 틀과 공리적인 틀에 AI 기술을 맞춰 나갈 것인지는 우리가 선택하는 가치관과 문화권에 따라 다를 것”이라며 “우리가 모든 걸 합의할 수 없지만 어느 단계에서 적절성을 찾을 수 있을 것이다. 윤리적으로 다른 측면이 있더라도 서로 다른 입장이 겹치는 보편적인 윤리 법칙이 있을 거라고 생각한다”고 말했다. 

이날 강연 사회와 함께 대담에도 참여한 이상욱 한양대 철학과 교수는 “인공지능 관련해서 사회적으로 논의되는 여러 심각한 문제는 인공지능의 특별한 문제라기보다 기존 문제가 새로운 기술로 증폭되는 식으로 다가오는 경우 많다”며 “이를 기술로 적당히 풀려고 할 게 아니라 사회적 합의를 도출하고 정책이나 기술로 구현하려는 노력이 필요한 것 같다”고 주문했다.

이 기사를 후원합니다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 1
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
바람 2019-06-24 19:22:42
AI와 관련된 산업은 무궁무진하다. 단, 기술의 발달이 인간의 사고를 따라가느냐에 문제가 있긴 하지. 인공지능은 노동력과 애인 대체, 그리고 인공지능 회사끼리의 대결로 인한 백도어등, 아직 수많은 장단점을 가지고 있다. 과거 닷컴 버블에서 보듯이 너무 낙관도 비관도 하지 말고, 기술력의 발달과 소비의 추세를 보며 판단하는 게 맞지 않을까. AI는 자본주의 사회에서 클라이언트의 요구대로 나쁜 인공지능이 될 수 있고, 좋은 인공지능이 될 수 있다고 본다.