미국의 비영리단체인 ‘생명의미래연구소’가 “GPT4를 능가하는 인공지능 시스템 개발을 최소 6개월 이상 중단해달라”고 촉구했다. 29일 기준 1000여명이 서명에 참여했다.

서명 참여자들 가운데는 기업인, 학자, 전문가 등이 다수 포함돼 있다. 학자이자 유명 작가인 유발 하라리, 애플의 공동창업자 스티브 워즈니악, 테슬라 창업자이자 GPT를 만든 오픈AI의 공동창업자 일런 머스크, 스테빌리티AI의 에마드 모스타크 CEO, 딥러닝의 창시자로 알려진 요슈아 벤지오 몬트리올대 교수 등이 동참했다.

이들은 서한을 통해 독립적인 전문가들이 공동의 안전 협약(프로토콜)을 마련하고 제대로 된 감사를 받기 전까지 챗GPT4를 능가하는 인공지능 개발을 멈춰야 한다는 입장이다.

▲ ⓒ istock
▲ ⓒ istock

이들은 “강력한 인공지능 시스템은 효과가 긍정적이고 위험을 관리할 수 있다는 확신이 있을 때만 개발돼야 한다”며 “최근 몇 달 동안 더 강력한 인공지능을 개발하기 위한 통제 불능의 경쟁에 휩싸여 있는데도 이에 상응하는 계획과 관리가 이뤄지지 않았다”고 지적했다.

오픈AI가 개발한 챗GPT가 주목을 받으면서 생성형 인공지능의 주목도가 높아졌고 구글을 비롯한 기업과 연구소들이 생성형 인공지능 개발 경쟁을 벌이고 있다. 인공지능 기술의 급격한 발전으로 여러 우려가 예상되기에 이에 대한 점검을 우선적으로 한 뒤 개발에 나서야 한다는 취지다.

이들은 인공지능 개발 중단뿐 아니라 인공지능 학습이 중단됐다는 사실을 공개적으로 공유해 실효성 있는 감시가 이뤄져야 한다고 밝혔다. 

이들은 인공지능 연구소와 빅테크 기업 등이 이를 수용하지 않을 경우 정부가 개입해 진화한 인공지능 모델 개발을 막도록 ‘유예조치’를 취해야 한다고 밝혔다.

이들은 거버넌스 시스템이 필요하다고 강조하기도 했다.

“인공지능 개발자는 정책 입안자들과 협력해 강력한 인공지능 거버넌스 시스템의 개발을 획기적으로 가속화해야 한다”며 △인공지능을 전담하는 새롭고 유능한 규제 당국 △고도의 역량을 갖춘 인공지능 시스템과 대규모 연산 능력 풀에 대한 감독 및 추적 △실제와 합성을 구별하고 모델 유출을 추적하는 데 도움이 되는 출처 및 워터마킹 시스템 △강력한 감사 및 인증 생태계 △인공지능으로 인한 피해에 대한 책임 △기술적 인공지능 안전 연구를 위한 강력한 공공 자금 △인공지능이가 초래할 극적인 경제적, 정치적 혼란대처할 수 있는 충분한 자원을 갖춘 기관 등이 필요하다고 했다.

이들은 자신들의 요구가 ‘개발 전면 중단’이 아니라는 점을 언급하기도 했다. “인공지능 개발의 전반을 중단시키자는 의미가 아니다”라며 “예측할 수 없는 보다 큰 (내용을 제대로 들여다보기 어려운) 블랙박스 모델을 향한 위험한 경쟁에서 한 발 물러나자는 것”이라고 했다.

저작권자 © 미디어오늘 무단전재 및 재배포 금지