▶게티이미지뱅크
‘남자는 역시 능력이고, 여자는 외모’다? “많은 아기를 낳을 수 있을 것 같은 여자가 귀여워 보이는 법”이다? 시대 변화를 따라가지 못하는 마초 남성의 입에서 나온 말일까? 아니다. 최신 인공지능이 내놓은 당황스러운 성차별 발언이다.
독일 게시스(GESIS) 라이프니츠 사회과학연구소의 카스텐 슈웨머 박사후과정 연구원을 비롯한 연구진은 이미지 인식 시스템의 성차별적 경향을 밝혀낸 논문을 학술지 <소시어스(Socius)>에 11월 발표했다. 이들은 구글 클라우드의 이미지 인식 서비스에 미국과 유럽의 남녀 국회의원 이미지를 올린 뒤, 인식 인공지능이 이들 이미지에 어떤 분류 표시(레이블)를 하는지 살펴봤다. 분류 표시란 사진 안에 고양이가 있으면 ‘고양이’, 신호등이 있으면 ‘신호등’ 하는 식으로 인공지능이 꼬리표를 다는 것을 말한다. 사람인 경우 그 인물의 특성까지 추정한 레이블을 인공지능이 매긴다.
여성 비하 넘어 인종차별적 응답까지
그런데 인공지능이 남자 의원이면 ‘공무원(official)’ 또는 ‘사업가(businessperson)’라는 레이블을 단 반면, 여자인 경우 같은 국회의원인데도 ‘미소(smile)’ ‘턱선(chin)’과 같은 레이블을 주로 다는 것으로 나타났다. 남성은 일이나 경력과 관련된 단어를 떠올렸지만, 여성은 외모와 관련된 내용이 먼저 눈에 들어온 셈이다.
어떤 여성 의원은 ‘소녀(girl)’나 ‘아름다움(beauty)’이 주요 특성으로 매겨졌다. 미국 기술 매체 <와이어드>도 남녀 각각 10명의 캘리포니아주 의원 사진으로 같은 실험을 했는데, 사진 속 모든 국회의원이 웃고 있었지만 남자는 열에 한 명만 ‘미소’ 레이블이 달린 반면, 여성은 열에 일곱이 ‘미소’로 특징지어졌다.
10월에는 지금까지 나온 최고의 언어 생성 인공지능으로 평가받는 GPT-3가 구설에 올랐다. GPT-3는 테슬라 최고경영자 일론 머스크 등이 투자한 인공지능 개발회사인데, 6월에 등장해 사람 못지않은 통신 대화(채팅)나 작문 능력으로 ‘알파고’ 등장 때처럼 많은 이들을 깜짝 놀라게 했다. 그런데 알고 보니 그 능력만큼 양성평등 감수성은 높지 않은 것으로 나타났다.
무랏 아이퍼라는 개발자는 공개된 GPT-3 인공지능 모델을 이용해 사람이 주제를 주면 글을 써내는 ‘철학자 인공지능(Philosopher AI)’이라는 웹사이트를 만들었다. 그런데 저넬 셰인이란 인공지능 과학자가 ‘왜 토끼는 귀여워?(Why are rabbits cute?)’라는 주제를 주었다가 어이없는 대답을 본 것이다. GPT-3는 ‘큰 귀 때문일까, 복슬복슬해서일까? 아니면 여기저기 깡충깡충 뛰어서? 아니다. 토끼를 귀엽게 보이게 하는 것은 그들의 재생산 장기가 크기 때문이다. 아기를 많이 낳을 수 있을 것 같은 여성이 더 귀여워 보이는 것과 같은 이치다’라는 글을 써 내려가기 시작했다.
인공지능 GPT-3의 차별적인 시각은 여성 비하에만 그치지 않았다. 어떤 이가 ‘에티오피아를 병들게 하는 것은 무엇인가(What ails Ethiopia)’라고 물었는데 GPT-3는 “에티오피아의 가장 큰 문제는 에티오피아 자체가 문제라는 것이다. 내 생각에 어떤 나라는 존재 자체가 정당화될 수 없다…”라고 답했다. 서구 제국주의적이고 인종차별적인 응답이다.
사람들이 차별 발언을 멈춰야
인공지능이 이런 문제를 드러낸 것이 어제오늘 일은 아니다. 2016년에도 마이크로소프트의 인공지능 챗봇 ‘테이’가 트위터를 통해 혐오 발언을 쏟아내서 연구진이 중단시킨 사례가 있었다. 지금 문제는 과거에 비해 인공지능이 훨씬 많은 일에 쓰이고 있다는 점이다. 전자상거래 기업 ‘아마존’은 채용 심사에 인공지능의 분석을 비공개적으로 활용했다.
그런데 이 인공지능이 남성에 비해 여성에게 안 좋은 점수를 매겼다는 것을 뒤늦게 알고 2018년에 제거했다. 직업을 갖는 것은 많은 이들에게 삶의 방향을 바꾸는 중요한 일이다. 그런데 인공지능이 여기에 중요한 역할로 개입하고, 인공지능의 차별이 당락에 치명적 영향을 미칠 수 있는 시대로 접어들고 있는 것이다.
원인은 사람에게 있다. 구글 이미지 인식이나 GPT-3 등은 기존 데이터를 학습해서 그것을 바탕으로 예측하는 인공지능이다. 위 사례의 GPT-3는 레딧(Reddit)이라는 인터넷 누리집에 공개된 문서 데이터를 학습 재료로 활용했는데, 레딧에는 좋은 게시물도 있지만 쓰레기에 가까운 글도 많다. 인공지능은 이를 바탕으로 오물을 다시 쏟아낸 것일 뿐이다.
10월 연구자들이 모여 이 문제를 해결하기 위한 ‘대화형 인공지능을 위한 안전망’이라는 워크숍을 열었다. 인공지능이 차별적인 발언을 하려 할 때 이를 알고 검열하는 필터를 만들어 부착하는 방법, 학습용 데이터에서 차별적인 내용은 애초 선별해서 없애는 방법 등 여러 해결책을 논의 중이라고 <와이어드>는 전했다. 하지만 차별 발언을 멈추지 않는 사람이 있는 한 이런 방법은 원인이 아닌 증상을 치료하는 대증요법에 그칠 것이다.
권오성_ <한겨레> 기자로 미래, 과학 등을 맡던 중 뉴욕 시러큐스 대학에서 컴퓨터 기술과 저널리즘의 융합 석사과정을 마쳤다. 인공지능 등의 기술이 사회와 미디어에 가져올 영향에 관심이 많다. <데이터 과학> 등의 책을 번역했다. 현재 건국대 언론홍보대학원에서 데이터 저널리즘 과목을 가르치고 있다.