▲ 장진희 한국노총 중앙연구원 연구위원

2016년 세계경제포럼(WEF)에서 4차 산업혁명이 거론된 이후 폭발적인 관심과 다양한 예측이 이뤄졌다. 가장 관심이 집중된 주제는 일자리의 미래다. 세계경제포럼 ‘일자리의 미래(The Future of Jobs)’는 미래 일자리 핵심으로 인공지능과 로봇 같은 디지털 기술을 꼽는다. 영국 케임브리지대학 리버흄 미래지능센터는 인공지능이 주도하는 미래에 여성차별 구조가 더 심화할 것이라고 우려한다. 이를 이해하기 위해서는 인공지능의 ‘학습’개념을 살펴볼 필요가 있다.

인간은 태어나는 순간부터 말하고 행동하는 방법을 배우고, 교육과정과 사회생활 등을 통해 살아가는 방식을 터득한다. 쉽게 말해 인간은 부모와 학교와 사회를 통해 학습하고, 오랜 기간에 걸쳐 진화해왔다. 인공지능 역시 과거 단순한 반복적 계산을 넘어 머신러닝(Machine Learning)과 딥러닝(deep learning)을 통해 정보를 습득하고 분석하며 스스로 결정을 내릴 수 있는 수준에 이르렀다. 이제는 우리의 산업구조를 변화시킬 핵심 요인으로 분류된다. 애초 인공지능은 사람과 달리 감정적이지 않고, 빅데이터에 기반해 공정하고 차별적이지 않은 최적의 결정을 내릴 것으로 기대를 모았다. 하지만 현실은 전혀 그렇지 못했다. 원인은 인공지능을 학습시키기 위해 주입되는 정보에 있다. 우리 사회뿐만 아니라 전 세계적으로 고착된 성차별적 환경과 고정관념, 혐오 등을 인공지능이 그대로 답습한다면 인공지능을 중심으로 이뤄질 4차 산업 역시도 과거와 다를 바 없는 차별적 환경의 반복이 될 것이다.

실제로 인공지능 차별사례는 어렵지 않게 찾아볼 수 있다. 2015년 구글의 사물 인식 프로그램으로 출시한 구글포토는 흑인 커플의 얼굴을 ‘고릴라’라는 범주로 분류했다. 구글 광고 역시 남성에게 더 높은 보수의 자문, 관리 직종 등 상대적으로 고급 취업 광고를 내보낸다는 사실도 드러났다. 2016년 마이크로소프트 인공지능 챗봇 테이(Tay)는 사용자들이 훈련시킨 혐오 표현을 따라 하기 시작해 시범서비스를 시작한지 하루도 안 돼 서비스를 중단했다. 같은해 미국 법원과 교도소에서 형량, 가석방, 보석 등의 판결에 널리 사용되던 컴파스(COMPAS) 알고리즘이 흑인들에게 편파적이라는 폭로가 이어졌다. 아마존 역시 구직자 이력서 평가를 위해 인공지능을 훈련시켰는데, ‘여성’이 언급된 지원서를 채용 대상에서 배제하거나 여성대학을 졸업한 이들에게 감점을 매기는 등 성 편향적 결과로 개발을 중단했다.

인공지능은 개발자 역시 설명하지 못하는 블랙박스(black box) 영역이 존재하기 때문에 인공지능에 의한 차별을 규제하기가 어렵다. 과거 사람에 의해 이뤄졌던 채용이나 직장 내 차별은 행위자가 명백해 법·제도적으로 제재하거나 처벌할 수 있었다. 사람이 아닌 인공지능의 차별 행위는 누구를 제재할지가 불분명하다. 바꿔 말하면 가해자-피해자의 구조는 법적으로 피해자를 보호할 순 있지만, 여기에 가해자-인공지능-피해자의 구조가 된다면 이야기가 달라진다.

과거 중대재해 처벌 등에 관한 법률(중대재해처벌법) 이전, 원청에 책임을 묻지 않았던 과거 원하청 구조와 유사하다. 인공지능 자체를 처벌할 수 없으므로 대부분 인공지능을 설계한 자본을 규제하고자 하는데, 인공지능이 딥러닝의 수준까지 올라와 인간이 설명하지 못하는 영역이 존재하기 때문에 원청 처벌도 쉽지 않다. 과도한 우려일 수 있지만 혐오와 성차별적 성향을 지닌 대상이 인공지능 알고리즘에 교묘히 차별적 요인을 설계하는 경우도 처벌이 불가능하다. 만약 인공지능이 지금보다 더욱 노동시장 내 깊숙이 자리 잡고 향후 채용, 승진이나 승급에서도 활용된다면, 인공지능이 우리 사회에 만연한 성차별적 환경과 여성에 대한 고정관념, 여성혐오를 그대로 답습한다 해도 이를 밝혀내는 것은 불가능에 가까울 것이다. 가해자를 식별하는 것 역시 불가능할 것이다. 결국 인공지능의 공정성과 투명성을 담보하지 못한다면 인공지능을 중심에 둔 4차 산업혁명에서도 여성은 여전히 피해자이자 취약계층으로 내몰릴 가능성이 자명하다.

주요 선진국은 인공지능의 개발 단계부터 서둘러 공정성과 투명성을 강조하며 규제하고 있다. 유럽연합(EU)의 일반정보보호규정(GDPR)과 미국 인공지능 차별금지법 등 인공지능의 차별적 의사결정을 금지하는 법·제도적 규제가 세계적 흐름으로 자리 잡았다. 그러나 우리나라는 ‘인공지능 규제=기술발전 저해’라는 인식이 여전하다. 인공지능 규제는 성역으로 남아있다. 인공지능 발전은 국가경쟁력을 높이고, 우리의 삶을 더욱 편리하게 만들어 줄 수 있다. 그러나 인공지능이 우리 사회에 고착된 성차별적 인식까지 학습하고, 차별적 결과를 제시하도록 방치해서는 안 된다. 4차 산업혁명과 맞물려 성평등 노동환경을 구현하려면 인공지능의 공정성과 투명성을 담보할 수 있는 규제가 시급하다.

한국노총 중앙연구원 연구위원 (jhjang8373@inochong.org)

저작권자 © 매일노동뉴스 무단전재 및 재배포 금지