▲ 김하나 변호사(해우법률사무소)

AI(Artificial Intelligence, 인공지능)가 바둑을 두고, 스피커 형태로 사용자 질문에 답을 하는 시대는 벌써 지났다. 이제 AI를 ‘AI 역량검사’ 또는 ‘AI 면접’이란 이름으로 채용절차에 활용하며 지원자를 평가하고 있다. 그 결과물은 채용에 직·간접적인 영향을 미치고 있다. 2016년 3월 이세돌 9단이 ‘알파고’와 대국을 한 지 불과 4년 만에 우리 실생활에, 그중에서도 ‘공정성’에 큰 가치를 두는 ‘채용’의 영역에 AI가 활용하기에 이른 것이다.

AI란 인간의 학습능력·추론능력·지각능력·자연언어 이해능력 등을 컴퓨터 프로그램으로 실현한 기술이다. 빅데이터를 학습해 알고리즘을 생성하고 이를 토대로 결과값을 도출한다. 이때 흩어져 있는 각종 데이터에서 다양한 방식으로 핵심적인 내용을 추출해 기계학습 알고리즘을 만드는 방식이 바로 그 유명한 ‘딥러닝(deep learning, 심층학습)’이다.

그런데 AI가 딥러닝을 할 때 사용하는 빅데이터는 과거 사람이 생성한 개별 데이터의 모음이다. 때문에 딥러닝을 하는 과정에서 원(原) 데이터에 포함된 차별·편견을 그대로 학습하고, 원 데이터의 내용을 확증편향 되게 학습한다. 불명확하거나 정당하지 않은 결과를 초래하는 등의 문제를 유발할 위험이 존재한다.

AI의 위험성을 가장 잘 보여주는 사례는 아마존 채용시스템이다. 2014년 아마존은 자체적으로 AI 채용프로그램을 개발했다. 그런데 사후 이 알고리즘이 여성에게 불리한 결정을 한다는 사실이 발견됐다. AI가 학습한 데이터가 남성 위주로 구성됐고, 실제 업계의 남성 비율이 높아서 채용 전제조건으로 ‘남성’을 학습한 결과다. 아마존은 이를 수정하기 위해 노력했지만 실패했고, 종국에 이 프로그램을 폐기했다. 또 다른 사례는 미국 법원에서 실제 널리 사용되는 재범 위험예측 알고리즘인 ‘COMPAS’다. 이 알고리즘이 흑인과 백인 간의 재범 예측률에 있어서 흑인에게 불리한 결과를 도출한다는 점이 큰 비판을 받고 있다.

AI는 완벽하지 않다. 따라서 사전 규제와 사후 조치를 위한 법제와 AI 윤리규범 정립이 반드시 필요하다. 실제 유럽연합(EU) 집행위원회는 지난해 4월 윤리 가이드라인을 발표했고, 미국은 AI 기술 사용을 규제하는 법을 포함한 다수의 AI 관련 법령을 시행 중이다. 영국·프랑스를 포함한 유럽 각국도 관련 법제를 마련했다. 국내 AI 관련 윤리는 정부와 공공기관이 제정한 윤리 헌장 5개와 비영리기관과 카카오가 마련한 윤리 헌장 2개를 합쳐 총 7개가 있다. 모든 기술을 아우르는 통일되고 영향력 있는 상위법이 존재하지 않기 때문에 AI 전반에 관한 윤리기준이 미흡한 상태다.

미흡한 법제에도 올해 10월 현재, AI 면접을 도입해 사용하고 있거나 도입을 계획 중인 공공기관은 20여곳에 달한다. 채용절차 공공성을 특히 중시하는 공공기관의 수치만 따져 본 것이다. 국내외 AI 관련 윤리규범은 공통적으로 공정성·책무성(책임성)·투명성·설명가능성을 지적하고 있다. 공공기관 의사결정에 해당하는 AI 면접 알고리즘은 공정해야 하고, 알고리즘 자체의 책임성이 요구된다. 관련 데이터와 알고리즘에 접근할 수 있어야 하고, 그 결정을 사람이 이해할 수 있어야 한다는 것이다.

그러나 현재 AI 면접을 채용절차에서 활용하고 있는 10여개 공공기관 대부분은 AI 면접 절차와 평가의 기준 등을 묻는 정보공개 청구에 비공개로 답했다. 관련 정보에 접근 자체를 용인하지 않고 있으니 AI 면접에 활용된 알고리즘이 공정한지, 책임성이 있다고 평가할 수 있는지를 알아볼 길이 요원하다.

상황이 이러하다면 근본적인 의문이 든다. 지원자들을 공정하게 평가한 것이 맞는지? AI 면접 점수를 채용절차에서 ‘참고’만 했다면, 그 점수가 영향을 전혀 미치지 않았다고 확답할 수 있는가? 기관은 AI 알고리즘이 어떤 근거로 채용자들의 점수를 결정한 것인지 설명할 수 있는가?

이 대답에 긍정적인 대답을 할 수 없으면서, 채용절차에서 ‘AI 면접’ 전형을 계속 유지하는 것에 상당한 무리가 있어 보인다. 공공기관이 채용 과정에서 그러한 무리를 할 필요가 무엇일까. 가뜩이나 청년들이 취업난으로 고통받는 시국에 불확실한 AI에 평가당하는 고통까지 줄 수는 없는 노릇 아닌가.

저작권자 © 매일노동뉴스 무단전재 및 재배포 금지