앞으로 신용평가와 대출심사 같은 업무에 인공지능(AI)을 활용하는 금융회사는 내부통제·승인절차를 마련하고 승인책임자를 둬야 한다. AI의 의사결정을 사후검증해 사람에 의한 감독·통제가 가능하도록 시스템도 마련해야 한다.

금융위원회는 8일 오후 도규상 금융위 부위원장 주재로 1차 디지털 금융협의회 데이터 분과회의를 열고 이 같은 내용을 담은 금융 분야 AI 가이드라인을 발표했다. 연내 업권 특성을 반영한 세부실무지침을 마련해 전면시행할 방침이다.

가이드라인은 7개 분야 22개 항목으로 구성했다. 7개 분야는 가이드라인의 목적과 적용 범위를 비롯해 △거버넌스 구축 △AI 시스템 기획 및 설계 단계 △AI 시스템 개발 단계 △AI 시스템 평가 및 검증 단계 △AI 시스템 도입·운영 및 모니터링 단계 △AI 시스템 업무위탁에 관한 특례다.

내부통제장치를 마련해 AI 활용 신뢰성을 높이는 게 목적이다. 정부는 가이드라인이 AI 활성화에 기여할 수 있을 것으로 본다. 가이드라인에 따르면 금융회사는 회사 사정에 적합한 AI 윤리원칙을 수립해야 한다. AI 윤리위원회를 별도로 둘 수도 있다. AI의 잠재적 위험을 평가하고 관리할 구성원을 정하고, 그 역할과 책임·권한을 기획·설계·운영·모니터링 같은 서비스 전 단계에 걸쳐 구체적으로 정해야 한다.

AI가 개인 금융거래계약에 중대한 영향을 줄 때 이에 대한 내부통제와 승인절차를 마련하고 별도의 승인책임자도 둬야 한다. 신용평가·대출심사·보험심사·카드발급심사 등이다. AI가 사람의 의사결정을 대체할 때 사람이 AI 시스템을 감독하고 통제할 수 있도록 시스템을 마련하도록 했다.

AI 개발·학습 단계의 개인정보 오·남용과 편향성 개선도 담았다. AI가 학습 과정에서 허가받지 않은 개인정보를 습득하면서 여성과 장애인·성적지향에 대한 차별과 혐오발언을 재생산한 것을 막으려는 내용이다. 해외에서는 2019년 애플사가 발급한 애플카드가 같은 신용도에도 남성의 신용카드 한도를 여성보다 10~20배 높게 설정한 AI 차별이 드러나기도 했다.

이번 가이드라인은 금융사뿐 아니라 금융상품 추천이나 신용평가 같은 금융연관 서비스를 제공하는 업무에 AI를 직·간접적으로 활용하는 비금융사에도 적용한다.

다만 가이드라인 수준이라 실효성은 담보하기 어렵다. 우리나라와 달리 유럽연합(EU)은 인간의 기본권에 미치는 영향에 따라 AI 위험 수준을 3단계로 나누고 최고위험단계는 서비스 금지 같은 강력한 규제를 적용하고 있다.

저작권자 © 매일노동뉴스 무단전재 및 재배포 금지