국민 안전과 기본권 보호하는 AI 규제법 마련해야

인공지능(AI)규제법 마련해야.png

국민 안전과 기본권 보호하는 AI 규제법 마련해야

인권침해, 차별 위험 등 AI 문제 ‘민간자율’로 해결할 수 없어  

산업중심의 4차위⋅과기부 주도 아닌 인권위⋅개보위⋅공정위 참여하는 통합적 거버넌스 필요

지난 3월 30일, 4차산업혁명위원회(이하 4차위)는 산·학·연 민간 전문가가 참여한 가운데 ‘신뢰할 수 있는 인공지능(AI) 활용 방안 모색 간담회’를 개최하였다. 그러나 이번 간담회에서 인공지능 활용이나 인공지능 기술 자체의 속성에서 비롯되는 기본권 침해의 예방책 등 국민의 권리 보장 방안이 다뤄지지 않았다. 결론으로 도출된 ‘민간중심의 자율규제’라는 제언은 기업측의 이익과 입장만을 고려한 일방적 방향에 불과하다. 정부는 기업뿐 아니라 소비자, 노동자 등 실제 AI의 영향을 받는 모든 이해관계자들과 함께 AI의 신뢰성과 책임성을 담보할 수 있는 방법을 모색하는 것이 순서일 것이다. 뿐만 아니라 현실에서 실제로 벌어지는 다양한 AI에 의한 위험성을 예방하고 대비할 수 있는 AI 규제법제를 마련해야 한다. 

이미 우리 사회 다양한 영역에서 AI 제품과 서비스가 활용⋅도입되고 있다. 스마트폰의 AI 비서나 AI 스피커, 온라인 쇼핑몰의 상품추천 등은 일상 생활에서 익숙한 AI 서비스이다. 더 나아가 맞춤형 금융상품 추천을 위한 신용평가, 사회복지수급자 선정, 일자리 배치 등 국민의 삶에 중대한 영향을 미치는 영역에 AI가 도입되고 있으며, 최근 여러 민간기업과 공공기관이 AI를 이용한 서류평가와 면접을 채용 절차에 적용하고 있다. 지난 2월에는 행정기본법이 국회를 통과하면서 AI에 의한 행정 처분의 근거가 마련되었고, 앞으로 국가의 행정작용에 이르기까지 AI 활용은 더욱 확대될 것이다. AI 산업이 지속가능하게 발전하기 위해서는 기술 지원과 더불어 AI로 인하여 발생할 문제에 대한 예방책도 함께 마련되어야 한다. 

그러나 AI 법제도와 관련하여 4차위를 필두로 한 정부 정책들은 인공지능 산업의 기반이나 기술 개발을 진흥하는 것을 주요 목표로 하고 있다. 일례로 지난 해 12월 24일 과기부가 발표한 ‘인공지능 법⸱제도⸱규제 정비 로드맵’은 인공지능 산업 진흥과 활용 기반을 강화하는 방향 일색이다. 올해 3월 발족한 제2기 ‘인공지능 법제도정비단’이 추진하는 ‘데이터산업 진흥을 위한 기본법 제정’, ‘데이터 관리업에 대한 법적 근거 마련’ 방안 등 역시 산업 진흥에만 초점이 맞춰져 있다. 국민의 안전과 기본권 보호를 위하여 정작 먼저 이루어져야 할 ‘고위험 분야 인공지능 기술기준 마련’, ‘인공지능에 의한 계약의 효력’, ‘인공지능 행위에 대한 손해배상 방안 마련’, ‘인공지능 행정의 투명성 확보’ 등은 중장기 과제로 미뤄져 있다. 

인공지능에 대한 깊은 논의가 부족한 채 ‘인공지능은 객관적이고 중립적일 것’이라는 막연하고도 맹목적인 신뢰를 바탕으로 앞다투어 인공지능 시스템을 도입, 홍보하는 것은 위험하다. 검증절차 없이 도입된 인공지능 시스템의 부작용은 오롯이 국민들에게 전가되기 때문이다. 인공지능의 오남용으로 인한 광범위한 인권 침해와 차별의 위험성은 챗봇 이루다 사건, 일부 공공기관 AI 면접에서 알고리즘 공개 거부 사례, 네이버나 다음 등 포털사이트의 뉴스 편집 알고리즘의 편향성에서 이미 드러났다. 이들 사례들은 인공지능 사용자인 시민들의 접근권, 처리절차 및 결과 도출 등에 관한 절차적 권리 등을 보장하지 않을 뿐 아니라 이러한 당연한 권리를 차단하기 위해 비밀주의로 일관하는 기업의 태도가 심각하다는 점을 보여준다. 미국은 공정거래위원회 격인 연방거래위원회(FTC)가 아마존 등 여러 기업에서 널리 사용하는 AI 채용 면접 ‘하이어뷰(Hire Vue)’ 알고리즘의 공정성을 조사 중이다. 그러나 우리 정부가 지금까지 AI면접 등에 대해 공정하고 투명한 채용 시스템인지, 부작용은 없는지에 대해 조사나 감독을 한다는 소식은 들은 바 없다. AI면접이 채용 지원자의 성별이나 연령에 따라 편향적으로 판단하지는 않는지, 표준어와 사투리 사용자 사이에 부당한 편향은 없는지, 어느 누구도 정확히 검증하지 않은 상태로 공공기관마저 무비판적으로 AI 채용을 도입하고 있다. 특히 기업들이 이윤 추구를 위하여 검증되지 않은 인공지능기술을 무차별적으로 도입하고 있다는 현실을 고려할 때, 인공지능기술의 연구, 개발, 상용화 과정에서 준수해야 할 절차나 한계에 대한 기준을 마련하지 않은 채 기업들의 ‘자율규제’에 맡기는 것은 국가가 헌법이 규정하고 있는 기본권 보호 의무를 방기하는 것이다.

국회 입법조사처는 2020년 9월 ‘인공지능의 윤리적 사용을 위한 개선과제’ 보고서에서 체계적이고 표준적인 윤리기준 등 인공지능윤리 거버넌스 마련, 예상치 못한 문제 발생 등에 대응할 수 있는 인공지능 사후감시 감독 시스템 도입, 인공지능 피해에 대한 배상책임 제도 보완 등 인공지능 전반의 논의가 필요하다고 제언한 바 있다. AI 문제는 민간자율의 범위를 뛰어 넘는다고 본 것이다. 이를 위해 우선, 인공지능 기술이 산업·사회 전반에 미치는 파급력이 크므로 전체를 조율할 수 있는 컨트롤 타워가 필요하다. 과기부가 소관부처라는 이유만으로 인공지능기술과 관련된 관련 법령의 제개정을 주도적으로 처리하면 안될 이유다. 신기술의 등장으로 새롭게 추구되는 가치와 기존의 법제도가 보호하고자 하는 가치가 충돌할 수 있는 만큼 국회, 정부 부처, 산업계, 학계, 시민단체 등이 참여하는 범정부적인 협의체가 구성되어야 한다. 또한 이 규제거버넌스 기구에는 공정거래위원회, 개인정보보호위원회, 국가인권위원회 등 국민의 기본권 보호 의무를 수행하는 국가 기관들도 반드시 참여해야 한다. 

현재 국회에 발의되어 있는 AI 관련 법안(이상민 의원안, 양향자 의원안, 민형배 의원안)들 역시 모두 AI 산업육성과 진흥에 관한 법안들로, 신기술이 초래하는 위험성에 대한 고려가 전혀 없다. 인공지능의 사용은 ‘지속가능한 발전 목표’를 달성하고, 민주적인 프로세스와 사회적인 권리를 지원하는데 중요한 역할을 수행해야 한다. 이를 위해서는 인공지능 기술의 역기능을 최소화하기 위한 안전규제 및 위험관리 체계가 균형있게 마련되어야 한다. 

AI 기술은 이른바 ‘4차 산업혁명’이라고 불리며 장밋빛 미래로 이야기되지만 그 이면에는 기본권과 인권 침해 위험성이 존재하며 피해 사례가 점차 드러나고 있다. 채용과정에서 왜 불합격인지 설명하기 어려운 인공지능의 판단을 당연하게 받아들여야 하는 것인지, 챗봇 이루다 사태에서 보듯 데이터 수집 단계의 개인정보 침해 뿐만 아니라 인간에 대한 혐오, 편견을 조장하는 발언들 역시 초창기 기술이라는 이유로 대책 없이 감내하여야 하는 것인지 질문해야 한다. 민간 자율과 별개로 인공지능의 영향을 받는 국민의 안전과 기본권 보호를 위한 인공지능 규제법을 마련할 것을 촉구한다. 

2021년 4월 1일

민주사회를위한변호사모임 디지털정보위원회, 사단법인 정보인권연구소, 진보네트워크센터, 참여연대

 

논평[원문보기/다운로드] 

 

 

 

정부지원금 0%, 회원의 회비로 운영됩니다

참여연대 후원/회원가입