[대선 의제 제안] 인공지능시대 정보인권 보장

참여연대는 지난 11월 1일, 보다 나은 한국 사회를 위한 개혁 의제로 △사회안전망 강화와 노동권 보장을 위한 제안, △주거안정과 자산불평등 완화를 위한 제안, △경제민주화와 중소상인 보호를 위한 제안, △권력기관 개혁과 민주적 통제 강화를 위한 제안, △모두의 인권과 기본권 보장을 위한 제안, △평화와 군축을 위한 제안 등 6대 분야에서 31개 의제를 제시했습니다. 

<참여연대가 제안한 20대 대선 개혁 의제 – 모두의 인권과 기본권 보장을 위한 제안> 가운데

인공지능시대 정보인권 보장을 소개합니다.

 

제안 이유 

 

  • 2020년 개인정보보호법 개정으로 기업들의 고객정보가 무분별하게 목적 외로 활용, 판매, 공유될 수 있는 환경이 만들어지고, 2021년 전자정부법 개정, 데이터기본법 제정되면서 공공이 보유하고 있는 개인정보 및 민감정보들을 민간 기업에 제공할 수 있도록 법적 근거가 마련되었음. 문재인 정부에서 통과된 이들 법안은 이른바 데이터 중심의 경제 활성화를 위해 정부 차원에서 빠르게 추진되었지만, 참여연대를 비롯한 시민사회단체들은 정보주체의 기본권이 침해될 소지가 매우 큰 법안들로 평가하고 있음.
     
  • 최근 인공지능 서비스는 검색, 자동 번역, 추천 알고리즘, 챗봇처럼 일상에서 쉽게 만나는 서비스들 뿐 아니라 채용, 금융서비스와 범죄예방 등 형사사법 영역에서도 많이 활용되고 있으며 앞으로 공공 및 민간영역 전반에 더욱 확대될 것으로 보임. 새로운 기술변화에 따른 적응과 활용은 필요한 일이지만 동시에 적절한 통제와 관리를 위한 법규가 충분히 마련되어야 함. 2020년 3월, UN 사무총장은 “신기술이 사용되는 상황에서 책임을 완전하게 보장하는 적절한 법률체계와 절차방법이 마련되어야 한다. 이를 위해 국내 법제도의 공백을 검토 및 평가하고, 필요한 감독 체제를 수립하고, 신기술로 인한 피해에 대해 사람이 이용할 수 있는 구제 수단이 구비되어야 한다”고 권고하였음. EU를 비롯해 영국, 미국, 캐나다 등 세계 주요 국가들은 인공지능에 대한 법규범을 제정하고 있음.
     
  • 그러나 한국 정부와 국회는 ‘인공지능 산업 육성’에 초점을 맞추어 제반 법규 마련에 나서고 있음. 이는 국가 차원의 인공지능 규제 방안을 마련하고 있는 국제적 추세에 부합하지 않는 방향으로, 인공지능이 인권과 안전, 민주주의에 미치는 영향을 평가하고 적절한 규제를 마련하는 방향으로의 전환이 요구됨. 

 

제안 사항

 

1) 개인정보보호법, 신용정보법 개정 등 개인정보 관련 법제에서 정보주체 권리 강화 

  • 동의 절차를 면제한 가명정보의 이용 및 제3자 제공은 정보주체의 권리에 미칠 영향을 고려해 공익 목적 등으로 엄격히 제한하고, 후퇴시킨 정보주체의 권리보호 방안을 마련함. 
  • 특히 특별한 보호가 필요한 건강정보, 유전자정보 등 민감정보의 가명화(가명처리) 후 활용은 적어도 법률에서 별도의 규정을 두거나 다른 법률에 명확한 근거가 있는 경우에만 가능하도록 함. 

 

2) 인공지능 관련 법규 마련을 위한 거버넌스 구축 

  • 인공지능이 국가 및 국민의 삶에 미치는 다양한 측면을 고려해, 지금까지 인공지능 산업을 지원하는 역할을 주로 해온 과기부 등 산업육성의 부서 주도가 아니라 국가인권위, 공정거래위, 개인정보보호위 등 기본권 보호 역할을 하는 기구 주도의 거버넌스를 마련함. 
  • 인공지능 시대에 국민의 삶이 어떻게 변화될 것인지, 인권, 기본권에 미칠 영향을 총체적으로 예측하고 평가하여 감독해야 함. 

 

3) 인공지능의 위험수준에 따른 규제 마련 

  • 모든 인공지능 시스템은 헌법과 관련 법률에 따라 개인정보를 보호하고 인권 침해와 차별을 금지하고, 소비자의 안전과 권리 보호, 노동자와 노동권을 보호하는 현행 법률을 준수하도록 함. 
  • 위험한 인공지능을 제도적으로 통제하기 위하여 법률적 의무를 부과하고 피해를 입거나 인권을 침해당한 사람에 대한 권리구제 방안이 보장되어야 함. 
  • 2021년 4월 발표된 EU의 AI 법안(Proposal for a Regulation on a European Approach for Artificial Intelligence)은 인공지능의 위험도에 따라 △허용할 수 없는 위험, △고위험, △제한된 위험, △낮은 위험 등의 단계로 나누고 단계별 규제 수준을 달리 정하고 있음. 인공지능 법규 마련에 이를 참고할 수 있을 것임. 

 

Q&A 

 

1) 디지털 시대에 데이터가 원유라고 하는데 데이터 활용을 더 자유롭게 해야하지 않나요? 

  • 데이터의 가치가 앞으로 더 높아질 것이라는 전망 아래 데이터 활용과 이를 통한 가치 창출이 강조되고 있지만, 그 전제는 개인정보보호 의무를 준수하고 정보기본권을 침해하지 않아야 한다는 점입니다. EU 등 주요 국가들이 프라이버시 등 정보주체의 권리 보호를 매우 중요하게 여기고 있다는 점을 고려한다면, 한국 정부와 기업들의 개인정보 보호 의무는 혁신을 가로막는 장애물이 아닌 글로벌 기업들과 경쟁하기 위한 필수 전제로 보아야 할 것입니다.   

 

2) 인공지능 산업의 육성을 위해 법적 규제보다는 기업의 자율적인 규범에 맡기는 것이 낫지 않나요? 

  • 이윤추구를 목적으로 하는 기업이 스스로 인공지능 산업이 야기할 다양한 위험성을 사전에 예측하고 예방하는 데는 한계가 있습니다. 기업이 도외시할 수 있는 인공지능의 위험과 사회 각 방면에 미칠 영향을 다각도로 예측하고 규범을 마련하는 것이 국가의 역할이며, 국가는 산업 진흥과 기본권 보장의 조화를 이루도록 노력해야 할 의무가 있습니다.

 

 

정부지원금 0%, 회원의 회비로 운영됩니다

참여연대 후원/회원가입