[22대총선 정책과제18] AI 규제 위한 시민대안 입법

참여연대는 총선을 준비하는 각 정당들에 지금 한국 사회가 직면한 5대 위기에 대한 보다 종합적이고 근본적인 대응을 위한 20개 정책과제와 21대 국회에서 꼭 마무리해야 할 6개 과제를 제안합니다. 남은 선거운동 기간 시민사회가 제안하는 정책과제들을 화두 삼아 각 정당과 후보들이 진정성 있게 정책 토론과 공약 경쟁을 펼쳐 유권자의 바람과 요구가 반영되기를 기대합니다.

V. 기후위기 및 디지털 전환에 따른 위기
정책과제17. 플랫폼 기업의 독점과 불공정 방지
정책과제18. AI 규제 위한 시민대안 입법
정책과제19. 기후위기 대응의 국가책임 및 거버넌스 강화
정책과제20. 공공중심 에너지 전환 및 정의로운 전환


현황과 문제점

  • 생성형 AI의 등장으로 AI에 대한 대중의 관심이 폭발하면서 이를 활용한 다양한 개인화된 서비스가 제공되고 있음. 이를 통해 비용효율적이고 일상생활을 간소화, 최적화할 수 있음. 그러나 인간노동력 대체, 소비자 대면서비스의 품질 저하, 조작, 차별적 관행 반복 강화, 자원낭비로 인한 환경문제 등 편익에 가려 실제로 AI가 가져올 수 있는 위험에 대해서는 실감하지 못하는 것이 현실임. 
  • 일선 학교와 독거노인 가정에 보급되는 인공지능 스피커에도 내장될 수 있는 인공지능챗봇이, 상담을 빙자해 수집한 민감한 카카오톡 대화 문장 백억 건을 무단으로 학습하여 개인정보를 침해한 사실이 드러나기도 함. 또한 이 챗봇은 여성·장애인·성소수자·흑인 등 인권 취약 계층을 혐오하는 채팅 서비스로 많은 사회적 비판과 우려를 샀음. 인공지능 자동 채용도구는 아무런 검증 없이 공공기관과 민간기업에 퍼져가고 있지만 제대로 검증, 사후 관리 등을 하고 있는지, 예비 노동자를 차별하고 있지 않은지 알 수 없는 등 모든 것이 불투명함. 인권과 정의를 지켜야 할 법무부는 인공지능 식별추적시스템을 개발한다는 명목으로 2005년부터 출입국한 내국인과 외국인의 얼굴정보 수억 건을 민간기업에 넘겼으며, 네이버쇼핑과 카카오택시는 자기 회사 이익을 위해 알고리즘을 조작하면서도 그 사실을 숨겼음. 
  • AI는 “다른 형태의 컴퓨팅보다 더 많은 에너지를 사용하며, 단일 모델을 학습하는 데 100개의 미국가구가 1년 동안 사용하는 것보다 더 많은 전력을 소비할 수 있다”고 함. 데이터센터는 엄청난 양의 에너지를 사용하는 것으로 알려져 있으며, 이미 6 년 전에 전 세계 컴퓨팅의 에너지 수요가 10년 내에 전 세계 총 전력 생산량을 초과할 것으로 예측된 바 있음. 또한 데이터센터를 냉각하는데 사용되는 물사용량도 엄청나 AI의 개발, 학습, 배치, 사용으로 인해 물 수요가 더욱 커지고 있고  최근 연구에 따르면 오픈AI의 LLM인 GPT-3을 학습시키기 위해 원자로 냉각탑을 채울 수 있는 양의 물이 필요했다고 함. 이 연구에 따르면 챗GPT는 최종 사용자와 기초적인 소통을 완료하는 데만 0.5리터의 물을 소비했다고 함. 이와 같이 AI는 탄소배출량과 물소비량 등에서 기후문제를 더욱 악화시킬 것이란 지적이 있음.
  • 자율주행차, 배달 로봇, 금융서비스 등 일상생활 곳곳에 인공지능을 장착한 자동화된 제품과 서비스가 점점 더 많아지는 등 민간의 다양한 서비스에서 공공서비스, 행정처분에 이르기까지 도입이 확대되고 있는 상황이면서도 AI의 위험성에 대한 규제의 필요에 대한 호응보다는 산업위축론에 따른 토종 기업 육성 목소리가 상대적으로 더 우세한 상황임. 21대 국회에 발의된 인공지능 법안들은 모두 산업 육성에 초점이 맞춰져 있으며 민주사회에서 허용할 수 없는 인공지능에 대한 정의도 없고, 고위험인공지능에 대한 기업의 의무, 책임성 등을 실효성있게 보장할 방안도 제대로 없음. 이에 적어도 우리 사회가 AI를 허용해서는 안 될 영역, 인권과 안전을 위협하는 고위험 영역 AI에 책임성, 투명성 및 권리 구제 방안 등을 포함하는 AI규제법을 마련해야 함. AI의 안전성에 대한 신뢰 없이 AI산업 발전도 불가능할 것이기 때문임. 
  • 유럽연합의 AI법안을 비롯하여 미국의 바이든 행정부의 행정명령 등 최근 국제적 흐름은 빠르게 발전하는 AI 시대에 인공지능 기술의 위험성을 단계별로 구분하고 규제 정도를 달리하는 방안을 마련하는 등 인권과 안전을 확보하기 위한 규제의 필요성에 공감대가 형성되고 있음.

주요 과제

  1. 인권과 안전을 보장하는 AI법 제정
  • 인공지능에 대한 정의, 금지되는 인공지능의 정의를 규정
  • 고위험 인공지능 정의 및 책임성, 투명성 의무 규정 및 실효성 담보 방안 마련
  • 이용자와 정보주체의 권리 및 권리 침해시 구제절차의 마련
  • 인공지능 개발 및 출시 전에 인권영향평가 실시, 인공지능의 기능 또는 활용 범위의 변경 시에도 재평가 실시
  • 적정한 거버넌스 구축 : 인공지능 감독·규제 업무는 산업진흥 부서가 아니라 제3의 독립적인 기관이 담당

담당부서 : 참여연대 공익법센터(02-723-666)

참여연대 22대 총선 정책과제 전체보기

정부지원금 0%, 회원의 회비로 운영됩니다

참여연대 후원/회원가입