월간복지동향 2024 2024-02-01   150

[동향1] 인공지능과 기본권

이준일 고려대학교 법학전문대학원 교수, 법학박사

인공지능의 양면성

방대한 용량(volume)의 다양한(variety) 데이터를 엄청난 속도(velocity)로 처리할 수 있는 빅 데이터(Big Data) 기술은 인간의 자연 지능을 모방하거나 구현할 수 있는 인공지능(Artificial Intelligence: AI) 기술1)을 장착함으로써 가공할만한 위력을 가진 과학기술을 탄생시켰다. 스스로 학습하고 추론하며 판단하는 지능을 가진 인공지능은 이미 다양한 분야에서 활용되고 있다. 인공지능은 인간의 자연 지능으로는 처리할 수 없는 일을 처리할 수 있도록 만들어져 인간에게 혜택을 제공하기도 하지만 인간이 필수적으로 향유해야 하는 기본적 인권을 침해할 가능성도 강화하였다. 인공지능이 주는 혜택을 충분히 향유하면서도 인공지능이 초래할 수 있는 위험을 최대한 제거할 수 있는 대안을 찾아야 하는 이유가 여기에 있다. 

인공지능과 평등권

인공지능은 인간의 자연 지능을 모방하거나 구현함으로써 자연 지능처럼 학습을 진행하는데 기본적으로 데이터를 제공받아 학습한다. 무엇보다도 인공지능의 학습을 위하여 제공되는 데이터의 내용 자체가 편향적일 수도 있다. 성차별적이거나 인종차별적인 데이터로 학습한 인공지능의 판단도 성차별적이거나 인종차별적일 수밖에 없다. 또한 인공지능에게 제공되는 데이터 중 특정한 결론을 내리는 쪽으로 영향을 미치는 데이터가 현격하게 많은 비중을 차지할 수도 있다.2) 게다가 다른 데이터보다 특정한 데이터에 대해서 결론에 미치는 영향력의 강도 측면에서 가중치가 부여될 수도 있다. 인공지능의 학습을 위해 제공되는 데이터가 그 내용과 비율 및 가중치에서 보여주는 편향성은 인공지능이 인간에게 제공하는 판단을 편향적으로 만드는 데 결정적인 영향을 미칠 것이 분명하다.

편향적 데이터로 학습한 인공지능의 편향적 판단은 판단의 대상이 되는 개인이나 집단에 대한 차별(discrimination)을 발생시켜 평등권을 침해할 수 있다. 학교나 기업에서 객관성과 공정성을 제고하기 위한 목적으로 활용되는 인공지능이 편향적 데이터를 기반으로 결정을 내리면 특정한 개인이나 집단을 차별할 수 있다는 뜻이다. 인공지능이 금융기관이나 신용평가기관의 개인신용 평가 절차, 수사기관이나 기소 기관 또는 법원의 수사절차나 기소 절차 또는 재판절차, 중앙정부나 지방정부의 행정기관에서 진행되는 공적 의사 결정 절차에서 활용되는 경우에도 마찬가지다. 대출이나 신용카드 발급을 위한 신용도 평가, 범죄인 특정을 위한 범죄 실행 가능성 평가, 구형이나 양형을 위한 재범 가능성 평가, 공익적 의사 결정을 위한 이해관계 평가 등에서 평가의 기초가 되는 데이터의 질적, 양적, 비중적 편향성으로 인하여 차별적 판단이 초래될 수 있는 것이다. 인간사회에서 만연되어 일반화된 편견과 고정관념을 반영한 데이터로 학습한 인공지능도 인간과 동일한 편견과 고정관념을 기초로 추론하고 판단하는 것이다. 실제로 인공지능을 기반으로 개발된 채팅 로봇은 인간의 편견과 고정관념에 기반을 둔 혐오표현(hate speech)을 그대로 사용하는 현실을 보여주었다.

더욱이 인공지능은 주어진 데이터를 일정한 알고리즘(algorism/algorithm)에 따라 학습하여 추론하며 판단하는데 이러한 알고리즘의 구성에서도 편향성이 개입될 수 있다. 예를 들어 금융회사의 대출 심사에 활용될 신용평가 프로그램의 알고리즘을 개발하면서 개인의 신용을 평가하는 요소를 선정하고 점수화하는 과정에서 각각의 변수들에 대해 차등적 비중을 부여할 수 있다. 이와 같은 과정에서 해당 프로그램을 운영하게 될 금융기관이 상환불이행의 위험과 관련되어 축적해 온 평가 요소를 반영할 수밖에 없는데 여기에는 일정한 편견이나 고정관념이 내포되어 있을 수 있다. 또한 신용카드회사에서 신용카드 발급 여부나 신용카드로 결제할 수 있는 한도금액을 결정하기 위한 자동화 프로그램을 개발하면서 발급 문의를 하는 사람의 주소를 확인하여 주소지 주변의 부동산 가격과 연동시키는 인공지능의 알고리즘을 요구할 수도 있는데 이 경우에도 문의한 사람이 살고 있는 지역에 따른 편견이나 고정관념이 개입될 여지가 있다. 게다가 현대인이 언론보도에 접근하는 관문인 포털사이트가 기사를 노출시키는 위치나 시간을 결정하는 알고리즘의 설계에서도 해당 사이트의 정치적 성향에 따른 편견이나 고정관념이 개입될 수 있다.3) 포털사이트의 편향적 알고리즘은 특정한 정치적 성향을 가진 사람들을 차별할 뿐만 아니라 민주적 여론 형성 과정을 왜곡할 수도 있다.

인공지능과 개인정보자기결정권

인공지능이 처리하는 데이터에는 개인의 신원을 확인해줄 수 있는 개인정보4)도 포함된다. 이미 개인정보의 수집을 용이하게 만드는 과학기술은 도처에 상시 자리 잡고 있다. 첨단과학기술은 일상생활 속에서 대량의 다양한 개인정보를 손쉽게 수집하여 저장할 수 있도록 만들었다. 여기에 인공지능이 추가되면 수집된 개인정보를 통한 개인의 감시와 통제는 이전보다 더욱 촘촘해질 수밖에 없다. 인공지능은 기존의 기술로도 수집할 수 있었던 개인정보를 결합하여 분산된 상태로는 확인할 수 없었던 새로운 개인정보를 생산해낼 수 있기 때문이다.

인공지능에게 제공되는 개인정보 데이터가 정보 주체의 이름이나 얼굴 사진 등에서 나타나는 동일성이나 유사성 때문에 인공지능의 판단은 오류를 포함할 수 있다. 또한 불완전한 알고리즘으로 인하여 개인정보의 결합을 통한 개인의 특정에서도 실수나 오류가 발생할 수도 있다. 심지어 인공지능은 현실과 가상을 결합한 딥페이크(deepfake) 기술에 활용되어 기존의 실제 개인정보를 변형하거나 결합하는 방식으로 거짓 개인정보를 생산하여 유통할 수도 있다. 물론 범죄예방이나 범죄 수사, 범인 검거의 목적으로 인공지능을 활용한 감시 기술이 활용될 여지도 배제할 수는 없다. 하지만 부정확한 데이터나 알고리즘의 오류로 선량한 시민을 범죄자로 확정할 수도 있고, 범죄자를 선량한 시민으로 판정할 수도 있는 가능성은 여전히 남아 있다.

헌법이 보장하는 개인정보자기결정권은5) 기본적으로 정보프라이버시권으로서 개인정보의 공개나 수집과 관련된 동의권을 포함하면서 이러한 권리에 근거한 동의의 의사를 정보처리자가 제시한 공개나 수집의 목적 범위로 한정한다. 그러므로 특정한 목적을 위하여 개인정보의 공개나 수집에 동의했다고 해서 인공지능을 활용한 개인정보의 처리와 이용에 포괄적으로 동의했다고 보기는 어렵다. 특히 환자의 치료를 위해서 활용되는 인공지능 의료기기의 경우에 환자의 건강 상태와 관련된 민감한 개인정보6)가 환자의 동의 아래 수집되고 처리될 수 있지만 동의의 목적인 진단과 치료 외의 목적으로 사용될 수 있다는 점에서 개인정보자기결정권에 대한 침해의 가능성이 커진다. 게다가 정보 주체의 동의를 받아 수집된 개인정보가 제3자에 대한 제공을 위한 추가적 동의를 받게 되면 인공지능을 활용한 목적 외 사용 가능성은 더욱 높아지게 된다.

한편 인터넷 게시판이나 소셜 미디어에 게시되는 의견이나 정보 가운데 개인적, 사회적, 국가적 법익을 침해하는 것들을 자동으로 필터링하는 과정에서 인공지능을 활용하면 게시자의 개인정보가 수집되고 처리될 수 있을 뿐만 아니라 이를 통해 게시의 익명성이 침해됨으로써 표현의 자유까지도 위축시킬 위험성이 발생한다. 더욱이 인공지능의 기반이 되는 알고리즘에 따라 헌법이 명시적으로 금지하는 검열(헌법 제21조 제2항)이 진행될 수 있는 여지도 배제할 수 없다. 자동 필터링을 위하여 사용되는 알고리즘은 설계자가 제시한 특정한 가치 기준에 따라 게시 여부를 허가할 수 있기 때문이다. 검열의 일반적 위험성에서 확인할 수 있는 것처럼 인공지능을 활용한 자동 필터링이 작동하는 인터넷 게시판이나 소셜 미디어에서는 삭제의 위험성을 피해가기 위해 자기 검열이 이루어지고 그만큼 표현의 자유는 위축될 수밖에 없다.

검색엔진이나 인터넷 쇼핑몰에서 특정한 검색어를 입력하거나 포털사이트나 동영상 플랫폼에서 특정한 정보를 클릭하거나 업로드하는 행위를 통해서도 개인의 선호, 취향, 필요, 정치적 입장, 심

지어 위치 등 수많은 개인정보가 수집될 수 있다. 이렇게 수집된 개인정보는 인공지능을 통해 분석되어 상업적 광고나 정치적 홍보의 수단으로 활용될 수도 있다.7) 더 나아가 이러한 개인정보가 다른 개인정보와 결합되어 입학이나 채용 과정에서 개인의 신용이나 평판을 평가하는 자료로 활용될 수도 있다. 높은 신용도나 평판도는 학업이나 업무에 대한 성실성이나 책임감을 평가하는 중요한 근거이기 때문이다.

알 권리

인공지능의 학습과 추론 및 판단의 과정은 일정한 알고리즘에 따라 결정된다. 주어진 알고리즘에 따라 학습하고 추론하며 판단하는 인공지능은 방대한 용량의 다양한 데이터를 엄청난 속도로 처리하여 자율적으로 내린 일정한 판단을 제공한다. 인간의 자연 지능으로는 알고리즘의 추상적원리를 대략 이해할 수 있을 뿐이지 구체적으로 어떠한 방식의 학습과 추론의 과정을 거쳐 일정한 판단과 결정에 도달했는지를 알 수 없다. 인공지능의 이러한 ‘불투명성’으로 인하여 인공지능은 결과를 예측할 수 없는 ‘블랙박스’로도 불릴 만큼 인공지능을 활용하는 인간의 알 권리8)를 충족시키기 힘들다. 알고리즘에 따라 내려진 일정한 판단의 추론 과정을 충분히 이해하지 못하기 때문에 인공지능이 제공한 결정의 논리를 반박하지 못한 채 그 결정을 도저히 받아들일 수 없음에도 불구하고 어쩔 수 없이 수용할 수밖에 없기 때문이다. 여기서 알 권리의 관점에서 알고리즘의 ‘설명가능성’을 제고하여 ‘투명성’을 보장하여야 한다는 주장이 설득력을 얻게 된다.

더욱이 인공지능을 활용한 결정을 내린 사람은 인공지능이 인간의 감정이나 가치관의 개입 없이 기계적이고 수학적으로 내린 결정의 객관성과 공정성을 강조하면서 인공지능의 복잡한 결정 과정을 처음부터 설명조차 하지 않을 수도 있다. 학교나 기업에서 인공지능을 활용한 선발시스템이나 채용시스템을 사용한 경우에 명백하게 차별행위가 존재했음에도 불구하고 해당 학교나 기업을 상대로 법적 절차를 진행하려고 해도 인공지능의 복잡한 결정 과정에 개입된 차별을 피해자가 입증하기는 쉽지 않다. 이에 따라 문제가 된 학교나 기업은 계속해서 인공지능을 활용한 선발시스템이나 채용시스템의 오류를 수정하지 않은 채 차별행위를 지속할 가능성이 높다. 경우에 따라서는 특정한 분야에서 활용되는 알고리즘을 다른 분야에도 확장하여 적용함으로써 알고리즘의 불투명성은 강화된다. 특정한 분야에서 활용되는 알고리즘의 추론과 판단의 절차는 어느 정도 이해할 수 있을지 모르지만, 그것이 다른 분야에서 활용될 경우에는 이에 따라 도달한 판단의 결과가 해당 분야와 관련된 완전히 이질적인 사람들에게 영향을 끼치기 때문이다.

소비자의 권리

인공지능을 활용한 제품들은 인간에게 많은 편리와 혜택을 가져다주기도 했지만 다양한 피해와 손해를 발생시키기도 했다. 인공지능으로 운영되는 자율주행자동차는 탑승자에게 운전에 대한 부담감과 피로감을 줄여 편리성을 증대시켰을 뿐만 아니라 교통사고의 발생가능성도 줄여 운행의 안전성도 증대시켰다. 인공지능을 활용하여 마케팅을 하는 판매자로부터 개인의 취향에 따른 맞춤형 광고를 제공받음으로써 자신과 상관없는 상업적 광고의 홍수에서 벗어날 수도 있다. 소셜 미디어에서도 이용자의 취향과 맞지 않는 정보는 자동으로 필터링을 해주고, 이용자가 원하는 정보만을 골라 집중적으로 제공해주는 편리함을 제공하기도 한다.9) 인공지능을 기반으로 하는 자동화된 계약프로그램에 따라 계약이 체결되고 계약의 실행까지도 확보됨으로써 계약의 체결과 실행에서 요구되는 간편성과 안전성이 모두 실현될 수 있게 되었다.

하지만 인공지능을 활용한 자율주행자동차가 교통사고를 유발하는 경우나 인공지능을 활용하여 특정한 소비자의 소비패턴이나 이용자의 취향을 분석한 뒤 해당 소비자 개인에게 맞춤화된 상품을 추천하거나 광고하는 과정이나 이용자 개인에게 특화된 정보를 제시하는 과정에서 잘못된 정보를 제공하거나 소비자나 이용자의 선호나 필요를 악용하는 경우10) 또는 인공지능을 활용한 자동화된 계약에서 오류가 발생하는 경우처럼 인공지능으로 인한 피해는 법적 책임의 주체를 확정하는 데 어려움을 발생시킨다. 인공지능을 활용한 제품으로 인한 법적 책임은 ①인공지능을 활용한 제품을 생산하거나 판매한 사람(생산자/판매자)이나 ②인공지능을 활용한 제품을 구매하거나 임차하여 사용한 사람(소비자) 또는 ③법적 인격성을 부여받은 인공지능 그 자체에 부담할 수 있다. 국민은 국가에 대해서 사인에 의하여 발생한 손해, 특히 재산권 외의 기본권, 즉 평등권이나 개인정보자기결정권 등에 대한 침해로 발생한 손해를 배상받을 수 있는 절차에 관한 입법을 요구할 수 있다고 볼 여지가 있다. 여기서 과실책임을 기

반으로 하는 민사상 불법행위의 법리뿐만 아니라 무과실책임을 기본으로 하는「제조물책임법」의 법리를11) 인공지능으로 인한 손해에도 적용할 수 있을 것이다. 헌법적 권리로 인정될 수 있는 손해배상청구권이 반드시 과실책임원칙에 따라 구체화될 필요는 없기 때문이다. 소비자의 권리와 관련하여 헌법은 ‘소비자보호운동’을 보장하는 형태로 소비자의 권리를 헌법적 권리인 기본권으로 보장하고 있다(헌법 제124조). 이를 구체화하는 「표시·광고의 공정화에 의한 법률」12)이나「전자상거래 등에서의 소비자보호에 관한 법률」, 「전자상거래 등에서의 소비자보호에 관한 법률」13) 등은 허위(거짓)이거나 과장된 또는 기만적인 행위를 금지하고 있기 때문에 이를 원용하여 인공지능을 활용한 제품의 소비자도 보호할 필요가 있다.

결론과 대안

인공지능의 위험으로 인한 손해의 유형과 범위는 다양하기 때문에 인공지능의 위험에 대한 일률적인 법적 규율은 가능하지도 바람직하지도 않다. 인공지능이 발생시킬 수 있는 위험의 정도를 단계화하고 그에 적합한 법적 규율이 필요하다. 인간의 존엄성을 심각하게 침해하여 도저히 ‘수용할 수 없는 위험’을 발생시킬 수 있는 인공지능의 활용은 법적으로 엄격하게 금지해야 한다. 인간의 의식과 행동을 조정하거나 인간을 분류하여 차별하는 데 활용되는 인공지능을 예로 들 수 있다. 그리고 ‘상당한 정도의 위험’을 발생시킬 수 있는 인공지능 기술은 활용을 위한 전제 조건으로서 일정한 법적 의무와 책임을 부과하는 것과 같은 엄격한 법적 규제가 필요하다. 학생 선발이나 직원 채용에서 활용되는 인공지능 기술이 대표적인 예에 해당한다. 한편 인간과 대화하는 로봇처럼 ‘불가피한 최소한의 위험’을 발생시키는 인공지능은 정보제공이나 사전 설명과 같은 가벼운 법적의무를 부과함으로써 허용될 수 있다. 마지막으로 전혀 위험 요소가 없는 인공지능 기술의 활용은 제한 없이 허용될 필요가 있다. 여기서 인공지능의 위험을 단계화하기 위해서는 인공지능의 위험을 사전에 실사하여 평가하는 제도(인권영향평가제도)의 도입도 필요하다.


| 각주 |

1) 「지능정보화 기본법」은 “지능정보기술”의 유형을 열거하면서 “전자적 방법으로 학습, 추론, 판단 등을 구현하는 기술”을 포함시키고 있는데(동법 제2조 제4호 가목) 이와 같은 기술이 바로 인공지능 기술을 뜻한다

2) 인공지능에게 제공되는 데이터의 편향성을 “편향된 대표성”으로 부르기도 한다. 김효은, 인공지능과 윤리, 2022, 30쪽 이하 참조

3) 포털사이트에서 발생할 수 있는 차별의 문제에 대해서는 이준일, 포털사이트에 대한 법적 규율의 필요성과 내용 – 포털사이트 이용자 및 언론사의 입장에서 필요한 추가적 법적 규율을 중심으로, 헌법재판연구 제9권 제1호, 헌법재판연구원, 2022, 210쪽 이하 참조

4) 「개인정보 보호법」에 따른 개인정보는 요약하면 “살아 있는 개인에 관한 정보”로서 개인을 알아볼 수 있는 정보를 의미한다(동법 제2조 제1호).

5) 헌법재판소가 최근까지 일관되게 이해하는 개인정보자기결정권의 의미는 “자신에 관한 정보가 언제 누구에게 어느 범위까지 알려지고 또 이용되도록 할 것인지를 그 정보주체가 스스로 결정할 수 있는 권리”다. 대표적으로 헌재 2023. 10. 26. 2020 헌마1477등 참조.

6) 「 개인정보 보호법」은 개인정보 가운데 사상이나 신념, 노동조합이나 정당의 가입이나 탈퇴, 정치적 견해, 건강, 성생활 등 정보주체의 사생활을 현저히 침해할 우려가 있는 정보를 “민감정보”로 지칭하면서 특정한 민감정보의 처리를 원칙적으로 금지한다(동법 제23조제1항)

7) 인공지능을 활용한 기술이 인간의 판단과 결정을 유도하거나 조종할 수 있는 공권력(artificial power)”으로 작동할 수 있다는 문제의식에 대해서는 마크 코켈버그(지음)/배현석(옮김), 인공지능은 왜 정치적일 수밖에 없는가 – AI의 정치학과 자유, 평등, 정의, 민주주의, 권력, 동물과 환경, 2022, 77쪽 이하 참조

8) 헌법재판소는 알 권리가 표현의 자유에서 도출된다고 본다. 헌재 2010. 12. 28. 2009헌바258, 판례집 22-2하, 721, 730쪽 참조

9) 이러한“ 필터 버블”의 문제에 대한 상세한 분석은 엘리 프레이저(지음)/이현숙·이정태(옮김), 생각 조종자들, 2011 참조

10) “ 도움이 절실한 사람만 골라서 지킬 수 없는 거짓 약속을 하거나 지나치게 높은 비용이 드는 약속을 해서 바가지를 씌우는 악질적인 광고”를 “약탈적 광고”로 부르면서 이러한 약탈적 광고는 인공지능을 활용한 광고의 대표적인 폐해로 지적되기도 한다. 캐시 오닐(지음)/김정혜(옮김), 대량살상 수학무기(Weapons of Math Destruction), 2017, 126쪽 참조

11) 「 제조물 책임법」 제2조 제1항 참조

12) 「 표시·광고의 공정화에 의한 법률」 제12조 제1항 참조

13) 「 전자상거래 등에서의 소비자보호에 관한 법률」 제21조 제1항 참조

정부지원금 0%, 회원의 회비로 운영됩니다

참여연대 후원/회원가입


참여연대 NOW

실시간 활동 SNS

텔레그램 채널에 가장 빠르게 게시되고,

더 많은 채널로 소통합니다. 지금 팔로우하세요!