default_top_notch
ad54
default_setNet1_2

성큼 다가온 AI 시대에 필요한 거버넌스 다양화

기사승인 2021.02.18  09:27:11

공유
default_news_ad1

- [세미나] 진흥 중심의 규제논의, 인권위는 빠져…유럽 AI 위험도 따라 규제 달리하는 법안 추진

[미디어스=윤수현 기자] 자율주행, 면접 등 시민 생활과 관련된 인공지능(AI) 서비스가 상용화되는 가운데 관련 규제를 차등적으로 적용해야 한다는 지적이 제기되고 있다. 미국, 유럽 등은 AI 성격과 기업 규모를 고려해 세분화된 규제 방안을 마련하고 있다. 또한 관련 정책 수립 과정이 사업자 위주로 준비되고 있어 AI 거버넌스 다양성이 요구된다.

17일 열린 ‘인공지능의 공정성·투명성·책임성 보장을 위한 법제 정비 방안’ 토론회에서 오정미 서울대 공익법률센터 변호사는 국가인권위원회, 시민사회단체 등 다양한 주체가 AI 거버넌스에 참여해야 한다고 밝혔다.

(사진=연합뉴스)

현재 국회에 계류 중인 AI 관련 법안은 산업진흥을 중심으로 하고 있다. 인권보장, 개인정보 보호 등에 대한 내용은 부족한 상황이다. AI를 주도하는 정부 부처는 과학기술정보통신부로 국가인권위원회, 개인정보보호위원회, 공정거래위원회 등은 논의 대상에서 빠져있다.

오 변호사는 “공정위, 인권위, 개인정보위원회 등 기관은 AI 문제에 목소리를 낼 필요가 있다”면서 “특히 차별금지법이 없는 우리나라는 차별, 편견, 혐오를 조장하는 AI에 대한 관리·감독이 필요하다. 이를 위해서 인권위의 역할이 중요하다”고 말했다. 오 변호사는 “AI와 관련된 공론장이 필요하다”며 “현재는 산업계와 학계 전문가만 제한적으로 거버넌스에 참여할 뿐이다. 정보인권단체, 시민사회단체가 논의에 참여해야 한다”고 밝혔다.

오 변호사는 AI 분류체계를 도입해 차등적 규제를 적용해야 한다고 제언했다. AI를 시민 밀접도에 따라 고위험에서 저위험으로 분류하고, 위험도가 높을수록 강한 규제를 적용해야 한다는 것이다. 오 변호사는 “고위험 AI 기술에 강한 책임을 부여해야 한다”며 “미국, 유럽의 경우 AI에 대한 차등 규제를 시행하고 있다”고 설명했다.

유럽연합은 의료, 운송, 에너지, 사법 시스템 등 중대한 위험이 발생할 것으로 예상되는 AI에 대해 법적 규제를 추진 중이다. 유럽연합은 훈련데이터 보존, 정보 제공, 인적 감독, 원격 생체인식 등 특별 요건을 부과하려 한다. 미국은 연간 5천만 달러 이상 매출을 기록하거나 백만 명 이상의 정보를 보유한 회사를 대상으로 ‘알고리즘 책임 법안’을 규율하고 있다. 미국 연방거래위원회는 AI 자동화 시스템을 평가하는 규칙을 만들고 기업들의 AI를 점검하고 있다.

오 변호사는 “AI에 대한 새로운 규제는 중소기업들에 필요 이상의 부담을 주지 않도록 지나치게 규범적이지 않으면서 목적을 달성하는 데 효과적이어야 한다는 목표를 가져야 한다”며 “해외처럼 국내 AI 법 제도에도 위험 정도를 기반으로 한 차등적 규제를 도입해야 한다. 고위험으로 분류되지 않는 경우 자율규제 방식을 적용하면 된다”고 밝혔다.

AI 서비스가 상용화되기 전 영향평가를 시행해 시민 생활과 인권에 위험을 가져다주지 않는지 살펴봐야 할 필요성이 제기된다. UN 특별보고관은 2018년 인권에 기반한 AI 기술을 위하여 인권 영향평가 또는 공공기관 알고리즘 영향평가 실시를 각국 정부에 권고한 바 있다.

오 변호사는 “한국 정부 역시 UN의 권고를 수용하고 이행할 필요가 있다. 우선 공공부문에만 적용되는 ‘공공부문 인공지능 영향평가’를 도입해야 한다”고 밝혔다. 오 변호사는 “캐나다 정부는 2019년 ‘자동화된 의사결정 지침’을 발표했다”며 “캐나다는 공공기관 AI 요건을 법규화하면서 영향평가 사전 실시 및 결과 공개를 의무화했다”고 설명했다.

장여경 정보인권연구소 이사는 “UN은 AI가 인권을 보호할 수 있도록 각국이 입법 조치를 취해야 한다고 권고하고 있다”며 “AI는 현행 법률을 준수해야 할 의무를 요구받고 있는 것이다. 소비자 안전이나 보호를 준수하지 못하는 AI 서비스는 이용자 신뢰를 얻는 데 실패할 것”이라고 지적했다.

김경만 과기정통부 과장은 “AI를 개발하는 중소기업이 활용할 수 있는 체크리스트가 있다”며 “중소기업이 AI를 사전에 검증할 수 있게 지원해나가겠다. 또한 지난해 AI 윤리기준을 발표했는데, 관련 내용을 공유하고 기준을 만들어가려 한다”고 말했다. 김 과장은 “이용자 윤리도 중요한 부분”이라며 “이루다 사건의 경우 이용자들이 AI에 성희롱하기도 했다. AI를 활용하는 방법에 대한 교육이 필요하다”고 밝혔다.

이동원 공정거래위원회 과장은 “기업이 AI와 관련된 정보를 공개하도록 제도 개선을 추진 중”이라며 “AI 정보가 공개되면 인위적인 알고리즘 조작을 예방하고, 투명성과 공정성을 강화하는 데 기여할 수 있을 것”이라고 말했다.

17일 열린 <인공지능의 공정성·투명성·책임성 보장을 위한 법제 정비 방안> 토론회

이번 <인공지능의 공정성·투명성·책임성 보장을 위한 법제 정비 방안> 토론회는 더불어민주당 정보통신특별위원회, 민주사회를 위한 변호사 모임, 정보인권연구소, 소비자시민모임, 진보네트워크센터, 참여연대 주최로 17일 열렸다. 발제자는 김민우 충북대 박사, 오정미 서울대 공익법률센터 변호사다. 토론자는 김병필 카이스트 교수, 장여경 이사, 윤명 소비자시민모임 사무총장, 김민 진보네트워크센터 활동가, 김경만 과기정통부 과장, 이동원 공정위 과장, 이한샘 개인정보위원회 과장 등이다.

☞ 네이버 뉴스스탠드에서 ‘미디어스’를 만나보세요~ 구독하기 클릭!

윤수현 기자 melancholy@mediaus.co.kr

<저작권자 © 미디어스 무단전재 및 재배포금지>
ad42
ad34
default_news_ad4
ad44
ndmediaus
ad47
default_side_ad1

인기기사

ad43

포토

1 2 3
set_P1
default_side_ad3
ad45

섹션별 인기기사 및 최근기사

ad46
ad48
default_setImage2
default_bottom
#top
default_bottom_notch