닫기

[김은경 칼럼] 인공지능(AI) 규제의 딜레마

기사듣기 기사듣기중지

공유하기

닫기

  • 카카오톡

  • 페이스북

  • 트위터 엑스

URL 복사

https://ww1.asiatoday.co.kr/kn/view.php?key=20240729010018204

글자크기

닫기

 

승인 : 2024. 07. 30. 17:05

김은경
김은경 경기연구원 선임연구위원
디지털 플랫폼 경제를 넘어 인공지능(AI)의 시대가 본격적으로 시작되고 있다. 챗 GPT와 같은 생성형 인공지능의 발전은 경제와 산업구조의 변화를 넘어 급격한 사회적 변화를 초래할 것으로 예상된다. 공상과학 영화에서처럼 지능형 로봇이 인간처럼 사고하고 행동하면서 인간 사회의 일원이 되는 현실이 곧 다가올 것처럼 보인다.

인공지능의 급속한 발전은 인간 생활을 편리하게 하고 생산성을 높이지만 사회적으로는 유례없는 도전적 과제들이 나타나고 있다. 인공지능이 바이오 기술에 접목되면서 인간의 정체성 등 윤리적 이슈가 제기되고 있다. 인공지능이나 로봇이 일으키는 손해는 법적으로 누가 부담해야 하는지, 인공지능을 통해 만든 지식에 대한 재산권의 귀속 주체는 누구인지 등 기존의 법적, 사회적 관행으로 해결할 수 없는 다양한 문제가 갈수록 커질 것으로 보인다. 특히 인공지능 기술을 악용한 시민들의 사생활 침해와 민주주의의 퇴행에 대한 우려도 커지고 있다. 딥페이크를 악용하여 누구라도 가짜 뉴스를 양산하여 개인의 사생활을 침해할 수 있다. 시민 보호를 위해 설치된 CCTV 데이터를 안면인식 프로그램과 연결하여 범죄를 예방할 수 있겠지만, 이러한 데이터들은 공권력이 일반 시민을 통제하는 수단이 될 수 있다. 인공지능 기술이 발전할 수록 국가가 시민들을 관리하고 통제하는 '빅브라더'가 될 수 있다는 우려도 크다. 지난해 생성형 인공지능이 만든 가짜 사진인 '펜타곤 폭발'은 주식시장의 혼란을 야기하여 자칫하면 세계 금융위기를 유발할 수도 있었다. 미중패권 경쟁이 격심한 상황에서 가짜 뉴스로 인해 전쟁이 발발할 수도 있고, 테러를 유발할 수도 있다.

이제까지 인공지능에 대해서는 기존 법의 범위에서 관련 규제들이 적용해 왔다. 그러나 인공지능 기술로 인한 사회적, 경제적, 윤리적 위협이 커지면서 인공지능을 규제해야 한다는 목소리가 커지고 있다. 유럽연합(EU)은 지난 3월 세계 최초로 '인공지능법 (Artificial Intelligence Act)'을 제정했다. 인공지능법은 인공지능 시스템의 잠재적인 위험과 영향 수준에 따라 허용할 수 없는 위험, 고위험, 제한적 위험, 최소한의 위험 등 위험도를 4단계로 나누어 차등적으로 규제한다. EU는 인공지능법이 혁신과 함께 인간의 기본권을 보호해 주는 역할을 할 것으로 보지만 인공지능 기술의 발전을 저해할 것이라는 우려도 있다. 유엔 총회에서는 인권을 보호하고 개인 데이터를 보호하며 인공지능의 위험을 모니터링하도록 인공지능에 관한 결의안을 만장일치로 채택하였다. 향후 미국, 일본, 중국 등도 인공지능에 대한 규제를 제도화할 것으로 보인다. 글로벌 동향에 맞추어 한국에서도 인공지능 규제에 대한 논의가 본격화할 것으로 예상된다.

사실 기술이란 태생적으로 가치 중립적 특성을 가지며 사회경제적 발전을 촉진하는 수단이다. 따라서 기술 오용에 대한 우려로 인해 경직적인 법적 규제를 도입하면 기술 발전은 저해될 수밖에 없다. 대부분의 규제는 선한 정책적 의도를 가지고 도입되지만, 시장과 사회적 변화에 부합하지 못하면 실패한다. 정책적 목표를 달성하지 못할 뿐만 아니라 부작용을 초래하는 '규제의 역설'이 나타나는 것이다. 급변하는 기술 혁신의 시대에 기술에 대한 직접적인 규제는 혁신을 저해하고 의도한 정책적 효과를 얻기도 어렵다. 예를 들어 인공지능 활용에 대한 엄격한 규제를 입법화하더라도 가짜 뉴스는 없어지지 않으며 기술에 대한 접근성이 갈수록 높아지는 상황에서 개인의 기술 이용을 규제하기도 쉽지 않다. 더욱이 인공지능 기술의 급격한 혁신으로 인해 새로운 산업이나 서비스 및 각종 비즈니스모델이 계속 등장하는 상황에서 기계적인 법적 규제는 시장 경쟁을 촉진하지도 못하고, 규제 대상을 유연한 방식으로 확정하기도 어려울 수 있다. 특히 한국의 인공지능 기술의 경쟁력은 미국, 일본, 중국 등에 비해 아직 낮은 수준이기 때문에 인공지능에 대한 새로운 규제의 섣부른 입법은 인공지능 산업과 기업의 성장을 저해하고 기술경쟁력을 약화시킬 수도 있다.
따라서 현 단계에서는 인공지능에 대한 민간 주도의 자율규제가 필요하다. 법적 규제가 기술 발전을 따라가지 못하는 경우 자율규제 또는 연성 규범을 활용하는 것이 적절하다. 자율규제는 법적 규제보다 환경변화에 신속하게 대응하면서 각종 행정 비용을 내부화하여 규제 비용을 절감할 수 있다. 정부는 정보의 비대칭성으로 인해 민간보다 상대적으로 정보 취득에 있어 뒤떨어질 가능성이 크며, 법제화 및 법 개정에 장시간이 걸려 빠른 변화에 대한 적기 대응도 힘들다. 특히 기술 혁신의 시대에 정부가 기술과 시장환경의 변화를 이해하는 것도 쉽지 않다.

그러나 기술 혁신을 위해 과도한 사전적 규제는 최소화하더라도 정부의 사후적 규제와 예방조치는 필요하다. 자기 이익의 극대화를 추구하는 이해당사자 간에 제대로 된 합의부터가 어렵기 때문이다. 따라서 정부는 민간 주도의 자율규제라는 원칙을 견지하되 자율규제의 한계를 보완할 수 있는 방안을 모색해야 한다. 기존 법규 및 규제에 기반하면서 정부는 인공지능 이용에 대한 종합적인 가이드라인을 제시하여 인공지능 시대에 맞는 규범을 투명하게 제안하고 사회적 합의를 유도할 수 있다. 인공지능 관련 사업자나 단체들이 바람직한 자율규제를 만들 수 있도록 정부는 민간부문과 함께 기본 지침을 만들어 자율규제를 승인하고, 이의 위반에 대해서는 엄격한 법적 제재를 적용하는 것도 필요하다.

기본 지침은 인공지능의 안전성과 윤리성 보장을 위한 연구업계와 기업의 자발적 노력에 대한 인센티브 제공, 인공지능으로 인한 피해 보상 범위 및 책임 소재 확정, 개인 정보 보호 및 소비자 보호의 강화 등에 대한 내용도 포함할 수 있다. 인공지능의 기술개발과 활용에 대한 감독과 감사 대상에는 민간부문뿐만 아니라 정부와 공공기관도 포함되어야 한다. 전문가, 시민단체, 기업, 공공부문 등이 참여하여 인공지능과 관련된 모든 쟁점을 점검하여 정책 방향을 도출하고 모든 정보를 투명하게 공개하는 협의체 구성도 필요하다.

※본란의 칼럼은 본지 견해와 다를 수 있습니다.

김은경 경기연구원 선임연구위원

ⓒ 아시아투데이, 무단전재 및 재배포 금지

기사제보 후원하기