690 0

인공지능에 관한 법적 규율방안

Title
인공지능에 관한 법적 규율방안
Other Titles
The legal discipline of artificial intelligence : - Focusing on the legal discipline of Artificial Intelligence Algorithm and Big Data -
Author
임경숙
Alternative Author(s)
LIM, KYUNG SOOK
Advisor(s)
제철웅
Issue Date
2019-02
Publisher
한양대학교
Degree
Doctor
Abstract
인공지능이란 인간이 가지고 있는 인지능력, 추론능력, 학습능력 등을 기계가 구현하는 것으로, 인공지능이 탑재된 로봇 또는 인공지능을 활용하는 시스템 모두를 포함하는 개념으로 확대되고 있다. 자율주행차뿐만 아니라 금융투자 분석을 하는 로보어드바이저, 바둑 프로그램인 알파고 등을 비롯하여 세계 각국에서 다양한 인공지능 로봇이 개발되고 있으며, 여러 분야에서 인공지능이 활용됨에 따라 인공지능과 관련한 법적·규범적 논의도 대두되고 있다. EU에서 로봇민사규율(Civil Law Rules on Robotics)에 대한 초안을 제안하면서 전자인(electronic persons)의 법적 지위에 대한 논의가 시작되었고, 우리나라에서는 형사법적으로는 인공지능에 의한 범죄가 발생하였을 때 인공지능의 행위성, 범죄능력, 형사책임능력 등을 중심으로 논의가 전개되었으며, 민사법적으로는 인공지능에 의한 손해 발생 시 손해의 특수성과 책임 귀속 주체와 그 근거, 고의 과실의 증명책임, 인과관계를 위주로 논의가 활발하다. 본 논문에서는 실제 발생한 인공지능 알고리즘과 빅데이터에 의한 보안사고와 차별에 의한 피해사례를 소개하고, 이에 대한 우리나라의 개인정보보호법을 포함하여 EU의 GDPR, 일본의 개인정보보호법 등 각국의 법적·규범적 대응을 분석하였다. 미국은 위스콘신 주를 포함한 여러 주에서 인공지능 알고리즘이 산출한 범죄자의 재범률 평가 결과를 고려하여 범죄자의 형량을 정하고 있다. 2016년, 위스콘신주 법원이 범죄자의 재범가능성을 예측하는 알고리즘 콤파스(COMPAS)에서 산출된 자료에 기초하여 형을 선고한 것에 대하여 위스콘신 주 대법원은 영업비밀을 이유로 재범률을 산출하는 알고리즘이 법원이나 피고인에게 공개되지 않더라도 피고인의 적법절차에 의해 재판받을 권리를 침해하지 않는다고 판결하였다. 하지만 콤파스가 출소 후 2년 동안 다시 범죄를 저지르지 않은 흑인 범죄자가 재범가능성 있는 자로 잘못 분류될 확률이 백인 범죄자보다 2배 가까이 높다고 밝혀져 비판을 받고 있다. 인공지능 알고리즘이나 빅데이터는 객관적이고 공정할 것이라는 전제에서 인공지능 알고리즘이나 빅데이터에서 산출된 결과에 대하여 강한 신뢰를 보이는 경향이 있으나, 위 콤파스의 사례는 인공지능 알고리즘이나 빅데이터에 차별이나 편견이 개입될 여지가 충분히 있음을 보여주는 사례이다. 이러한 인공지능 알고리즘이나 빅데이터에 차별이나 편견적 요소가 들어가 있으면 사후에 이를 발견하기도 어렵고, 이미 발생한 피해를 회복하기도 무척 힘들게 된다. 따라서 사후적 규율방안은 한계가 있으며 효율적이지 않는다는 지적이 있다. 이에 인공지능 알고리즘이나 빅데이터에 차별이나 편견의 개입을 최소화할 수 있는 효과적인 사전적 규율방안에 무엇이 있는지 연구할 필요가 있다. 각국에서 인공지능이나 인공지능 알고리즘과 관련하여 윤리헌장이나 윤리 가이드라인을 제정하려는 움직임이 있다. 특히 우리나라는 인공지능 관련 설계자, 제조자, 이용자별로 윤리 가이드라인을 구체화하고 있다. 이에 본 논문에서 이 인공지능 윤리헌장과 윤리 가이드라인에 추가적인 안을 새롭게 제시하였다. 인공지능 알고리즘과 빅데이터에 대한 사전적 규율 방안으로 새로운 입법론을 제안하는 접근도 가능하나, 본 논문에서는 현행 제정법으로도 충분히 사전적 규율이 가능하다는 점을 강조하고, 그 방안을 구체적으로 설명하였다. 현행 전자정부법은 공공기관의 정보시스템 구축 및 운영 시 정보시스템 감리를 의무적으로 수행하도록 하고 있다. 정보시스템 감리란 정보시스템의 발주자와 사업자 등의 이해관계로부터 독립된 자가 정보시스템의 효율성을 향상시키고 안전성을 확보하기 위하여 제3자의 관점에서 정보시스템의 구축 및 운영 등에 관한 사항을 종합적으로 점검하고 문제점을 개선하도록 하는 사전적 규율을 말한다. 일정 수준 이상의 공공분야에 대한 정보시스템 의무감리를 시행하여 온 결과 정보시스템의 안정성과 적법성, 효과성, 효율성 등에 효과가 있음이 입증된 바 있다. 전자정부법 외에도 같은 법 시행령, 행정안전부 장관 고시의 정보시스템 감리기준이 있고, 한국정보화진흥원장의 공지사항으로 정보시스템 감리 발주·관리 가이드, 정보시스템 감리 수행 가이드, 사업 유형별 감리 점검 가이드가 구체화되어 있다. 한국정보화진흥원의 주관하에 숙련되고 전문적 기술과 지식을 겸비한 정보시스템 감리사를 비롯한 감리원들이 있으며 전문 감리법인이 이러한 정보시스템 감리를 충실히 수행하여 오고 있다. 현재는 공공기관의 정보시스템 구축에만 의무감리를 수행하고 있으나, 이러한 제도적 인적 자원을 활용하여 민간부문에도 정보시스템 의무감리를 확대해야 할 필요가 있다. 민간분야에 정보시스템 감리가 의무적으로 적용된다면 인공지능 알고리즘 개발 초기 단계에서부터 위험요인을 최소화할 수 있으며, 예방적 효과도 극대화할 수 있게 된다. 본 논문에서는 인공지능과 관련한 시스템을 개발하는 민간기업에도 의무감리를 수행할 것을 제안하면서 기존의 정보시스템 감리 점검 항목과 달리 인공지능 시스템 구축에 차별화하여 점검하여야 항목에 대하여도 제안하였다. 마지막으로 앞으로 인공지능 기술을 바탕으로 한 지능정보사회 구현을 위하여 필요한 제도적 토대를 마련하려는 지능정보사회기본법(안)과 로봇과 인간의 공존사회를 대비하기 위한 로봇기본법(안)을 소개 및 분석하고, 각 법안에 인공지능 알고리즘과 빅데이터의 사전적 규제와 관련하여 추가되어야 할 부분을 제안하였다. 인공지능 알고리즘과 빅데이터는 인간의 생활 편리성을 증진시키는 긍정적인 면이 있는 동시에 오류나 해킹, 개인정보 침해 등에 의한 역기능으로 인한 피해의 규모와 범위가 크다는 역기능이 공존한다. 이러한 문제점을 사전적이고 효과적으로 규율하는 방안과 사후적으로도 배상책임의 주체와 내용을 규정하는 방안에 대하여 앞으로도 후속 연구가 활발히 이루어져야 할 필요가 있으며, 현행 제정법의 범위에서 충분히 규율이 가능한 부분은 현행법으로 해결할 수 있도록 관련 법체계를 정비하고, 기술의 빠른 발달에 비추어 미비한 부분은 입법론으로 활발히 논의할 필요가 있을 것이다.
Artificial intelligence is a machine that embodies the cognitive, reasoning, and learning abilities that humans have, and is expanding its concept as what includes both systems that utilize artificial intelligence or robots with artificial intelligence. A variety of artificial intelligence robots are being developed in various countries around the world, including autonomous vehicles, robot advisors performing financial investment analysis, and Alpha Go, a board game Go program. As artificial intelligence is used in various fields, legal normative discussions on artificial intelligence is also emerging. Discussions on the legal status of electronic persons have begun in the European Union (EU), proposing a draft of the Civil Law Rules on Robotics. In Korea, when artificial intelligence causes a crime, criminal law has been dealt with focusing on the behavior of artificial intelligence, crime ability, and criminal responsibility ability. In civil law, when there are damages caused by artificial intelligence, the specificity of damages, responsibility attributed to the subject and its basis, liability of proof of negligence, and causality are actively discussed. This paper discusses problems and cases of security accidents and discrimination by artificial intelligence algorithms and big data that are actually generated, and also analyzes each country’s legal and normative responses such as EU's GDPR, Japan's Act on the Protection of Personal Information, and Korea’s Act on the Protection of Personal Information. In the United States, several states, including Wisconsin, determine criminal penalties based on the results of the recidivism rate assessment of artificial intelligence algorithms. In 2016, a court in Wisconsin passed a sentence based on the data obtained from the algorithm COMPAS, which predicts the likelihood of recidivism of a criminal. In this context, the Wisconsin Supreme Court ruled that the Wisconsin state's algorithm for calculating the recidivism rate for trade secrets does not infringe the defendant's right to a trial under due process, even though the algorithm does not disclose to court or defendant. However, COMPAS has been criticized for being twice as likely as a white criminal to be misclassified as a possible refugee for a black criminal who has not committed a crime again for two years after one's release. People tend to show strong trust in the results of artificial intelligence algorithms and big data on the premise that they are objective and fair. However, the case of the COMPAS shows that there is enough room for discrimination and prejudice in artificial intelligence algorithms and big data to intervene. If such artificial intelligence algorithms or big data contain discrimination or biases, it is difficult to find them in future and to recover damages that have already occurred. Therefore, it is pointed out that post-disciplinary measures are limited and inefficient. It is necessary to study effective preventive measures that can minimize the discrimination and prejudice in artificial intelligence algorithms and big data. There is a movement in each country to enact an ethics charter or ethics guidelines in relation to artificial intelligence or artificial intelligence algorithms. Specifically, Korea is embodying ethical guidelines for designers, manufacturers, and users related to artificial intelligence. This paper proposes an additional proposal to the Artificial Intelligence Charter and Ethics Guideline. Although it is possible to propose a new legislative method as a preventive measure for artificial intelligence algorithm and big data, this paper emphasizes the fact that the current legislation is capable of providing a sufficient preventive measure, and explains the method in detail. The current electronic government law requires the information system supervision to be carried out in the construction and operation of information systems of public institutions. The information system supervision is a system that is independent from the interests of the owner and the operator of the information system to improve the efficiency of the information system and secure the safety of the information system. It has been proved that the information system supervision over a certain level of public sector is effective in the stability, legality, effectiveness and efficiency of the resulting information system. In addition to e-government law, there are information system supervision standards by the Ministry of Public Administration and Security. By the notice of the Korea Information Society Agency, information system supervision ordering and management guide, information system supervision execution guide, and supervision inspection guide by business types are specified. Under the supervision of the Korea Information Society Agency, there are supervisors trained in specialized skills and knowledge, and supervisory corporations have been carrying out such information system supervision diligently. Currently, mandatory supervision is carried out only for the construction of information systems of public sectors. However, it is necessary to expand the supervision of information systems to the private sector by utilizing such supervisory resources. If the information system supervision is mandatorily applied to the private sector, the risk factors can be minimized from the early stage of the artificial intelligence algorithm development, and the preventive effect can be maximized. This paper proposes mandatory supervisions to be carried out in private enterprises developing systems related to artificial intelligence and also proposes different supervisory criteria for the artificial intelligence system construction aside from the existing information system supervision system. Finally, this paper introduces and analyzes the Basic Law of Intelligent Information Society (draft) and the Basic Law of Robots (draft) to prepare the coexistence societies between robots and human in order to lay the institutional foundation necessary for intelligence information society based on artificial intelligence technology. In addition, the paper proposes a part of each bill to be added in relation to the prior regulation of artificial intelligence algorithms and big data. Artificial intelligence algorithms and big data have a positive aspect in promoting the convenience of human life, and they also have the opposite function of large scale damages caused by errors, hacking, personal information infringement, etc. There is a need to actively pursue further researches on how to regulate these problems in an effective and preventative way and to define the subjects and content of liability. It is necessary to revise the current legal system so that it can solve and actively discuss the weakness in the light of the rapid development of technology.
URI
https://repository.hanyang.ac.kr/handle/20.500.11754/99886http://hanyang.dcollection.net/common/orgView/200000435229
Appears in Collections:
SCHOOL OF LAW[S](법학전문대학원) > Hanyang University Law School(법학전문대학원) > Theses (Ph.D.)
Files in This Item:
There are no files associated with this item.
Export
RIS (EndNote)
XLS (Excel)
XML


qrcode

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.

BROWSE