725 0

Full metadata record

DC FieldValueLanguage
dc.contributor.author이상욱-
dc.date.accessioned2021-02-22T01:24:15Z-
dc.date.available2021-02-22T01:24:15Z-
dc.date.issued2020-01-
dc.identifier.citation인간연구, No. 40, Page. 107-136en_US
dc.identifier.issn1229-6740-
dc.identifier.urihttp://www.dbpia.co.kr/journal/articleDetail?nodeId=NODE09303227&language=ko_KR-
dc.identifier.urihttps://repository.hanyang.ac.kr/handle/20.500.11754/158850-
dc.description.abstract본 논문은 초지능의 등장 가능성이 제기하는 ‘실존적 위험’과 관련된 최근 논의를 비판적으로 검토한 후, 인공지능의 개발 과정에서 보다 관심을 기울여야 할 부분은 ‘실존적 위험’보다는 ‘실천적 위험’임을 논증한다. 이때 ‘실천적 위험’이란 현재 개발되어 사용되고 있거나 가까운 미래에 등장할 인공지능이 실제로 일으키거나 일으킬 가능성이 높은 현실적 위험을 의미한다. ‘실천적 위험’의 사례는 인공지능이 다양한 방식으로 사회적 편견이나 차별이 재생산되거나 확장되는 데 기여하는 것 등이다. 중요한 점은 이 ‘실천적 위험’은 초지능의 등장 이전에도 충분히 큰 실천적 파급효과를 갖기에 이에 대한 우리의 대응은 (인공지능 개발속도가 지수 함수적인지와 무관하게) 지금 당장 시작되어야 한다는 사실이다. 필자는 이 대응이 인공지능 개발 과정에서 불평등의 해소, 정의로움 등 기존 사회적 가치의 존중과 인간적 가치에 대한 포용적 재정의의 노력의 두 방향으로 진행되어야 한다고 주장한다. This paper examines the ‘existential risk’ related to the possible emergence of superintelligent artificial intelligence (AI) and argues that we should pay more attention to the ‘practical risks’ related to current or near-future AI rather than the ‘existential risk’ of future AI. The practical risks of AI are those already realized or highly probable in the near future, which include the risk of AI strengthening the pre-existing social biases and discrimination through non-statistically skewed training data or statistically representative training data of historically accumulated biases. I emphasize the need for an immediate response to these risks whether the controversial exponential growth of AI development is realistic or not. The study concludes that we should formulate our response in consideration of the respect of human values and the inclusive redefinition of them.en_US
dc.language.isoko_KRen_US
dc.publisher가톨릭대학교 인간학연구소en_US
dc.subject인공지능en_US
dc.subject초지능en_US
dc.subject지수 함수적 성장en_US
dc.subject실존적 위험en_US
dc.subject실천적 위험en_US
dc.subject편견en_US
dc.subject차별en_US
dc.subject불평등en_US
dc.subject인간적 가치en_US
dc.subject포용적 재정의en_US
dc.subjectArtificial Intelligenceen_US
dc.subjectSuperintelligenceen_US
dc.subjectExponential Growthen_US
dc.subjectExistential Risken_US
dc.subjectPractical Risken_US
dc.subjectBiasen_US
dc.subjectDiscriminationen_US
dc.subjectInequalityen_US
dc.subjectHuman Valuesen_US
dc.subjectInclusive Redefinitionen_US
dc.title인공지능과 실존적 위험 ―비판적 검토―en_US
dc.title.alternativeArtificial Intelligence and Existential Risk – A Critical Examination –en_US
dc.typeArticleen_US
dc.relation.no40-
dc.identifier.doi10.21738/JHS.2020.01.40.107-
dc.relation.page107-136-
dc.relation.journal인간연구-
dc.contributor.googleauthor이상욱-
dc.contributor.googleauthorYi, Sang Wook-
dc.relation.code2020039673-
dc.sector.campusS-
dc.sector.daehakCOLLEGE OF HUMANITIES[S]-
dc.sector.departmentDEPARTMENT OF PHILOSOPHY-
dc.identifier.piddappled-
Appears in Collections:
COLLEGE OF HUMANITIES[S](인문과학대학) > PHILOSOPHY(철학과) > Articles
Files in This Item:
There are no files associated with this item.
Export
RIS (EndNote)
XLS (Excel)
XML


qrcode

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.

BROWSE