<?xml version="1.0" encoding="UTF-8"?><rss version="2.0">
	<channel>
		<title>디지털사회과학센터(Center for Digital Social Science)</title>
		<link>http://cdss.yonsei.ac.kr</link>
		<description>Problem Solving Social Science for Coexistence and Integrity</description>
		
				<item>
			<title><![CDATA[디지털사회 제72호: ﻿환자 권리 중심의 헬스 데이터 거버넌스는 어떻게 전개될 수 있을까]]></title>
			<link><![CDATA[http://cdss.yonsei.ac.kr/?kboard_content_redirect=228]]></link>
			<description><![CDATA[<p style="text-align:center;"><b>환자 권리 중심의 헬스 데이터 거버넌스는 어떻게 전개될 수 있을까</b></p>
 
<p style="text-align:right;">김나리(연세대학교 복지국가연구센터 박사후연구원)</p>
 

 

최근 통증으로 병원 검진을 받고 약 10만 원을 지불한 뒤, 실손보험 청구를 위해 병원에서 받은 5장의 서류를 보험사 앱에 제출했다. 그러나 다음날 서류 형식이 맞지 않는다는 이유로 신청이 취소되었고, 검사일과 결과 확인일 서류를 각각 분리해 다시 제출하라는 안내를 받았다. 집에서 불과 15분 거리의 병원이지만, 평일 낮에 시간을 내기가 쉽지 않아 벌써 한 달째 재방문을 못하고 있다. 불현듯 재작년에 경험했던 상황들이 겹쳐 떠올랐다. 상급병원 정밀검진을 위해 2차 병원에서 건강검진 결과지와 영상자료를 발급받는데, CD 영상 복사비가 1만원에 진료결과지 발급은 추가 비용을 요구했다. 이뿐인가. 한 피부과에서 서류발급을 위해 장당 1,000원을 납부했는데, 당시 부모님은 다른 병원에서 서류 발급에 장당 3,000원을 지불하셨다.

병원마다 다른 서류발급 비용이 의아하기도 하지만, 진료기록 발급 비용을 이렇게 비싸게 받을 일인가 싶다. 건강 기록을 확인하고, 발급하기 위해 소요되는 시간과 에너지 낭비는 얼마나 불필요한지 말할 필요도 없다. 진료비는 기본적으로 나와 가족이 의무로써 납부하는 국민건강보험에 자부담이 추가되어 청구된다. 이는 건강보험을 관리하는 국가와 진료를 받는 당사자인 국민이 건강 기록의 주요 주체임을 의미한다. 물론, 의료 종사자가 진료를 하고, 병원이 진료 기록을 관리하기에 이들도 진료 기록의 주요 이해관계자이다. 하지만, 나의 건강 기록을 확인하고 이를 서류로 발급 및 보관하는 과정에서 내 건강 기록에 대한 권리는 나와 국가에 존재하지 않고 병원에 종속되어 있는 형국이다.

매 정권마다 헬스 데이터를 활용하여 정밀 의학을 발전시키고 혁신적인 의료 제품과 서비스를 개발하여 경제를 성장시키고자 하는 의욕을 내비친다. AI 대전환을 내세운 이번 정부에서도 헬스 데이터 공유와 활용은 주요한 정책 의제 중에 하나이다. 보건복지부는 ‘보건의료 R&amp;D 로드맵’을 수립하고, 데이터 기반 AI 기본 의료체계 구축, 연구데이터 공유 및 활용 활성화 등을 추진할 계획을 발표했다(보건복지부, 2025). 이를 위해서, 정부는 헬스 데이터 간담회를 개최하는 등 이해관계자들의 목소리를 수렴하고 있다. 보건의료 데이터와 관련된 이해관계자는 정부, 환자, 의료 종사자 및 기관, 의료 산업 등으로 다수이기에 데이터 거버넌스를 통한 문제해결 방향은 바람직하다.

데이터 거버넌스는 데이터 분석 과정에서 발생하는 문제를 해결하고 급증하는 데이터를 효율적으로 관리하기 위해 등장한 개념으로, 2010년 이후 본격적으로 논의되었다. 핵심은 데이터 활용과 관련된 의사결정 권한과 책임을 명확히 정의하는 체계에 있다(The Data Governance Institute, 2026). 즉, 다양한 이해관계자가 참여하는 구조 속에서 데이터 관리와 활용을 위한 절차와 제도를 마련하고, 이에 대한 권한과 책임을 규정하는 것이다. 헬스 데이터 거버넌스는 이를 확장한 개념으로, 민감한 환자 데이터를 안전하게 활용하기 위해 법과 제도를 통해 이해관계자의 역할과 책임을 명확히 하는 체계이다. 이를 통해 신뢰 기반의 데이터 공유와 활용을 촉진하고, 디지털 헬스 기술을 활용해 환자의 건강을 증진하고 의료 시스템의 효율성을 향상시킬 수 있다(김나리, 2026).

헬스 데이터 거버넌스에서 가장 중요한 이해관계자는 환자이다. 더 넓게 보면 국민건강보험과 의료 급여 체계하에 있는 모든 국민이다. 하지만 현재 보건의료 데이터 거버넌스 논의는 의학 발전과 경제 성장 논리에 치우쳐 있을 뿐 환자의 권리 향상에 대한 논의는 찾아보기 어렵다. 국민의 권리와 권한에 대한 논의가 부족하다 보니 거버넌스 논의 안건 역시 충분히 확장되지 못하고 있다. 이러한 원인 중의 하나는 환자, 국민들 스스로도 어떤 정책에 기반하여 어떤 권리들을 누릴 수 있는지 알지 못하는 데 있다. 국가가 다양한 정책 방안을 제시하지 못하니, 헬스 데이터 거버넌스 논의에서 시민단체들도 데이터 유출 문제만을 지적할 뿐 다른 권리 주장에는 한계를 보인다.

헬스 데이터 거버넌스는 비단 헬스 데이터 공유 대상과 활용 목적을 확대하는 것에 머무르지 않는다. 헬스 데이터를 활용하여 개개인이 건강 관리를 더 용이하게 하고, 의료기관 방문 및 의료 기록 관리의 편의성을 향상시키며, 데이터 보안 문제로부터 환자를 보호하는 방향으로의 발전이 가능하다. 실제 보건의료 데이터를 활용해 환자가 직접 혜택을 받을 수 있는 정책과 서비스는 다양하며, 다수의 유럽 국가에서는 이미 보편적인 정책으로 자리 잡았다.

대표적인 정책은 환자 포털(patient portal)이다. 환자 포털은 개인 건강 정보를 확인할 수 있는 웹사이트다(Sadasivaiah et al., 2019). 우리나라는 환자의 진료 데이터가 병원에 머물러 있어 환자가 자신의 진료기록을 확인하기가 번거로우며, 건강 이력에 따른 자가관리를 하기에도 어려움이 있다. 2023년 2월 의료법 시행령 개정으로 환자포털 건강정보 고속도로의 구축·운영 기반을 마련하였지만, 아직 참여 의료기관이 제한적이며 국민 대상 홍보가 부족하고 인지도도 낮은 실정이다. 반면, 덴마크의 국가 eHealth 포털인 sundhed.dk에서는 의료 기록, 검사 결과, 의뢰서, 투약 카드, 방문 일정, 예방접종 등 의료기관이 등록한 개인 건강 데이터를 통합적으로 확인할 수 있다. 또한 장기 기증 등록 및 취소, 유언장 작성, 위임장 작성, 연구 참여 동의, 줄기세포 기증 등 다양한 행정·의사결정 기능도 함께 제공한다. 핀란드의 Kanta는 중앙집중형 디지털 헬스 데이터 시스템으로, 환자가 의료 방문 기록, 진단 정보, 주요 위험 요인, 실험실 검사, 엑스레이 결과, 의뢰 및 권고 사항, 건강 및 관리 계획, 진단서와 각종 진술서 등에 접근할 수 있도록 한다. 특히 환자의 명시적 동의가 있을 때만 계정이 생성되며, 환자는 자신의 데이터를 의료서비스 제공자에게 공개할지 여부를 직접 선택하고 통제할 수 있다. 이처럼 유럽 국가들은 국가 주도의 통합 플랫폼을 통해 다양한 세부 기능을 제공함과 동시에, 환자에게 데이터 접근권과 통제권을 부여하는 환자 중심의 데이터 거버넌스를 구축하고 있다.

두 번째는 전자처방전(e-prescription)이다. 이는 종이 처방전을 대체하는 디지털 형식의 처방전으로, 병원에서 약국으로 시스템을 통해 처방전이 전달되는 방식으로 작동한다(Grabowska et al., 2020). 전자처방전이 도입되면 환자는 종이 처방전을 지참할 필요가 없다. 약사는 약물 상호 작용 오류와 부작용을 최소화하고, 환자의 특성에 따라 보다 적합한 약물을 제공할 수 있다(Aldughayfiq &amp; Sampalli, 2021). 벨기에는 2021년 9월부터 전자처방전 제공이 의무화되었다. 이로 인해 약사는 스마트폰 앱 접속, 전자신분증(eID)을 통해 처방전을 확인할 수 있다. 병원에서 전자처방전이 발급되면 약사는 환자의 전자신분증 등을 태그하여 본인의 신분을 증명한 후 국가 서버에서 처방전을 확인하는 방식이다. 핀란드는 더 나아가 Kanta 포털에서 처방전 발행 시기 및 장소, 처방자 이름, 복용량 지침, 처방 유효일, 남은 약품 여부, 약품 구입 시기 및 장소 등의 정보를 제공하고 있다.

셋째, 전자진료의뢰(e-referral)다. 전자진료의뢰는 의료기관 간에 환자의 진료 의뢰 및 회신을 전자적으로 처리하는 시스템을 말한다. 이를 통해 의사는 환자에게 추가적인 전문 진료나 입원이 필요할 경우 상급의료기관에 의뢰하고, 승인 여부를 회신받을 수 있다(Naseriasl et al., 2015). 전자진료의뢰가 도입되면, 상급종합병원에 가기 위해 서류를 발급받고 접수해야 하는 번거로움이 없어지며, 불필요한 중복 검사나 절차를 줄일 수 있다. 영국은 e-RS라는 전자진료의뢰 서비스를 제공하고 있다. 1차 의료기관은 이 시스템을 통해 환자의 추가적인 진료를 위한 의뢰서를 작성 및 전송하고, 예약을 변경 및 취소하며, 의료진 간 대화 등의 기능을 활용하여 전자의뢰 관리와 운영을 효율적으로 할 수 있다. 2023년 기준 하루 평균 70,000건의 의뢰가 이뤄지고 있다.

이와 함께, 헬스 데이터 유출 피해자 보호 제도도 필요하다. 우리나라에서 보건의료 데이터 보안은 「개인정보보호법」에 따라 규율되며, 2023년부터는 개인정보 침해 기업에 최대 매출액의 3%까지 과징금을 부과할 수 있다. 그러나 의료기관의 경우 최대 과징금이 20억 원에 불과해 제재 수준이 상대적으로 낮다. 보건의료 데이터는 매우 민감한 정보를 포함하고 있어 유출 시 환자 개인에게 큰 피해를 초래한다. 실제로 성형외과 데이터 유출 사건에서는 해커가 환자에게 금전을 요구하며 성형 사실을 폭로하겠다고 협박한 사례도 있었다. 이처럼 데이터 유출 시 피해는 환자에게 집중되는 반면, 의료기관의 책임은 제한적이며 피해자는 개별적으로 대응해야 하는 문제가 있다. 따라서 보건의료 데이터 유출 피해자 보호제도를 마련하여 신속한 피해 구제와 집단적 대응, 그리고 실질적인 보상 체계를 강화할 필요가 있다.

이처럼, 정부의 헬스 데이터 거버넌스는 환자를 적극적인 권리 주체로 재정립하고, 데이터 활용에 따른 실질적 권익을 보장하며, 피해로부터 보호하는 실질적이고 구체적인 정책에 대한 논의로 확장되어야 한다. 이를 위해서는 먼저, 데이터 거버넌스의 핵심 개념인 ‘권한과 책임’을 명확히 해야 한다. 헬스 데이터 거버넌스는 데이터를 공공재로 인식 및 규정하여 이를 기반으로 공공 가치를 창출하는 것을 목표로 한다(Holly et al., 2023). 이는 즉, 정부의 역할이 중심적임을 뜻하며, 국가 책임과 관리하에 단일 보건의료 데이터 시스템이 구축되어야 함을 의미한다.

가장 선행되어야 할 변화는 중앙집중형 시스템으로의 전환이다. 우리나라는 2003년 의료법 시행규칙 개정으로 의료기관의 EMR(전자의무기록) 사용을 의무화하였다. 하지만 데이터 표준화, 시스템 간 상호운용성이 고려되지 않은 채 의료기관별로 상이한 시스템을 구축함에 따라 개별 의료기관이 건강보험공단에 진료비를 청구하고 자체적으로 환자 데이터를 관리하는 분산형 시스템이 형성되었다. 이로 인해, 건강보험료 청구와 관련된 표준은 정립되었지만, 그 외의 진료 기록은 정부 및 의료 시스템 간에 공유되지 못하고 있다. 반면, 핀란드, 프랑스 등 유럽 주요 국가들은 의료기관의 보건의료 데이터 시스템을 중앙집중형으로 통합하여 운영함으로써 정부가 보다 효율적으로 보건의료 데이터를 관리하고, 공유 및 활용 체계를 갖추며 환자 권리를 확대하는 방향으로의 정책을 구현할 수 있게 되었다.

물론 현재의 의료기관별로 분산된 시스템을 중앙집중화하기는 쉽지 않다. 하지만 유럽 국가들도 본격적으로 정책을 추진하기 전에는 우리나라와 유사한 상황에 있었고, 거의 20년에 걸쳐 현 체계를 형성하였다. 더욱이 이들 국가에서 헬스 데이터 정책이 모색되기 시작한 2000년대 초반은 ICT 인프라와 디바이스가 대중적으로 보급되기 이전이었다. 이러한 점을 고려하면, 우리나라는 더 짧은 시간 안에도 제도적 전환을 추진할 수 있는 여건과 잠재력을 갖추고 있다. 결국, 정부의 의지와 결단의 문제다.

참고문헌

 

김나리. (2026). 디지털 헬스 데이터 거버넌스 국가 비교 연구 프랑스와 핀란드 사례를 중심으로. 한국행정학보, 60(1), 261-291.

Aldughayfiq, B., &amp; Sampalli, S. (2021). Digital health in physicians' and pharmacists' office: a comparative study of e-prescription systems' architecture and digital security in eight countries. Omics: a journal of integrative biology, 25(2), 102-122.

Christelijke Mutualiteiten. Recip-e: electronic prescription. <a href="https://www.cm.be/en/recip-e-electronic-prescription"><u>https://www.cm.be/en/recip-e-electronic-prescription</u></a> (접속일 2025.3.28.)

Grabowska, B., Seń, M., &amp; Klisowska, I. (2020). E-prescription in Poland-a preliminary report. E-methodology, 7(7), 151-156.

Holly, L., Thom, S., Elzemety, M., Murage, B., Mathieson, K., &amp; Petralanda, M. I. I. (2023). Strengthening health data governance: new equity and rights-based principles. International Journal of Health Governance, 28(3), 225-237.

Kanta Services. MyKanta. <a href="https://www.kanta.fi/en/mykanta"><u>https://www.kanta.fi/en/mykanta</u></a> (접속일 2025.3.28.)

Naseriasl, M., Adham, D., &amp; Janati, A. (2015). E-referral solutions successful experiences, key features and challenges-a systematic review. Materia socio-medica, 27(3), 195.

NHS Digital. e-Referral Service. <a href="https://digital.nhs.uk/services/e-referral-service"><u>https://digital.nhs.uk/services/e-referral-service</u></a> (접속일 2025.3.28.)

Sadasivaiah, S., Lyles, C. R., Kiyoi, S., Wong, P., &amp; Ratanawongsa, N. (2019). Disparities in patient-reported interest in web-based patient portals: survey at an urban academic safety-net hospital. Journal of medical Internet research, 21(3), e11421.

sundhed.dk. eHealth in Denmark. <a href="https://www.sundhed.dk/borger/service/om-sundheddk/om-organisationen/ehealth-in-denmark/"><u>https://www.sundhed.dk/borger/service/om-sundheddk/om-organisationen/ehealth-in-denmark/</u></a> (접속일 2025.3.28.)

The Data Governance Institute. https://datagovernance.com/the-data-governance-basics/definitions-of-data-governance/ (접속일 2025.3.28.)

보건복지부. (2025). 바이오헬스 강국 실현을 위한 도약, “보건의료 국가대표기술 30개 선정, AI 기본의료 실현”. 2025.12.18. <a href="https://www.mohw.go.kr/board.es?mid=a10503010100&amp;bid=0027&amp;act=view&amp;list_no=1488269&amp;tag=&amp;nPage=23"><u>https://www.mohw.go.kr/board.es?mid=a10503010100&amp;bid=0027&amp;act=view&amp;list_no=1488269&amp;tag=&amp;nPage=23</u></a>

 

<b><i>디지털사회</i></b><b><i>(Digital Society)</i></b><b><i>는 연세대학교 디지털사회과학센터</i></b><b><i>(Center for Digital Social Science)</i></b><b><i>에서 발행하는 이슈브리프입니다</i></b><b><i>. </i></b><b><i>디지털사회의 내용은 저자 개인의 견해이며</i></b><b><i>, </i></b><b><i>디지털사회과학센터의 공식입장이 아님을 밝힙니다</i></b><b><i>.</i></b>

 

 

 

 ]]></description>
			<author><![CDATA[ssk]]></author>
			<pubDate>Tue, 21 Apr 2026 09:08:01 +0000</pubDate>
			<category domain="http://cdss.yonsei.ac.kr/?kboard_redirect=1"><![CDATA[Issue Brief]]></category>
		</item>
				<item>
			<title><![CDATA[디지털사회 제71호: ﻿응답에서 실행으로: AI 에이전트 시대의 사용자 경험 설계]]></title>
			<link><![CDATA[http://cdss.yonsei.ac.kr/?kboard_content_redirect=227]]></link>
			<description><![CDATA[<p style="text-align:center;"><span><b>응답에서 실행으로: AI 에이전트 시대의 사용자 경험 설계</b></span></p>
<span> </span>
<p style="text-align:right;"><span>신효림 (한국과학기술연구원 지능인터랙션연구센터 박사후연구원)</span></p>
<span> </span>

<span> </span>

<span><b>인간-AI 상호작용의 </b></span><span><b>변화</b></span><span><b>: 검</b></span><span><b>색과</b></span><span><b> 대화를 넘어 위임으로</b></span>

<span> </span>

<span>생성형 인공지능이 일상에 깊숙이 자리 잡으면서, 디지털 환경에서 정보를 탐색하고 처리하는 상호작용의 </span><span>방식이</span><span> 거대한 전환기를 맞이하고 있다. 불과 몇 년 전까지만 해도 웹 생태계의 중심은 “검색”이었다. 사용자는 검색창에 키워드를 입력하고, 나열된 링크를 직접</span><span> 선택하며</span><span> 정보를 찾아야 했다. 정보 </span><span>탐색은</span><span> 사용자가 </span><span>스스로</span><span> </span><span>확인하고</span><span> 선별하는 인지적 과정을 </span><span>전제로 한</span><span> </span><span>인간-컴퓨터 </span><span>상호작용이었다.</span>

<span> </span>

<span>이후 등장한 생성형 인공지능은 이 과정을 “대화”로 </span><span>바꾸어 놓았다</span><span>. 사용자는 자연스러운 문장으로 질문하고, 인공지능은 파편화된 정보</span><span>를</span><span> 수집하여 정제된 답변으로 </span><span>제시한다</span><span>. 정보를 직접 찾아 헤매던 검색의 시대를 지나, 인공지능과 질의응답을 주고받는 대화형 </span><span>상호작용이</span><span> 일상의 새로운 표준으로 안착한 것이다</span><span>. </span><span>하지만 </span><span>이제</span><span> 우리는 이를 넘어</span><span>서는</span><span> 또 하나의 변화를 목격하고 있다. </span><span>답변을 </span><span>생성하</span><span>던 인공지능을 넘어</span><span>, </span><span>사용자의 </span><span>권한을 위임받아</span><span> </span><span>실제 작업을 수행하</span><span>는 </span><span>AI 에이전트가 </span><span>등장하면서 </span><span>상호작용의 중심이 응답에서 “실행”으로 옮겨가고 있는 것이다.</span>

<span> </span>

<span>생성형 </span><span>인공지능이</span><span> 응답의 유창함을 가져왔다면, 에이전틱 시스템은 실행의 자율성을 </span><span>구현했다</span><span>. 사용자의 입력을 기다리는 수동적 도구에서 목표를 위해 스스로 계획하고 행동하는 능동적인 AI 에이전트로 역할이 확장</span><span>된</span><span> </span><span>것이다</span><span>.</span><span> </span><span>이처럼 인공지능이 답변 제공을 넘어 실질적인 과업 수행을 대행하게 됨에 따라, 사용자 경험의 본질 또한 묻고 답하는 소통을 지나 권한</span><span>의</span><span> 위임(Delegation)으로 이동하고 있다.</span>

<span> </span>

<span>이 </span><span>과정에서</span><span> 사용자의 입력은 </span><span>단순한</span><span> 질문이 아니라, 시스템의 자율적</span><span> </span><span>실행을 촉발하는 </span><span>목표 </span><span>그 자체가 된다. </span><span>사용자가</span><span> 달성하고자 하는 </span><span>지점을 </span><span>전달하면 </span><span>인공지능이</span><span> 그에 맞는 도구와 경로를 </span><span>설계하고</span><span> </span><span>실행하는</span><span> 구조로 변모한 </span><span>것이다. </span><span>기존의 대화형 인터페이스가 답변자의 역할에 충실했다면, 위임형 인터페이스는 사용자의 의도를 해석하고 이를 달성하기 </span><span>위해</span><span> 구체적인 절차를 수행하는 대행자로서 작동한다. 결과적으로 인간과 인공지능의 소통 창구인 인터페이스는 정보를 보여주는 창을 넘어, 사용자의 권한을 대행하는 자율적 대리</span><span>인</span><span>으로 그 기능적 정의가 재편되고 있다. </span>

<span> </span>

<span> </span>

<span><b>행동하는 인공지능: 새로운 </b></span><span><b>사용자 경험의 </b></span><span><b>설계</b></span>

<span> </span>

<span>AI 에이전트는 사용자 대신 정보를 찾고 업무를 처리해주는 혁신적인 편의를 제공하지만, 사용자 경험 설계의 측면에서는 전혀 다른 차원의 과제를 던진다. 대화형 </span><span>인터페이스</span><span>에서 인공지능의 </span><span>문제</span><span>는 부적절한 문장을 생성하거나 사실과 다른 정보를 제공하는 정보</span><span>의</span><span> 왜곡이었다. </span><span>물론 이런 오류 역시</span><span> 지식 탐색 과정에서 혼란을 야기하지만, 사용자가 정보를 수용하기 전 단계에서 검토</span><span>하거나</span><span> 재질문을 통해 </span><span>수정하여</span><span> 피해를 줄일 수 있는</span><span> 여지가 있었다. </span>

<span> </span>

<span>그러나 AI 에이전트가 사용자의 PC를 직접 조작하고 웹과 앱을 오가며 실제 행동을 수행하기 시작하면, 실수의 성격</span><span>이</span><span> 근본적으로 달라진다. 잘못된 링크 클릭</span><span>에</span><span> </span><span>그치지 않고</span><span>, 원치 않는 예약 확정, 의도하지 않은 결제 진행, 회사 문서 오발송이나 개인정보 유출과 같은 행동 기반 오류로 이어질 수 있기 때문이다. 이러한 오류는 </span><span>정보 </span><span>수정으로 해결되지 않으며, 실질적인 물리적·경제적</span><span> 손실로 </span><span>연결</span><span>될 수 있</span><span>다. </span>

<span> </span>

<span>따라서 </span><span>새로운 </span><span>사용자 경험 설계의 과제는 편리한 정보 탐색에서, </span><span>인공지능</span><span>에게 실질적인 권한을 위임하면서도 이를 안전하게 통제하는 구조를 만드는 문제로 이동한다. AI 에이전트의 자율성이 커질수록 사용자의 역할은 명령자에서 관리·감독자로 변화하며,</span><span> </span><span>보안·데이터·권한 설정과 같은 요소는 기술적 </span><span>구현을 넘어</span><span> 사용자</span><span>와 신뢰를 구축하는</span><span> 경험</span><span> 설계</span><span>의 핵심</span><span>이</span><span> 된다. 결국 AI 에이전트 시대의 경쟁력은 </span><span>인공지능의</span><span> 문장력이 아니라, 사용자가 위임 과정 전반을 파악하고 통제할 수 있도록 설계된 </span><span>위임형 </span><span>인터페이스에 달려 있다.</span><span> </span>

<span> </span>

<span> </span>

<span><b>AI</b></span><span><b> 에이전트의</b></span><span><b> 현실적 장벽</b></span><span><b>: </b></span><span><b>위임을 가로막는 세 가지 불확실성</b></span>

<span> </span>

<span>AI 에이전트는 행동하는 인공지능으로서 사용자에게 편의를 제공하지만, 동시에 </span><span>사용자가 </span><span>안심하고 과업을 맡기기 어렵게 만드는 지점도 드러낸다. 이는 단순한 모델 성능의 문제가 아니라, 과업 수행 과정에서 발생하는 불확실성이 사용자 경험을 저해하기 때문이다.</span>

<span> </span>
<p class="a6">" <span><b>판단 과정의 불투명성</b></span><span>: </span><span>사용자의 목표와 제약이 명확하더라도, AI 에이전트가 과업을 수행하는 과정에서는 </span><span>수많은 판단을 내려야 한다</span><span>. 옵션 선택, 우선순위 조정, 예외 처리</span><span>와 같은 </span><span>의사결정이 수반되며, 이</span><span>에 해당하는</span><span> 기준을 사용자가 사전에 모두 규정하기는 어렵다. 문제는 이러한 판단 과정이 사용자에게 충분히 드러나지 않은 채 실행의 결과값으로만 제시되기 때문에, 결과가 어떻게 도출되었는지 확인하기 어렵다는 점이다. </span><span>실행과정이 잘 보이지 않으면 결과에 대한 검토 부담은 커지고, 그 부담이 누적될수록 사용자는 확인을 생략한 채 에이전트를 쓰게 될 가능성도 커진다(</span><span>Nielsen</span><span>, 2026). 반대로 모든 의사결정마다 확인을 요구하면 위임의 효율은 줄어들고 상호작용은 다시 대화형 질의응답으로 되돌아간다. 즉, 과정이 충분히 드러나지 않으면, 위임은 사용자에게 편의를 제공하는 동시에 또 다른 형태의 피로와 부담을 가져올 수 있다.</span></p>
<span> </span>
<p class="a6">" <span><b>실행의 비가역성</b></span><span>: </span><span>자율성을 가진 에이전트는 디지털 및 물리적 환경에 실질적인 변화를 초래하는, 되돌리기 어려운 행동을 수행할 가능성이 있다. </span><span>설령 </span><span>나중에 취소나 수정이 가능하더라도, 사용자는 이미 </span><span>발생한</span><span> </span><span>비용과 문제를 </span><span>수습하기 위한 추가적인 시간과 </span><span>노력을</span><span> 감당해야 한다. 이러한 리스크를 관리하려면 실행 도중 사용자가 언제든 흐름을 끊고 방향을 바꿀 수 있는 </span><span>개입</span><span> 수단이 마련되어야 한다.</span><span> </span><span>실제로 에이전트 사용에 익숙해질수록 사용자는 매 단계마다 수동으로 승인하기보다 일정 수준의 자율성을 부여한 뒤 필요한 순간에 개입하는 방식으로 상호작용을 조정하는 경향을 보인다</span><span>(</span><span>Anthropic</span><span>, </span><span>2026).</span><span> 따라서, </span><span>즉각적인 개입의 보장은 </span><span>단순한 보조 기능이 아니라, 위임의 수준을 높이고 신뢰 관계를 형성하는 핵심 조건이라고 볼 수 있다</span><span>. 그럼에도 현재 상용화된 에이전트들</span><span>의</span><span> 개입 기능</span><span>은 </span><span>제품마다 편차가 크고, </span><span>경우에 따라서는 </span><span>사용자의 개입 자체가 불가능하</span><span>게</span><span> 설계된 경우도 있다(Staufer</span><span> </span><span>et al., 202</span><span>6</span><span>). </span><span>이런 조건에서는</span><span> 에이전트의 실질적인 활용 범위는 제한될 수밖에 없다</span><span>.</span></p>
<span> </span>
<p class="a6">" <span><b>위임과 신뢰의 간극</b></span><span>: </span><span>AI 에이전트는 사용자를 대신해 과업을 수행하는 대리인이다. 에이전트가 독립적인 실행력을 </span><span>가지려면 사용자의 권한 위임이 선행되어야 하지만, 위임이 곧 에이전트에 대한 전적인 신뢰를 뜻하는 것은 아니다. 사용자가 승인한 것은 목표와 과업의 수행이지, 그 과정에서 이루어지는 모든 중간 판단과 외부 영향까지 무조건 수용하겠다는 뜻은 아니기 때문이다. 그러나 실제 </span><span>에이전트는 사용자와의 직접적인 소통을 줄</span><span>인 채</span><span> 외부 콘텐츠를 참조하거나 도구를 호출</span><span>하는</span><span> 등 외부 환경과 상호작용하며 결과를 도출해간다. 이 과정에서는 사용자가 의도하지 않은 정보나 맥락이 판단에 개입할 수 있고, 외부 데이터에 숨겨진 지시가 영향을 미치는 간접 프롬프트 인젝션과 같은 보안 위협에도 노출될 수 있다(Sapkota et al., 2026). 결국 문제는 에이전트가 자율적으로 행동한다는 사실 자체보다, 그 판단이 어떤 조건에서 이루어지고 무엇에 의해 영향을 받을 수 있는지가 사용자에게 충분히 이해되지 않는다는 데 있다. 따라서 에이전틱 UX의 중요한 과제는 자율성을 확대하는 데 그치지 않고, 판단의 조건과 영향 범위를 사용자에게 설득력 있게 제시하는 데 있다.</span></p>
<span> </span>

<span> </span>

<span><b>에이전틱 UX의 설계원칙: 위임을 가능하게 하는 인터페이스</b></span>

<span> </span>

<span>앞서 살펴본 불확실성은 서로 다른 문제처럼 보이지만, 결국 하나의</span><span> 설계</span><span> </span><span>문제로</span><span> </span><span>수렴한다</span><span>. 에이전트의 실행 과정에서</span><span> </span><span>사용자는 </span><span>무엇을 확인할 수 있는지,</span><span> 어느 지점에서 개입할 수 있는지, 그리고 위임의 범위와 그 결과</span><span>를</span><span> 어떻게 </span><span>확인할 수 있는지. </span><span>따라서 에이전틱 UX의 핵심은 더 많은 자동화를 구현하</span><span>기보다</span><span>, 에이전트의 자율적 실행이 사용자에게 이해 가능하고 관리 가능한 형태로 드러나도록 인터페이스를 설계하는 데 있다</span><span>. </span><span>이런 점에서 위임형 인터페이스는 단순한 대화창이 아니라, 상태와 과정, 권한과 개입 지점을 함께 조직하는 운영 화면에 가까워진다.</span>

<span> </span>
<p class="a6">" <span><b>과정은 이해 가능하게 보여야 한다</b></span><span><b>:</b></span><span> </span><span>판단 과정이 보이지 않는다고 모든 내부 단계를 그대로 보여주는 것은 해결책이 될 수 없다. </span><span>사용자에게 필요한 것은 특정한 결과가 왜 도출되었는지 맥락적으로 따라갈 수 있을 만큼 보이는 것이다</span><span>. 따라서 위임형 인터페이스는 </span><span>에이전트의 모든 실행 흔적을 장황하게 나열하기보다, 사용자가 이해할 수 있는 의미 단위로 묶어 검토 가능한 형태로 제시할 필요가 있다. 중요한 단계와 근거, 변화 지점을 중심으로 실행을 구조화하고, 이를 요약된 정보와 세부 정보가 구분되는 방식으로 </span><span>과정을 정리해야 한다</span><span>. 예를 들어 기본 화면에는 핵심 정보만 제시하고, 사용자가 필요할 때만 세부 내용을 열어볼 수 있는 계층형 구조를 마련하면 검토의 효율을 높일 수 있다. </span><span>결</span><span>국 중요한 것은 과정을 많이 보여주는 데 있지 않고, 사용자가 판단의 흐름을 따라갈 수 있도록 정리해 보여주는 데 있다.</span></p>
<span> </span>
<p class="a6">" <span><b>상태와 운영 조건을 </b></span><span><b>한눈에 파악할 수 있어야 한다</b></span><span><b>: </b></span><span>에이전트에 대한 위임이 신뢰로 이어지려면, 시스템이 현재 어떤 조건과 제약 아래에서 움직이고 있는지가 먼저 드러나야 한다. 사용자가 </span><span>확인해야</span><span> 할 </span><span>것은</span><span> 단순한 기능의 목록이 아니라, 현재 활성화된 권한의 범위와 연결된 서비스, 구체적인 진행 단계, 다음 행동의 방향</span><span>, 그리고</span><span> 그에 수반될 자원 및 비용</span><span>이</span><span>다. 이러한 정보가 여러 설정 메뉴에 흩어져 있으면, 사용자는 에이전트가 허용된 경계 안에서 적절히 작동하고 있는지 한눈에 파악하기 어렵다. 따라서 인터페이스는 개별 항목을 분산 배치하는 대신, 현재의 작동 상태와 운영 환경을 한눈에 읽을 수 있는 통합된 운영 화면을 제공해야 한다.</span><span> </span><span>에이전트의 작동 조건과 운영 환경이 분명히 드러날 때, 사용자는 그 자율적 실행을 납득할 수 있고 에이전트에 대한 신뢰</span><span>를</span><span> 형성할 수 있다.</span></p>
<span><b> </b></span>
<p class="a6">" <span><b>물리적 제어권을 보장해야 한다</b></span><span><b>: </b></span><span>위임은 과업의 수행을 맡기는 것이지, 통제권까지 넘기는 일을 뜻하지 않는다. 사용자는 필요할 때 언제든 실행을 멈추거나 목표를 수정할 수 있어야 하며, 필요한 경우 직접 작업을 이어받아 처리한 뒤 다시 에이전트에게 맡길 수 있어야 한다. 이러한 가능성이 보장되지 않으면, 에이전트의 자율성은 편의의 확대가 아니라 통제권 상실로 받아들여질 수밖에 없다. 특히 에이전트의 판단이 외부 서비스 호출이나 실제 행동으로 이어지는 환경일수록, 이러한 개입 수단의 중요성은 더욱 커진다. 따라서 위임형 인터페이스는 사용자가 수행의 흐름을 중단하거나 다시 조정할 수 있는 구조를 갖추어야 한다.</span></p>
<span> </span>
<p class="a6">" <span><b>사용자 확인 지점을 설계해야 한다</b></span><span><b>: </b></span><span>모든 단계를 사람에게 일일이 확인받는 </span><span>에이전트는</span><span> 번거롭고, 반대로 모든 단계를 에이전트에게 일괄적으로 맡기는 </span><span>것은 </span><span>불안하다. 중요한 것은 횟수의 문제가 아니라 배치의 문제</span><span>다</span><span>. 반복적이고 저위험인 작업은 에이전트가 자율적으로 처리하되, 되돌리기 어렵거나 </span><span>비용·책임</span><span>이 </span><span>큰 </span><span>순간에는 사용자의 확인이 </span><span>다시 </span><span>개입되어야 한다. 좋은 인터페이스는 승인 버튼을 많이 두는 화면이 아니라, 어디서 </span><span>사용자를</span><span> 다시 불러와야 하는지를 정확히 설계한 화면이다. 결국 확인의 문제는 </span><span>절차의 반복이 아니라 경계의 설정으로</span><span>, 무엇을 자동화하고 무엇을 사용자 판단에 남길 것인지가 분명하게 </span><span>정의</span><span>되어야 한다.</span></p>
<span> </span>

<span> </span>

<span><b>이제 중요한 것은 ‘답’이 아니라 ‘맡길 수 있음’이다</b></span>

<span> </span>

<span>생성형 인공지능은 이미 충분히 잘 말한다. 질문의 맥락을 이해하고, 그럴듯한 문장을 만들고, 필요한 정보를 정리해주는 능력은 빠르게 일상화되고 있다. 그러나 AI 에이전트의 시대가 본격화되면서, 이제 우리의 관심은 더 이상 인공지능이 얼마나 잘 답하는가에 머물 수 없게 되었다. 진짜 문제는 그 다음이다. 우리는 과연 인공지능에게 무엇을, 어디까지, 어떤 조건에서 맡길 수 있는가.</span>

<span> </span>

<span>이 질문은 단순히 기술의 성능만으로 풀리지 않는다. 아무리 뛰어난 모델이라도 사용자가 그 실행 과정을 이해할 수 없고, 필요한 순간 개입할 수 없으며, 위임의 범위와 책임이 불분명하다면 그 자율성은 편의가 아니라 불안으로 돌아온다. 결국 에이전트 시대의 경쟁력은 더 믿고 맡길 수 있는 실행 구조에 있다. 중요한 것은 자동화를 어디까지 확대할 수 있느냐가 아니라, 무엇을 시스템에 맡기고 무엇을 인간의 판단으로 남길 것인지 그 기준을 분명히 하는 일이다. 이때 인터페이스는 단순히 정보를 보여주고 명령을 입력받는 창이 아니라, 권한의 범위와 실행의 상태를 드러내고 사용자가 필요할 때 개입할 수 있게 하는 구조가 되어야 한다.</span>

<span> </span>

<span>앞으로의 인간-AI 상호작용은 무엇을 보여줄 것인가의 문제가 아니라, 어떻게 맡</span><span>길</span><span> 것인가의 문제로 이동할 것이다. 검색창과 대화창이 정보 접근의 시대를 상징했다면, 이제 우리에게 필요한 것은 권한과 개입, 상태와 책임이 함께 드러나는 위임형 인터페이스다. 사용자가 자신의 판단과 책임을 잃지 않은 채 맡길 수 있을 때 비로소 에이전트의 실행은 가치를 갖는다. 답변에서 실행으로 넘어가는 이 전환의 시대에, 결국 중요한 것은 더 유창한 응답이 아니라 맡길 수 있는 조건을 설계하는 일이다.</span>

<span> </span>

<span> </span>

<span> </span>

<span> </span>

<span> </span>

<span> </span>

<span> </span>

<span><b>참고자료</b></span>

<span> </span>

<span>Abou Ali, M., Dornaika, F., &amp; Charafeddine, J. (2026). Agentic AI: A comprehensive survey of architectures, applications, and future directions. </span><span><i>Artificial Intelligence Review, 59</i></span><span>, 11.</span>

<span>AI Agent Index. (2026). </span><span><i>The AI Agent Index: Updated 2025 edition</i></span><span>. https://aiagentindex.mit.edu/</span>

<span>Anthropic. (2025). </span><span><i>Our framework for developing safe and trustworthy agents</i></span><span>.</span>

<span>Anthropic. (2026, February 18). </span><span><i>Measuring AI agent autonomy in practice</i></span><span>.</span>

<span>Augment Code. (2026). </span><span><i>Intent: Build with Intent</i></span><span>.</span>

<span>Infocomm Media Development Authority. (2026, January 22). </span><span><i>Model AI governance framework for agentic AI</i></span><span>.</span>

<span>Meta. (202</span><span>5</span><span>). </span><span><i>Agents rule of two: A practical approach to AI agent security</i></span><span>.</span>

<span>Moran, K., Budiu, R., Gibbons, S., &amp; The Experts at NN/g. (2026). </span><span><i>State of UX 2026: Design deeper to differentiate</i></span><span>.</span>

<span>Nielsen, J. (2026). </span><span><i>18 predictions for 2026</i></span><span>. UX Tigers.</span>

<span>Sapkota, R., Roumeliotis, K. I., &amp; Karkee, M. (2026). AI agents vs. agentic AI: A conceptual taxonomy, applications and challenges. </span><span><i>Information Fusion</i></span><span>, 103599.</span>

<span>Shome, P., Krishnan, S., &amp; Das, S. (2025). Why Johnny can’t use agents: Industry aspirations vs. user realities with AI agent software. </span><span><i>arXiv preprint</i></span><span>, arXiv:2509.14528.</span>

<span>Staufer, L., Feng, K., Wei, K., Bailey, L., Duan, Y., Yang, M., Ozisik, A. P., Casper, S., &amp; Kolt, N. (2026). The 2025 AI Agent Index: Documenting technical and safety features of deployed agentic AI systems. </span><span><i>arXiv preprint</i></span><span>, arXiv:2602.17753.</span>

<span>Wroblewski, L. (2025). </span><span><i>Context management UI in AI products</i></span><span>.</span>

<span>Wroblewski, L. (2025). </span><span><i>The receding role of AI chat</i></span><span>.</span>

<span>Wroblewski, L. (2026). </span><span><i>Showing the work of agents in UI</i></span><span>.</span>

<span> </span>
<p class="b1"><span><b><i>디지털사회(Digital Society)는 연세대학교 디지털사회과학센터(Center for Digital Social Science)에서 발행하는 이슈브리프입니다. 디지털사회의 내용은 저자 개인의 견해이며, 디지털사회과학센터의 공식입장이 아님을 밝힙니다.</i></b></span></p>
<p class="b1"><span> </span></p>
<span> </span>]]></description>
			<author><![CDATA[ssk]]></author>
			<pubDate>Fri, 27 Mar 2026 18:50:37 +0000</pubDate>
			<category domain="http://cdss.yonsei.ac.kr/?kboard_redirect=1"><![CDATA[Issue Brief]]></category>
		</item>
				<item>
			<title><![CDATA[디지털사회 제70호: 정책에서 정체성으로: 여론 양극화의 다층적 구조]]></title>
			<link><![CDATA[http://cdss.yonsei.ac.kr/?kboard_content_redirect=226]]></link>
			<description><![CDATA[<p style="text-align:center;"><strong>정책에서 정체성으로: 여론 양극화의 다층적 구조</strong></p>
 
<p style="text-align:right;"><strong>송준모 (이화여자대학교 정치외교학과 박사후연구원)</strong></p>
 

오늘날 많은 민주주의 사회가 직면하고 있는 가장 심각한 도전 중 하나는 구성원 사이의 극심한 분열, 다시 말해 여론의 양극화이다. 민주주의 체제가 안정적으로 유지되기 위해서는 시민들이 공유된 가치를 기반으로 제도적 합의를 이루고, 합의 내에서 공존을 용인하는 것이 필수적이다. 일각에서는 계층, 인종, 성별 등 다양한 사회적 정체성이 교차하며 발생하는 압력이 특정 정파나 이념에 대한 과도한 몰입을 억제하고 합의와 공존을 가능하게 만드는 기제로 제시되었다.

하지만 최근에는 이러한 교차 균열의 구조가 무너지고, 모든 사회적 정체성이 정파적 적대의 소용돌이에 휩쓸리는 경향이 관측된다. 지지하는 정당이 다른 이웃과 함께 바비큐 파티를 즐긴다거나, 같은 정당의 당원이더라도 서로 다른 종파의 교회에 출석하는 풍경은 점점 더 찾아보기 어렵다. 이제 지지하는 정당이 다른 인물은 데이트 상대나 고용 대상으로서 기피된다. 이에 따라 정치적 갈등의 전장 역시 경제적 자원의 배분이나 사회안전망의 확대를 둘러싼 이해관계의 조정을 넘어, 서로의 존재 자체를 적대시하고 도덕적으로 비난하는 정체성의 대결로 변화한다.

이러한 위기의 시대에 양극화의 양상을 정확하게 파악하는 작업은, 민주주의 사회의 지속 가능성을 모색하는 데에 필수적인 일이라고 할 수 있다. 그리고 이를 위해서는 양극화에 대한 개념정의 및 측정 방식에 대한 정리가 필요하다. 양극화에 대한 정의에 따라 측정 방법이 바뀌고, 결국 현상 이해와 해법도 크게 달라질 수 있다.

실제로 여론 양극화에 대해 서로 다른 규정을 적용하여 측정한 경험 연구들은 서로 다른 결론을 제시한다. 어떤 연구에서는 일반 유권자의 이념적 분포가 과거와 크게 다르지 않다는 보고를 하지만, 다른 연구에서는 유권자 사이의 이념적 균열이 과거에 비해 더 심화되었다는 보고를 한다. 동일한 자료를 활용한 연구들에서 서로 다른 결과가 도출되는 것은, 그만큼 여론의 양극화가 다차원적인 속성을 지니고 있으며, 각 차원을 정확하게 포착하는 개념의 정리가 중요함을 말해준다.

여론 양극화에 대한 가장 고전적이고 직관적인 정의는, 개별 의제 내부에서 의견분포의 쏠림이다. 예컨대 적절한 재산세율이 40~60%라고 생각하는 시민들의 수가 점점 줄어들고, 0%나 100%라고 생각하는 시민들의 수가 늘어나는 양상으로서, 이 경우 양극화란 곧 정책이나 이슈에 대한 시민들의 태도가 점점 중도에서 양 끝의 극단으로 몰리는 현상을 의미한다. 기존의 많은 연구들이 이러한 정의를 채택하여 분석을 수행하였으며, 특히 사회심리학적 측면에서 기제에 대한 탐구가 심도 있게 이루어졌다. 동질적 집단 내에서의 폐쇄적 상호작용이 급진화로 이어지는 기제는 이제 극단주의의 발아를 설명할 때에 빠지지 않는 내용이다.

하지만 양극화를 개별 의제 내에서의 급진화로만 간주한다면, 서두에서 언급하였던 오늘날의 광범위한 분열을 설명하기 어렵다. 기존의 경험적 연구들에 따르면, 임신중절과 같은 일부 의제를 제외한 대부분의 정책 관련 의제들에서 일반 유권자들의 의견 분포는 지난 수십 년간 의외로 큰 변화가 없었기 때문이다. 정치 엘리트나 고관여층과 달리, 다수의 일반 유권자들의 위치는 크게 극단적으로 변화하지 않았다. 그렇다면 시민들의 개별 정책 내에서의 선호나 이념적 강도가 크게 변하지 않았음에도, 왜 정파적 적대와 갈등은 더욱 심각해지는가?

이 질문에 답하기 위해서는, 개별 의제 내에서 태도의 급진화보다는 여러 의제 전반에 걸친 태도의 정렬에 주목할 필요가 있다. 각 의제 내에서의 태도 분포는 동일하더라도, 한 의제에서의 태도를 통해 다른 의제에서의 태도를 예측할 수 있는 일관성이 강해진다면 이는 곧 광범위한 이념적 대륙의 형성을 의미한다. 성소수자 권리보장에 우호적이면서도 공립학교에서의 종교교육에 찬성하거나, 환경 보호를 중시하면서도 감세를 선호하는 이념적 불일치는 모든 의제를 가로지르는 절대적 다수파의 형성을 억제함으로써 타협을 유도한다.

하지만 이념적 불일치 대신 정렬이 이루어진 상황이라면, 정파적 선호는 곧 조세, 기후 변화, 외교, 의료, 사회보장 정책 등 모든 영역에서의 특정한 방향의 선호를 의미하게 된다. 즉, 민주당 지지자라면 증세, 탄소배출 감축, 전국민 의료보험, 사회안전망 강화를 선호하며 공화당 지지자라면 이 모든 의제들에서 정반대의 선호를 가지는 것이다. 이러한 상황은 마치 울타리가 높게 쳐지며 정파 사이의 경계가 뚜렷해지는 것과 같으며, 유권자들을 배타적인 신념 체계 내에 가둠으로써 정치적 파벌에 기반한 적대감을 증폭시킨다. 각각의 개별 의제 내에서의 차이는 크지 않더라도, 여러 의제간에 걸친 반복적인 차이의 인식은 곧 정서적 거리감과 적대로 이어지기 쉽다.

그리고 이러한 거대한 정렬이 영향을 미치는 범위는 경제, 외교 등과 같은 전통적인 정책 의제에 한정되지 않는다. 마치 유출된 기름이 바다를 오염시키듯, 이전에는 정치와 전혀 무관하다고 간주되었던 비정치적 영역—문화적 취향, 소비 패턴, 여가 활동 등—에서의 선호가 역시 정파적 선호와 정렬을 이루는 현상이 관측된다. 예컨대 민주당원은 라떼를 마시며 전기차를 구매하지만, 공화당원은 블랙커피를 마시며 픽업트럭을 구매하는 경향을 보인다.

이러한 상황은 단순한 정책에 대한 선호의 쏠림을 넘어, 생활 양식의 충돌이자 정체성 간의 대결이 오늘날 여론 양극화의 본질이라는 점을 시사한다. 오늘날 고도로 다원화된 사회에서 시민들이 파편화된 방식으로 정치에 참여하고 소비 패턴을 통해 자신의 정체성을 드러내게 됨에 따라, 생활 양식과 정체성이 분열에서 수행하는 역할은 더욱 두드러진다. 개별적 정책 의제에 큰 관심이 없는 정치 저관여층이라 할지라도, 자신이 속한 취미 공동체나 내집단이 특정 정파의 신념체계와 정렬을 이루고 있다면 그들은 자연스럽게 정파적 적대감의 당사자가 된다. 그리고 이러한 분열된 정체성 블록에 기반한 적대가 고착화될 경우, 이는 정책적 개입이나 단순한 정보 제공만으로는 해소하기 매우 어려워진다.

지금까지의 논의는 여론 양극화를 단일 의제 내 분포의 쏠림으로 볼 것인지, 의제 간 정렬로 볼 것인지, 혹은 생활세계의 군집화로 볼 것인지에 따라 현상 이해가 달라질 수 있음을 보여준다. 단일한 정의에만 의존한 분석은 사회 분열에 대해 잘못된 결론을 내릴 수 있다. 단일 의제 내에서의 쏠림의 증거를 찾지 못한다면, 정서적 양극화는 실체적 기반이 없는 심리적 기작에 의한 현상이며 따라서 개인의 정신건강 차원에서 해결해야 한다는 결론으로 이어질 수 있다. 하지만 의제 간의 정렬에 초점을 맞춘다면 거대한 이념적 분열의 증거를 포착할 수 있으며, 더 구조적이고 정치적 해법을 모색하는 계기로 활용할 수 있다.

또한 양극화가 어느 차원에서 심화되느냐에 따라 갈등의 성격이 달라진다. 현재의 여론 양극화가 의견의 분포 문제라면 각 의제에서 중도적이면서도 매력적인 정책적 대안 개발이라는 접근이 유효하겠지만, 의제간 정렬 문제라면 이념 패키지를 제공하는 정치 엘리트나 이데올로그의 다양성 증진이 우선되어야 하며, 생활세계까지 연계된 정체성의 군집화 문제라면 생활세계에서 교차적 정체성을 활성화하는 사회적 설계가 필요할 것이다.

결론적으로, 현대 민주주의 사회에서 양극화는 단선적인 현상이 아니라 급진화, 밀집화, 군집화라는 다층적인 양상으로 나타난다. 따라서 우리는 여론이 양극화되어 있다는 진단을 내릴 때 단순히 사람들이 얼마나 강한 태도를 가지고 있느냐를 묻는 것을 넘어, 어떤 의제들이 어떤 방식으로 결합하고 있는지 분석해야 한다. 다원화된 민주주의 사회에서 분열과 갈등은 피할 수 없는 요소이다. 이러한 상황에서 균열이 공존의 토대를 파괴하는 전면전으로 번지는 것을 막고, 타협을 통해 공존의 기반을 재확인하는 기회로 만들기 위해서는 바로 균열 그 자체에 대한 정교한 이해에서부터 시작해야 할 것이다.

 

<b>참고문헌</b>

 

Abramowitz, Alan I., and Kyle L. Saunders. "Is polarization a myth?" <i>The Journal of Politics</i> 70, no. 2 (2008): 542-555.

Baldassarri, Delia, and Peter Bearman. "Dynamics of political polarization." <i>American Sociological Review</i> 72, no. 5 (2007): 784-811.

Baldassarri, Delia, and Barum Park. "Was there a culture war? Partisan polarization and secular trends in US public opinion." <i>The Journal of Politics</i> 82, no. 3 (2020): 809-827.

Boutyline, Andrei, and Stephen Vaisey. "Belief network analysis: A relational approach to understanding the structure of attitudes." <i>American Journal of Sociology</i> 122, no. 5 (2017): 1371-1447.

DellaPosta, Daniel. "Pluralistic collapse: The “oil spill” model of mass opinion polarization." <i>American Sociological Review</i> 85, no. 3 (2020): 507-536.

DiMaggio, Paul, John Evans, and Bethany Bryson. "Have American's social attitudes become more polarized?." <i>American Journal of Sociology</i> 102, no. 3 (1996): 690-755.

Evans, John H., Bethany Bryson, and Paul DiMaggio. "Opinion polarization: Important contributions, necessary limitations." <i>American Journal of Sociology</i> 106, no. 4 (2001): 944-959.

Hetherington, Marc J., and Jonathan Weiler. <i>Prius or pickup?: How the answers to four simple questions explain America's great divide</i>. Mariner Books, 2018.

Iyengar, Shanto, Yphtach Lelkes, Matthew Levendusky, Neil Malhotra, and Sean J. Westwood. "The origins and consequences of affective polarization in the United States." <i>Annual Review of Political Science</i> 22 (2019): 129-146.

 

<b><i>디지털사회</i></b><b><i>(Digital Society)</i></b><b><i>는 연세대학교 디지털사회과학센터</i></b><b><i>(Center for Digital Social Science)</i></b><b><i>에서 발행하는 이슈브리프입니다</i></b><b><i>. </i></b><b><i>디지털사회의 내용은 저자 개인의 견해이며</i></b><b><i>, </i></b><b><i>디지털사회과학센터의 공식입장이 아님을 밝힙니다</i></b><b><i>.</i></b>

 ]]></description>
			<author><![CDATA[ssk]]></author>
			<pubDate>Thu, 05 Mar 2026 15:29:29 +0000</pubDate>
			<category domain="http://cdss.yonsei.ac.kr/?kboard_redirect=1"><![CDATA[Issue Brief]]></category>
		</item>
				<item>
			<title><![CDATA[디지털사회 제69호: 고등교육에서의 AI 리터러시 측정과 평가: 새로운 교육 지표의 필요성과 방향]]></title>
			<link><![CDATA[http://cdss.yonsei.ac.kr/?kboard_content_redirect=225]]></link>
			<description><![CDATA[<p style="text-align:center;"><strong>고등교육에서의 AI 리터러시 측정과 평가: 새로운 교육 지표의 필요성과 방향</strong></p>
<p style="text-align:right;"><strong>강근영 (연세대학교 문헌정보학과 박사후연구원)</strong></p>
<strong> </strong>

<strong>AI 시대 고등교육의 새로운 도전</strong>

생성형 AI 출시 이후 고등교육 현장은 급격한 변화를 겪고 있다. AI 도구는 단순한 검색을 넘어, 글쓰기와 코딩, 데이터 분석 등 학습의 거의 모든 영역에 활용되고 있으며, 이는 더 이상 일부 전공이나 특정 학생들만의 이야기가 아니게 되었다. 동시에 산업 현장에서도 변화가 일어나고 있다. 메타는 2026년부터 직원 성과 평가에서 AI 주도 영향력(AI-driven impact)을 평가할 예정이다. 메타가 성과와 연결시키고자 하는 AI 주도 영향력은 AI를 활용해서 얼마나 영향력을 만들어냈는지이며, 성과 평가 기준 자체를 바꾸고 있다고 해석할 수 있다. 즉 AI 역량이 선택적 기술이 아닌 필수 직무 역량으로 부상하고 있음을 보여준다. 그러나 급속한 AI 도구 확산과 활용에도 불구하고, 학습자들의 실제 AI 활용 수준이나 리터러시 수준은 표면적 사용에 머무르는 경우가 많다는 지적이 제기되고 있다. 즉, AI를 ‘도구’로는 사용하지만 ‘협력적 파트너’로 활용하지 못하는 역량 격차가 존재한다.

이러한 변화는 산업 현장과 맞닿아 있는 고등교육에 근본적인 질문을 던진다. 학생들이 AI를 사용하고 있다는 것은 명확하지만, 학생들이 AI를 제대로 이해하고 비판적으로 활용하고 있는가? 교육학에서의 논의 중 ‘평가가 학습을 이끈다(Assessment drives learning)’는 통찰을 고려할 때, 우리가 무엇을 어떻게 측정하느냐는 학생들이 무엇을 배우게 되느냐를 결정하게 된다.

그렇다면 고등교육에서는 AI 리터러시를 무엇으로, 어떻게 측정할 것인가. Long과 Magerko(2020)는 AI 리터러시를 "AI 기술을 비판적으로 평가하고, 효과적으로 소통하며, AI를 활용한 도구로 작업할 수 있는 능력의 집합"으로 정의했다. 그러나 이 정의를 구체적인 측정 도구로 구현하는 것은 여전히 도전 과제다. 연구자들은 다양한 측정 도구를 개발하고 실험하고 있다. 그 중 Almatrafi 외의 연구(2024), Lintner의 연구(2024) 등은 최근까지 개발된 AI 리터러시 측정 도구를 분석하였으며, 각 연구마다 서로 다른 정의와 측정 차원을 사용하고 있음을 확인하였고, 대부분의 도구들이 자기보고식 측정에 의존하여 실제 역량 측정의 한계가 지적되었다. 이러한 한계를 종합하여, 세 가지 문제를 도출해볼 수 있다. 첫째, 정적 측정의 한계이다. 일회성 평가로는 AI와의 상호작용이라는 동적 과정을 포착하기 어렵다. 둘째, AI 리터러시의 복합적인 특성을 하나의 척도로 환원하기 어렵다. 셋째, 자기보고식 측정인 경우가 대부분이어서, 실제 수행 능력과 인식된 능력 간의 괴리가 크다.

이러한 문제 의식을 바탕으로, 새로운 접근들이 등장하고 있다. Jin 외(2025)는 GLAT(Generative AI Literacy Assessment Test)를 개발하였다. 20개 객관식 문항으로 구성된 수행 기반 평가 도구로, 355명의 고등교육 학습자를 대상으로 한 검증에서 자기평가보다 실제 생성형 AI 과제 수행 능력을 더 정확히 예측했다. Soto-Sanfiel 외(2025)는 총 56개 문항을 네 가지 핵심 영역으로 구성하여, 개인이 인지하는 리터러시 역량이 아닌, 사실적인 지식을 측정하는 데 중점을 두는 측정 도구를 개발하였다. Ng 외(2024)는 AI 리터러시를 정서적(Affective), 행동적(Behavioral), 인지적(Cognitive), 윤리적(Ethical) 차원으로 구분한 ABCE 프레임워크와 함께 측정 도구를 개발하였다. 다른 리터러시 측정 도구가 기술이나 지식 중심의 접근을 했던 것과는 달리, 학습자의 태도와 윤리적 성찰을 중요하게 다뤘으며, 인지적 차원에서도 단순한 지식 습득이 아닌 "AI와 함께 사고하는 능력"을 강조했다.

이처럼 AI 리터러시의 복합적 특성에 대한 이해가 깊어짐에도 불구하고, 현재의 측정 도구들은 여전히 한계를 보인다. 우리에게 필요한 것은 결과가 아닌 과정을, 산출물이 아닌 사고를 평가하는 새로운 측정 방법론이다. 전통적 평가가 최종 제출물만 평가했다면, 이제는 학습 과정을 추적하여 학생의 사고와 성장을 증명할 수 있는 방향으로 평가 전략을 설계해야 한다.

<strong>AI 리터러시 측정 방법론: 네 가지 방법들 간의 시너지</strong>

이에 2024-2025년 최신 연구 성과들을 종합하여 상호 보완적인 네 가지 방법론을 제안하고자 한다.

첫째, AI 리터러시 진단 및 측정 도구는 제안하고자 하는 방법론의 출발점 역할을 한다. 자기보고식 설문 측정의 한계를 극복하기 위해 수행 기반 평가나 AICOS(Markus et al., 2025)와 같은 객관적 측정 도구들을 개발하고 있다. 이러한 진단 도구들은 학습자의 현재 AI 리터러시 수준을 파악하여, 이후 포트폴리오 평가 설계나 온톨로지 기반의 역량 매핑, 자연어 처리 분석의 기준점을 제공할 수 있다.

둘째, 프로젝트 기반 포트폴리오 평가 시스템은 진단 결과를 바탕으로 실제 AI 활용 역량을 심층 평가할 수 있다. 2025년 발표된 FACT 프레임워크(Foundations, Applications, Co-production, Transformative thinking)는 이러한 접근을 구체화한다. 이 프레임워크는 기초 단계에서 AI 없이 수행하는 과제로 학습자의 기본 역량을 확인하고, 적용 단계에서 AI와 협력하여 복잡한 문제를 해결하며, 공동생산 단계에서 AI를 ‘인지적 파트너’로 활용하여 새로운 지식을 창출하고, 변혁적 사고 단계에서 AI의 사회적 영향을 비판적으로 성찰할 것을 제안한다. 루브릭은 프롬프트 엔지니어링, 결과 검증 과정, 인간의 독창적 기여, 윤리적 고려사항, 협업 과정의 5개 영역으로 구성되며, 평가자 간 신뢰도는 높은 수준으로 보고되었다(Elshall &amp; Badir, 2025). 어떤 포트폴리오 평가 체계든 구성주의 학습이론과 형성 평가 원리에 이론적 기반을 둔다면, Black과 Wiliam(1998)의 ‘학습을 위한 평가’ 개념처럼, AI 리터러시 측정이 일회성이 아닌 지속적 역량 개발의 과정으로 설계될 수 있을 것이다.

셋째, 온톨로지 기반 체계적 역량 구조화 시스템은 개별 평가 결과들을 의미 있는 패턴으로 연결할 수 있다. 예를 들어, AI Literacy Heptagon 프레임워크(Hackl, Mueller, &amp; Sailer, 2025)는 7개 핵심 차원(기술적 이해, 비판적 평가, 실용적 적용, 윤리적 고려, 통합 기술, 법적 규제 지식, 창의적 활용)을 제시하였다. 온톨로지를 활용하여, 그들 간의 복합적 관계를 온톨로지로 모델링할 수 있다. 이러한 구조화된 지식 체계는 학습자의 역량 프로파일을 다면적으로 분석할 수 있고, 개별 학습자에게 적합한 발달 경로를 체계적으로 제안할 수 있다. 또한 다수의 학습자에 대한 데이터를 축적하여 AI 리터러시 발달의 일반적인 패턴과 개별적인 편차를 동시에 파악하는 기반을 제공할 수 있다.

넷째, 자연어 처리 기반 자동 평가 방식을 제안한다. 대규모 텍스트 데이터에서 학습자의 사고 과정을 자동으로 분석하는 방식으로, 이는 "AI가 제안한 아이디어를 그대로 받아들이기보다는 추가적인 근거를 찾아보았다"와 같은 문장에서 비판적 사고의 징후를 탐지하고, "개인정보가 포함된 데이터를 AI에 입력하는 것이 적절한지 고민했다"에서 윤리적 성찰을 인식할 수 있는 식의 자연어 처리 기반 방식을 제안한다.

마지막으로, 다면 평가 시스템은 앞선 방법론의 결과를 통합하여 최종적인 AI 리터러시 수준을 판정한다. Ng 외(2024)의 연구에서 동료 평가, 자기 평가, 교수 평가를 결합한 ABCE 기반 다면 평가는 개별 평가 대비 측정 타당도를 18% 향상시킨 바 있다. 설문 하나만으로 평가하기에는 다차원적 특성이 강한 것이 AI 리터러시이기 때문이다.

<strong>평가 혁신을 통한 교육 생태계의 변화</strong>

제안한 통합적 측정 방법론은 단순한 평가 도구를 넘어 고등교육 정책 전반의 패러다임 전환에 도움이 될 것으로 사료된다. AI 리터러시 교육과 평가 체계의 도입은 곧 AI 시대 교육의 실질적 시작을 의미하기 때문이다.

첫째, 대학 평가 체계에 AI 리터러시 지표를 포함하는 것은 더 이상 선택이 아닌 필수가 되었다. 앞서 제안한 여러 측정 방법론이 대학 기본역량진단과 연동될 때 교육 현장의 실질적 변화를 이끌어낼 수 있을 것이다. 구체적으로 교양교육 영역에서 ‘AI 협력적 문제해결 역량’ 지표를 신설하고, 학과별 전공역량 평가에 ‘AI 활용을 통한 전문성 개발’ 항목을 포함하는 방안을 예로 들 수 있다. 이때 정량적 지표와 정성적 지표를 균형 있게 배치하여 의미 있는 교육 개선을 유도할 수 있을 것이다.

둘째, 산학협력 기반 측정 도구 개발이 시급하다. Falebita와 Kok(2025)에 따르면 대학생들의 AI 기술 준비도와 자기효능감이 실제 AI 활용 능력과 유의미한 상관관계를 보였다. 그리고 온톨로지 기반 역량 구조화 시스템의 구축을 위해서는 각 산업 분야에서 실제로 요구되는 AI 활용 역량의 구체적 정의와 위계 구조가 필요하며, 이는 지속적인 산학협력을 통해서만 달성 가능하다.

셋째, 교수자 역량 강화가 전체 시스템 성공의 핵심이다. AI를 활용하는 것을 넘어서서, 무엇을 가르치고, 무엇을 평가할지. 흔들리지 않는 과정 중심 평가 철학과 다면 평가 운영 방법에 대한 체계적 연수가 필요하다.

<strong>결론: 측정이 이끄는 교육의 미래</strong>

본 브리프에서 제안한 AI 리터러시 측정과 평가는 고등교육 생태계 전반의 근본적인 변화를 견인하는 동력으로 기능할 수 있을 것으로 본다. Brown(2019)의 통찰처럼, 우리가 무엇을 어떻게 평가하느냐가 학생들의 학습 방향을 결정한다. 제안한 방법론—진단 도구, 포트폴리오 평가, 온톨로지 기반 체계화, 자연어 처리 분석—의 통합적 운영은 무언가를 측정하는 것을 넘어 AI 시대 인재 양성의 실질적 동력이 될 것이다.

결과가 아닌 과정을, 산출물이 아닌 사고를 평가하는 새로운 접근은 암기와 재생산 중심 교육에서 창의와 협력 중심 교육으로의 전환을 가능하게 한다. 이는 메타와 같은 글로벌 기업들이 AI 역량을 핵심 인사 지표로 활용하기 시작한 현실적 요구에 부응하는 동시에, 인간과 AI가 공존하는 미래 사회를 위한 교육의 새로운 비전을 제시할 수 있다.

그리고 무엇보다 중요한 것은 이러한 측정 체계가 학습자를 선별하고 배제하는 도구가 아니라, 모든 학습자가 자신만의 속도와 방식으로 AI 시대 역량을 개발할 수 있도록 지원하는 도구가 되어야 한다는 점이다. 적어도 AI 리터러시에 대한 평가가 AI와 관련된 주요 학습을 주도한다면, 포용적이고 개인화된 AI 리터러시 평가야말로 모든 이를 위한 AI 교육의 시작이 될 것이다.

참고문헌

Almatrafi, O., Johri, A., &amp; Lee, H. (2024). A systematic review of AI literacy conceptualization, constructs, and implementation and assessment efforts (2019–2023). Computers and Education Open, 6, 100173.

Black, P., &amp; Wiliam, D. (1998). Assessment and classroom learning. Assessment in Education: principles, policy &amp; practice, 5(1), 7-74.

Brown, G. T. (2019, June). Is assessment for learning really assessment?. In Frontiers in education (Vol. 4, p. 64). Frontiers Media SA.

Elshall, A. S., &amp; Badir, A. (2025, June). Balancing AI-assisted learning and traditional assessment: the FACT assessment in environmental data science education. In Frontiers in Education (Vol. 10, p. 1596462). Frontiers Media SA.

Falebita, O. S., &amp; Kok, P. J. (2025). Artificial intelligence tools usage: A structural equation modeling of undergraduates’ technological readiness, self-efficacy and attitudes. Journal for STEM Education Research, 8(2), 257-282.

Hackl, V., Mueller, A., &amp; Sailer, M. (2025). The AI Literacy Heptagon: A Structured Approach to AI Literacy in Higher Education. arXiv preprint arXiv:2509.18900.

<u>Jin, Y., Martinez-Maldonado, R., Gašević, D., &amp; Yan, L. (2025). GLAT: The generative AI literacy assessment test. Computers and Education: Artificial Intelligence, 9, Article 100436. </u>

Lintner, T. (2024). A systematic review of AI literacy scales. npj Science of Learning, 9(1), 50.

Long, D., &amp; Magerko, B. (2020, April). What is AI literacy? Competencies and design considerations. In Proceedings of the 2020 CHI conference on human factors in computing systems (pp. 1-16).

Markus, A., Carolus, A., &amp; Wienrich, C. (2025). Objective Measurement of AI Literacy: Development and Validation of the AI Competency Objective Scale (AICOS). arXiv preprint arXiv:2503.12921.

Ng, D. T. K., Wu, W., Leung, J. K. L., Chiu, T. K. F., &amp; Chu, S. K. W. (2024). Design and validation of the AI literacy questionnaire: The affective, behavioural, cognitive and ethical approach. British Journal of Educational Technology, 55(3), 1082-1104.

Soto-Sanfiel, M. T., Angulo-Brunet, A., &amp; Lutz, C. (2025). The scale of artificial intelligence literacy for all (SAIL4ALL): assessing knowledge of artificial intelligence in all adult populations. Humanities and Social Sciences Communications, 12, Article 1618.
<p class="a0"><b><i>디지털사회(Digital Society)는 연세대학교 디지털사회과학센터(Center for Digital Social Science)에서 발행하는 이슈브리프입니다. 디지털사회의 내용은 저자 개인의 견해이며, 디지털사회과학센터의 공식입장이 아님을 밝힙니다.</i></b></p>]]></description>
			<author><![CDATA[ssk]]></author>
			<pubDate>Mon, 05 Jan 2026 14:21:00 +0000</pubDate>
			<category domain="http://cdss.yonsei.ac.kr/?kboard_redirect=1"><![CDATA[Issue Brief]]></category>
		</item>
				<item>
			<title><![CDATA[디지털사회 제68호: ﻿﻿인권 담론 내 미-중 규범 경합의 양상과 디지털 규범 질서에 대한 함의]]></title>
			<link><![CDATA[http://cdss.yonsei.ac.kr/?kboard_content_redirect=224]]></link>
			<description><![CDATA[<p style="text-align:center;"><b>인권</b><b> </b><b>담론 내</b><b> </b><b>미</b><b>-</b><b>중</b><b> </b><b>규범 경합의 양상과</b><b> </b><b>디지털</b><b> 규범 </b><b>질서에</b><b> </b><b>대한</b><b> </b><b>함의</b></p>
<b> </b>
<p style="text-align:right;"><b>이소나(고려대)</b></p>
 

<b>파편화된</b><b> </b><b>국제</b><b> </b><b>규범</b><b> </b><b>질서</b>

인권은 현재 국제 질서의 핵심 기제로 자리 잡았으며, 이른바 “문명의 기준”이라 일컬어질 만큼 규범적 근간을 이루고 있다 (Donnelly 1998). 국가는 인권 규범을 준수함으로써 정당성을 부여받고, 이러한 고차원적 도덕 가치를 공유한다는 점에서 서로를 같은 공동체의 일원으로 인식하게 된다. 이는 곧 “국제 사회”라는 개념의 성립을 가능케 한다 (Ambrosio 2010).

그러나 인권은 추상적이고 다양한 규범들로 이루어져 있다. 즉, 다양한 인권 규범 간의 우선순위, 해석의 기준, 행위 판단 및 평가의 적용 방식에 대해서는 이견이 존재한다 (Rushton 2008; Ginsburg 2020; Renouard 2020; Terman and Búzás 2021). 국가들은 크게 인권의 자유주의적 해석과 비자유주의적 해석을 옹호하는 두 진영으로 양분된다. 전자에 속하는 국가들은 표현의 자유, 자기결정권, 법치 등과 같이 자유주의 민주주의가 중시하는 개인의 시민적정치적인 자유와 권리에 방점을 둔다 (von Stein 2013). 이들은 인권을 국가 권력이 침해할 수 없는 보편적인 가치로 규정한다 (Kinzelbach 2012; Yang 2017; Chen and Hsu 2021; Goddard et al. 2024). 반면, 후자의 국가들은 국가 주권을 강조하며 사회경제적인 발전의 우선성을 주장한다. 이들은 국가가 생존적인 기반을 마련해주어야만 개인이 자유와 권리를 온전히 누릴 수 있다는 논리를 펼친다 (Sceats and Breslin 2012; Foot 2014; Weiss 2019; Lu 2023).

이러한 국제 규범 질서의 파편화는 어떤 양상을 띠며, 그 심각성은 어느 정도인가? 또한, 이를 통해 국제 질서의 미래에 던지는 함의는 무엇인가? 이를 실증적으로 파악하기 위한 유효한 자료 중 하나는 미국과 중국과 같은 국가들이 “권리(rights)”와 같은 인권 규범을 어떠한 맥락에서 활용하는지 분석하는 것이다. 즉, 현재 국제 질서에서 큰 영향력을 행사하는 두 국가가 인권을 논할 때 함께 쓰이는 단어와 그 수사적 전략(rhetoric strategy)을 파악하고, 이를 통해 인권 영역을 넘어 국제 질서 전반에 대한 시사점도 가늠해 보고자 한다.

<b>미국과 중국의 인권 해석: 전략적 차이</b>

미국은 인권의 자유주의적인 해석을 표방한다 (이 글에서 분석 대상 기간은 2008년에서 2021년까지를 기준으로 한다). 유엔 회원국들이 서로의 인권 현황에 대한 권고사항(recommendations)을 주고받는 ‘보편적 정례인권검토(Universal Periodic Review, 이하 UPR)’에서 미국이 작성한 권고사항은 이러한 입장을 명확히 보여준다. 미국은 “권리”를 언급할 때, 표현의 자유 증진과 국제법 준수를 위한 구체적인 방안을 권고하는데, 이는 자유주의 국제질서의 규범적 근간을 옹호하고 강화하기 위함이다. 주목할 점은 이러한 규범 활용 행태가 상대국의 정치 체제와 무관하게 일관성을 유지한다는 것이다. 비민주주의 국가들에 대한 어조가 다소 강하긴 하지만, 궁극적으로는 인권 규범의 자유주의적 해석을 반복하여 강조하고 수호하려는 노력을 엿볼 수 있다.

예컨대, UPR 제2주기에 미국은 일본에게 “성소수자의 권리 보호를 위한 포괄적 차별금지법을 입법하고 이행하라”고 권고하였다. 이는 1주기에 미국이 북한에게 “국내 인권 기구를 설립하고, 이를 준비하기 위해 ICCNI의 인가 및 OHCHR의 기술 지원을 수용하라”는 권고와 법적제도적 체계 확립을 주문했던 맥락과 일맥상통한다.

반면, UPR 권고사항을 통해 본 중국은 상대국에 따라 “권리”의 맥락을 달리하는 이중 전략을 구사한다. 우선, 중국은 자국과 가치를 어느 정도 공유하는 비민주주의 국가들에는 국가 주권과 경제 발전을 중시하는 반자유주의적인 맥락에서 인권 규범을 적극적으로 사용한다. 이는 중국이 옹호하는 인권 규범의 해석에 대한 지지세력을 규합하려는 의도이다. 유엔 등 국제 무대에서 중국이 표방하는 목표는 “신흥 규범 강대국(emerging normative power)”이 되는 것이다 (UN 2019). 이는 물리적 힘이 아닌 규칙과 가치를 통해 영향력을 행사하는, 기존 강대국보다 우월한 지도자가 되겠다는 포부이다. 동시에, 현재 국제 질서 내부에서 변화를 불러일으키는 것이 중국에게는 가장 효과적인 전략임을 시사한다.

즉, 중국은 인권 규범의 자유주의적 해석에 대안을 제시하여 지지자를 결집시키는 한편, 기존 해석을 지지하는 국가들의 정당성을 훼손하는 전략을 취한다. 중국이 민주주의 국가들에게 전달하는 UPR 권고사항에서 오히려 자유주의적 해석을 차용하는 모습이 이를 뒷받침한다. 이른바 ‘자유주의 파수꾼(liberal watchdog)’을 자처하는 것이다.

예컨대, 중국이 UPR 제1, 2주기에 미국과 독일에 전달한 권고사항은 각각 민주주의 국가들이 여전히 국제 인권 조약을 비준하지 않거나, 이민자 및 소수 집단과 같은 취약 계층(vulnerable groups)에 대한 보호를 소홀히 했다는 점을 집중적으로 강조한다. 이러한 경합 전략은 민주주의 국가의 위선을 폭로하면서 그들이 옹호하는 자유주의 국제 질서 자체의 정당성에도 의문을 제기하고, 되레 중국이 국제 규범 질서를 이끌고 관리할 수 있는 지도자로서의 정당성을 확보한다는 측면에서 효과적이다.

<b>디지털 공간으로의 규범 경합 확장 및 시사점</b>

여기에서 흥미로운 점은, 인권 분야에서의 담론 및 규범 경합의 구도와 논리가 디지털 분야에도 그대로 투영된다는 사실이다. 미국은 인터넷과 같은 디지털 공간을 개방적이고 자유로운 영역으로 규정하며 시민 사회의 역할을 중시한다. 반면, 중국은 디지털 거버넌스에 방점을 두고, 국내 사회 안정에 위협이 되는 불확실성을 통제하기 위해 국가의 디지털 주권을 최우선 가치로 내세운다 (Hulvey 2021).  디지털 공간은 역사가 짧아 아직 규범이 성숙 단계에 이르지 못했고, 인권 분야처럼 경합의 심도 또한 깊지 않다. 그렇기 때문에 오히려 인권 분야에서 나타난 미-중 간의 경합 패턴이 반복될 개연성이 매우 높다.

그렇다면, 국제 규범 질서의 파편화와 중국의 정교한 이중 경합 전략이 시사하는 바는 무엇인가? 우선적으로 고려해야 할 사항은 바로 현재 국제 인권 체제의 취약성이다. 유엔 산하의 국제 인권 체제는 유엔 총예산의 1% 미만으로 운영되며, 이마저도 주요 회원국들의 재정 지원 중단이나 미참여와 같은 위협으로 안정성이 보장되지 않는다 (David 2025). 파편적인 질서에 관심과 재정 기반의 결여까지 더해진다면, 이는 곧 힘의 공백으로 이어져 소수의 적극적인 국가들이 인권 규범의 정의와 적용, 즉 “문명의 기준”을 재정립할 위험을 높인다. 곧, 국제 질서 전반을 지탱하는 가치관이 변화한다는 의미이고, 나아가 새로운 국제 질서의 출현을 예고하는 신호가 될 수 있다. 이러한 상황에서 디지털 공간에서의 규범 경합은 한쪽의 손쉬운 승리로 끝날 수도 있다. 물론, 규범 경합이 반드시 승자와 패자를 낳는 것은 아니다. 경합을 통해 규범의 해석이 풍부해지고 적용 범위가 긍정적 발전으로 이어질 수도 있다 (Linsenmaier et al. 2021). 그러나 파편화가 양극화가 아닌 다양화라는 보다 긍정적인 결과로 이어지기 위해서는 다음 두 가지 과제를 고민하고 해결해야 한다.

첫째, 중국의 자유주의적 파수꾼 전략에 대한 대응력을 강화해야 한다. 앞서 언급하였듯이 중국은 민주주의 국가의 위선을 공략하여 민주주의, 나아가서는 자유주의 국제 질서의 정당성을 손상시키려 한다. 이에 대한 가장 효과적인 방어책은 인권 관련 관행을 일관적이고 건강하게 유지하는 것이다. 이는 자국의 취약점을 선제적이고 투명하게 인정하는 태도를 포함한다. 중국이 민주주의의 과오를 무기화하기 전에 스스로 이를 도전 과제로 설정하고 실행 가능한 개선책을 제시한다면, 위선 논리로 국제 질서의 정당성을 공격하는 중국의 전략을 무력화할 수 있다.

둘째, 파편화된 핵심 인권 규범의 해석을 중재하고 연계하는 시도가 필요하다. 인권을 국가 주권 중심의 사회경제적 발전을 우선시하는 개념으로 재정의하려는 중국의 시도는 상당한 성과를 거두고 있다. 다수의 국가가 비자유주의적 맥락에서 인권을 이해하고 활용하는 것이 현실이다 (Terman and Búzás 2021). 이러한 상황에서 일방적으로 자유주의적 맥락만을 고집하는 것은 중국의 대안적 해석에 관심을 가지고 동조하는 국가들을 소외시킬 뿐이다. 정치적시민적 자유와 권리들이 경제 발전과 상충하는 것이 아니라 상호 보완적인 개념임을 설득해야 한다. 인권 담론 내 ‘발전’이라는 의제가 다층적 주제들을 포괄하며, 현재의 인식보다 훨씬 덜 편향적인 개념이라는 인식을 확산시킬 필요가 있다.

우리는 이 두 가지 과제를 안고, 숙의와 합의에 기반한 국제 규범 질서를 세우는 데 뜻을 같이하는 국가들과의 협력 방안을 모색해야 한다. 이러한 노력이 곧 디지털 공간에서의 규범 경합 환경을 조성하는 토대가 됨을 기억해야 한다.

 

*이 글은 저자의 박사학위논문 &lt;China’s Engagement in the International Order: Through Human Rights Norms, Currency Adoption, and Security Rhetoric&gt; (2024)의 일부를 이슈브리프에 맞추어 요약하여 재구성한 것입니다.

 

Ambrosio, T. (2010). Constructing a Framework of Authoritarian Diffusion: Concepts, Dynamics, and Future Research. <i>International Studies Perspectives</i>, 11(4):375–392.

Donnelly, J. (1998). Human Rights: A New Standard of Civilization? <i>International Affairs</i>, 74(1):1–23.

Chen, T. C. and Hsu, C. (2021). China’s Human Rights Foreign Policy in the Xi Jinping Era: Normative Revisionism Shrouded in Discursive Moderation. <i>The British Journal of Politics and International Relations</i>, 23(2):228–247.

David, R. V. (2025). New ISHR report reveals how governments work behind the scenes to defund the UN’s human rights work. <i>International Service for Human Rights</i>. <u>https://ishr.ch/latest-updates/new-ishr-report-reveals-how-governments-work-behind-the-scenes-to-defund-the-uns-human-rights-work/</u>.

Foot, R. (2014). ‘Doing Some Things’ in the Xi Jinping Era: The United Nations as China’s Venue of Choice. <i>International Affairs</i>, 90(5):1085–1100.

Ginsburg, T. (2020). Authoritarian International Law? <i>American Journal of International Law</i>, 114(2):221–260.

Goddard, S. E., Krebs, R. R., Kreuder-Sonnen, C., and Rittberger, B. (2024). Contestation in a World of Liberal Orders. <i>Global Studies Quarterly</i>, forthcoming.

Hulvey, R. (2021). Cyber Sovereignty: How China is Changing the Rules of Internet Freedom. <i>IGCC Working Paper No 2</i>. <u>escholarship.org/uc/item/7sg3716k</u>.

Kinzelbach, K. (2012). An Analysis of China’s Statements on Human Rights at the United Nations (2000–2010). <i>Netherlands Quarterly of Human Rights</i>, 30(3):299–332.

Linsenmaier, T., Schmidt, D. R., and Spandler, K. (2021). On the Meaning(s) of Norms: Ambiguity and Global Governance in a Post-Hegemonic World. <i>Review of International Studies</i>, 47(4):508–527.

Lu, L. (2023). Be My Friendly Reviewers: How China Shapes the International Human Rights Regime. Working Paper. <u>https://gsipe-workshop.github.io/files/GSIPE_Lu_04052023.pdf</u>.

Renouard, J. (2020). Sino-Western Relations, Political Values, and the Human Rights Council. <i>Journal of Transatlantic Studies</i>, 18(1):80–102.

Rushton, S. (2008). The UN Secretary-General and Norm Entrepreneurship: Boutros Boutros-Ghali and Democracy Promotion. <i>Global Governance</i>, 14(1):95–110.

Sceats, S. and Breslin, S. (2012). <i>China and the International Human Rights System</i>. Chatham House (The Royal Institute of International Affairs), London, UK.

Terman, R. and Búzás, Z. I. (2021). A House Divided: Norm Fragmentation in the International Human Rights Regime. <i>International Studies Quarterly</i>, 65(2):488–499.

von Stein, J. (2013). Compliance with International Law. In Dunoff, J. L. and Pollack, M. A., editors, <i>Interdisciplinary Perspectives on International Law and International Relations: The State of the Art</i>, pages 591–610. Cambridge University Press, New York, NY.
<p class="p1">UN Document A/HRC/40/NGO/140 (20/02/2019).</p>
Weiss, J. C. (2019). A World Safe for Autocracy? China’s Rise and the Future of Global Politics. <i>Foreign Affairs</i>, 98(4):92–108.

Yang, X. (2017). The Anachronism of a China Socialized: Why Engagement Is Not All It’s Cracked Up to Be. <i>The Chinese Journal of International Politics</i>, 10(1):67–94.

 
<p class="a0"><b><i>디지털사회(Digital Society)는 연세대학교 디지털사회과학센터(Center for Digital Social Science)에서 발행하는 이슈브리프입니다. 디지털사회의 내용은 저자 개인의 견해이며, 디지털사회과학센터의 공식입장이 아님을 밝힙니다.</i></b></p>
 

 ]]></description>
			<author><![CDATA[ssk]]></author>
			<pubDate>Wed, 17 Dec 2025 14:04:27 +0000</pubDate>
			<category domain="http://cdss.yonsei.ac.kr/?kboard_redirect=1"><![CDATA[Issue Brief]]></category>
		</item>
				<item>
			<title><![CDATA[디지털사회 제67호: ﻿디지털 기술의 사회적 수용과 측정]]></title>
			<link><![CDATA[http://cdss.yonsei.ac.kr/?kboard_content_redirect=223]]></link>
			<description><![CDATA[<p style="text-align:center;"><b>디지털 기술의 사회적 수용과 측정</b></p>
 
<p style="text-align:right;"><b>권은낭</b><b>(KAIST </b><b>디지털인문사회과학센터</b><b>)</b></p>
 

<b>디지털 기술의 사회적 수용</b>

21세기에 들어서며 가속화된 디지털 기술의 발전은 인류 사회에 큰 변혁을 가져오고 있다. 특히 인공지능(AI)을 비롯한 첨단 디지털 기술은 단순히 기술적 진보를 넘어 사회 구조와 경제 시스템 그리고 문화에 이르기까지 광범위한 영향을 미쳤다. 이러한 디지털 전환(digital transformation)은 사회 전반에 거쳐 전례 없는 기회를 확장하는 동시에 우리가 이전에 경험하지 못했던 새로운 형태의 위험을 야기하는 디지털 기술의 양면성을 보이며 기회와 위험을 공존하게 한다. 디지털 기술은 개인화된 맞춤형 정보와 서비스 제공을 통해 생산성과 효율성을 획기적으로 향상시켰으며, 정보 접근성을 높이고 지리적·경제적 제약으로 인한 교육 격차 해소에 기여하고 있다. 그러나 디지털 기술 발전의 혜택은 모든 개인과 집단에게 균등하게 분배되지 않는다. 기술 접근성, 디지털 리터러시 등의 차이에 따라 기술 혜택을 누리는 집단과 소외되는 집단 간의 간극이 확대되며 사회적·경제적 불평등을 심화시킬 가능성이 있다. 또한 디지털 기술은 정보의 생산과 유통 방식에 큰 변화를 가져왔는데, 이 과정에서 허위정보의 확산과 편향된 정보를 선택적으로 취하면서 생기는 양극화 문제, 개인정보 보호와 프라이버시 침해 등은 디지털 기술로 인한 위험으로 제기되고 있다.

 

이처럼 디지털 기술이 삶의 질에 미치는 다차원적인 영향을 체계적으로 이해하기 위해 OECD(2019)에서는 디지털 기술의 영향을 12개 영역으로 구분하여 각 영역에서의 기회와 위협 요인을 제시하고 있다. 예를 들어, ‘직업과 소득’ 영역에서 디지털 기술의 발달은 개발자 등의 새로운 직업을 창출하는 기회를 제공하지만, 전화 상담원 같은 특정 직군을 대체하여 실업 문제를 야기하는 위협요인이 될 수 있다. 이와 같은 예시는 디지털 기술의 발달이 모든 개인과 집단에게 일률적으로 긍정적인 영향을 미치는 것이 아니라, 특정 영역에서는 일부 집단이 소외되거나 위협을 받을 수 있음을 시사한다.

 

디지털 기술 중에서도 특히 급격한 발전을 보이고 있는 AI 기술의 경우 해당 기술의 영향력과 위험성을 고려하여 여러 국가와 기구에서 윤리 기준을 마련하고 있다. 미국 국방부(U.S. Department of Defense, 2020)는 2020년 책임성(responsibility), 형평성(equitability), 추적 가능성(traceability), 신뢰성(reliability), 통제 가능성(governability) 이라는 5가지 AI 윤리 원칙을 제시했다. 유네스코(UNESCO, 2021)는 2021년 ‘AI 윤리에 대한 권고(Recommendation on the Ethics of Artificial Intelligence)’를 채택하였으며, 유럽 연합(European Union, 2024)은 2024년 세계 최초로 ‘AI 규제법(AI Act)’을 통과시켰다. 대한민국도 이러한 국제적 흐름에 발맞춰 과학기술정보통신부(과학기술정보통신부, 2020)는 2020년 ‘사람이 중심이 되는 인공지능(AI)’을 발표하여 윤리 기준을 제시했으며, 이를 실행하기 위한 전략과 추진 과제를 지속적으로 마련해 왔다. 이러한 노력이 이어져 2024년 대한민국 국회에서 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법’이 가결되었으며, 2026년 1월 시행을 앞두고 있다. 일명 ‘AI 기본법’이라고 불리는 이 법은 “인공지능의 건전한 발전과 신뢰 기반 조성에 필요한 기본적인 사항을 규정함으로써 국민의 권익과 존엄성을 보호하고 국민의 삶의 질 향상과 국가경쟁력을 강화하는 데 이바지함을 목적”으로 하고 있다.

 

이러한 변화에 발맞추어 디지털 기술에 대한 학계의 심층적인 관심이 필요하다. 디지털 기술에 대한 균형적이고 올바른 사회적 수용을 촉진하기 위해서는 기술로 인해 발생하는 사회적 기회와 위협 요인을 면밀히 분석하고, 다양한 사회 집단 간 인식 차이를 반영한 맞춤형 해결책을 모색할 필요가 있다. 먼저 AI 기술이 가져오는 사회적 영향을 체계적으로 측정하고 평가할 수 있는 지표와 방법론 개발이 필요하다. 2022년 OpenAI의 ChatGPT 출시를 시작으로 급격히 발전한 생성형 AI 기술은 이전의 기술과는 다른 차원의 사회적 영향을 미치고 있다. 이에 따라 기존의 디지털 기술과 구별되는 AI 기술의 특성을 고려하여 개인과 사회에 미치는 기회와 위협요인을 새롭게 탐색하고, 각 요인별로 집단의 사회적 수용도를 살펴보는 것이 필요하다. 디지털 격차에 대한 지금까지의 연구가 주로 접근성과 활용 차원에 초점을 맞춰왔다면 AI 시대에서는 AI 윤리 인식, AI 시스템과의 상호작용 역량 등을 포괄하는 개념화가 필요하며 단순히 기술의 사용 여부나 빈도를 넘어 기술 활용이 실제 개인과 사회에 어떠한 영향을 미치는지를 종단적으로 추적할 필요가 있다. 더 나아가 AI 디지털 격차를 해소하고 기술 혜택이 모든 사회 구성원에게 균등하게 제공될 수 있는 정책적 방안을 수립할 것을 제언한다. 새롭게 등장한 디지털 기술에 대한 교육 계획은 디지털 격차 해소를 위한 하나의 방안이 될 것이다. AI 기술에 대한 윤리 기준을 종합한 이용 가이드라인을 구축하여 사회 집단별 리터러시 교육을 제공함으로써 기술 활용에서 발생하는 문제점을 해결하고 집단 간 사용 격차를 해결할 수 있을 것이다. 또한 AI 시스템이 특정 집단에 편향되지 않도록 개발 단계에서부터 다양성을 고려해야 하며, AI 정책 수립과정에서도 다양한 집단을 포용하는 것이 필요하다.

 

<b>사회인구학적 집단별 디지털 기술 인식 측정을 위한 방법론적 접근</b>

그렇다면 디지털 기술에 대한 사람들의 인식은 어떻게 측정할 수 있을까? 디지털 기술의 사회적 수용도는 다양한 방식으로 측정 가능하지만, 디지털 기술의 활용 경험을 여러 차원으로 분해하여 각 요인이 개인에게 기회 또는 위협으로 인식되는지에 대한 정도로 측정할 수 있다. 사회인구학적 배경에 따른 디지털 기술의 기회와 위협에 대한 인식 차이 연구는 동일한 기술이 서로 다른 집단에게 상이한 의미로 다가올 수 있다는 점을 체계적으로 이해할 수 있게 한다. 즉 연령, 성별, 교육 수준, 소득 계층 등 사회인구학적 변수에 따라 동일한 디지털 기술이 어떤 집단에게는 새로운 기회로 인식되는 반면, 다른 집단에게는 사회적 배제를 발생시키는 위협으로 다가올 수 있다는 것이다. 이러한 집단별 인식 차이의 파악은 기회의 강화와 위협의 감소를 위한 맞춤형 정책 대응 방안을 수립하는 데 있어 기초 자료를 제공할 것이다. 디지털 기술, 특히 AI 기술에 대한 기회와 위협 요인을 체계적으로 검토하기 위해서는 국내외에서 마련된 AI 윤리 기준을 참고할 수 있다. 이러한 윤리 기준들은 AI 기술이 개인과 사회에 미칠 수 있는 영향에 대해 검토하며 디지털 기술의 활용 과정에서 고려해야할 구체적인 쟁점들을 반영하고 있다. 대표적으로 대한민국의 ‘사람이 중심이 되는 인공지능(AI) 윤리기준’에서는 10대 핵심 요건으로 인권보장, 프라이버시 보호, 다양성 존중, 침해금지, 공공성, 연대성, 데이터 관리, 책임성, 안전성, 투명성을 제시하고 있다. 이러한 10대 핵심 요건을 포함해 시민들에게 작용할 요인들에 대한 다각도의 고민이 필요하며, 이론적 통합을 바탕으로 시민들에게 다가올 디지털 기술의 기회와 위협 요인을 선정하여 실증적 조사가 필요함을 제안한다.

 

구체적인 연구 방법론으로는 대규모 설문조사를 통해 디지털 기술에 대한 시민들의 사회적 수용도를 측정할 수 있다. 이때 단순히 활용 빈도나 일반적인 만족도를 묻는 것을 넘어 앞서 도출한 개별 기회 및 위협 요인을 어떻게 인식하는지를 세밀하게 측정하는 것이 중요할 것이다. 수집된 데이터에 대해서는 통계적 분석을 시도할 수 있다. 요인 분석(factor analysis)을 활용하여 다양한 측정 항목들이 어떤 잠재적 차원으로 수렴되는지 규명할 수 있으며, 회귀분석(regression analysis) 등의 분석 기법을 활용하여 디지털 기술의 사회적 수용에 영향을 미치는 주요 변수를 규명할 수 있다. 또한 사회인구학적 변수를 반영한 군집분석(cluster analysis) 등을 통해 응답자들을 유사한 특성을 가진 집단으로 분류하고 각 집단이 보이는 수용 패턴과 특성을 이해할 수 있다. 한편 여러 기회 및 위협 요인들 중에서 시민들이 가장 우선적으로 해결해야 한다고 인식하는 것이 무엇인지를 파악하는 것도 정책적으로 중요한 함의를 갖는다. 이를 위해 쌍대비교 질문 기법(pairwise comparison)을 활용할 수 있다(임정재·조지연·강정한, 2021; Han et al, 2024). 이 방법은 여러 요인 중 두 개를 무작위로 짝지어 제시한 뒤 둘 중 더 중요하다고 생각하는 것을 선택하게 하는 방식으로, 이러한 접근은 기존의 리커트 척도(Likert scale)나 순위 매기기 방식 등에서 발생할 수 있는 인지적 왜곡이나 응답 편향을 완화시켜 우선순위를 더 명확하게 파악할 수 있다는 장점이 있다.

 

여러 방법론적 접근을 종합적으로 활용한다면 조사 결과를 다층적으로 분석하여 주요 응답 패턴과 유형을 도출할 수 있다. 또한 세부적으로 연령, 성별, 소득 등의 인구통계학적 변수에 따른 수용도의 차이를 비교 분석함으로써 집단별 디지털 격차의 구체적 양상을 파악할 수 있다. 예를 들어, 청년층은 AI로 인한 일자리 대체 위협을 가장 크게 느끼는 반면, 고령층은 기술 활용의 어려움과 사회적 소외에 대한 우려가 클 수 있다. 여성과 남성 간에도 프라이버시 침해나 알고리즘 편향에 대한 민감도가 다를 수 있으며 저소득층은 디지털 기기와 서비스 접근성 문제를 더 심각하게 인식할 수 있다. 이는 단순히 디지털 격차의 존재를 확인하는 것을 넘어서 각 집단이 직면한 고유한 기회와 위협 요인을 구체적으로 이해하고, 이에 기반한 차별화된 정책적 개입 방안을 모색할 수 있게 한다. 집단별 분석을 통해 도출된 함의는 디지털 기술의 균형적 수용을 촉진하고 디지털 격차를 해소하기 위한 실효성 있는 정책적 접근 방안을 제시하는 데 근거를 제공할 것이다. 결국 AI 기술이 진정한 사람 중심의 디지털 기술로 자리 잡기 위해서는 경제적 효율성과 기술적 성과 추구를 넘어, 그 과정에서 발생하는 윤리적 갈등을 해결하고 인간의 사회적 적응을 적극적으로 지원하는 것이 필요함을 제언한다.

 

<b>참고문헌</b>

과학기술정보통신부, (2020), <i>사람이 중심이 되는 인공지능</i><i>(AI)</i>.

임정재, 조지연, 강정한. (2021). 사회문제 간 우선순위 파악을 위한 쌍대비교 선택형 응답실험. <i>한국사회학</i><i>, </i>55(2), 141-169.

European Union, (2024), <i>The Act Texts.</i>

Han, D., Kwon, E. R., &amp; Kang, J. H. (2024). <i>Opportunities and Threats of Digital Transformation on Quality of Life: People's Perception in South Korea. </i>2024 WAPOR Conference.

Krosnick, J. A. (1991). Response strategies for coping with the cognitive demands of attitude measures in surveys. <i>Applied Cognitive Psychology,</i> 5(3), 213-236.

OECD, (2019), <i>How’s Life in the Digital Age?. </i>

UNESCO, (2021), <i>Recommendation on the Ethics of Artificial Intelligence</i>.

U.S. Department of Defense, (2020), <i>DOD Adopts 5 Principles of Artificial Intelligence Ethics. </i>

 

<b><i>디지털사회</i></b><b><i>(Digital Society)</i></b><b><i>는 연세대학교 디지털사회과학센터</i></b><b><i>(Center for Digital Social Science)</i></b><b><i>에서 발행하는 이슈브리프입니다</i></b><b><i>. </i></b><b><i>디지털사회의 내용은 저자 개인의 견해이며</i></b><b><i>, </i></b><b><i>디지털사회과학센터의 공식입장이 아님을 밝힙니다</i></b><b><i>.</i></b>

 ]]></description>
			<author><![CDATA[ssk]]></author>
			<pubDate>Mon, 17 Nov 2025 20:29:50 +0000</pubDate>
			<category domain="http://cdss.yonsei.ac.kr/?kboard_redirect=1"><![CDATA[Issue Brief]]></category>
		</item>
				<item>
			<title><![CDATA[디지털사회 제66호: ﻿AI 강국은 사상누각: 한국 디지털 미래의 위기와 혁신 과제]]></title>
			<link><![CDATA[http://cdss.yonsei.ac.kr/?kboard_content_redirect=222]]></link>
			<description><![CDATA[<p style="text-align:center;"><b>AI </b><b>강국은 사상누각</b><b>: </b><b>한국 디지털 미래의 위기와 혁신 과제</b></p>
 
<p style="text-align:right;">윤상필(고려대)</p>
 

한국이 위기에 빠졌다. AI 3강 노린다며 해외 언론이나 컨설팅기업이 매기는 AI 경쟁력 순위에 일희일비할 때가 아니다. 이대로 가다가는 전자정부 1등 국가, 세계 1위 IT 강국이라는 명성도 잃을 판이다. 남들이 우리를 어떻게 보든지 간에 근본적인 보안 문제를 해결하지 못하면 다가오는 디지털 미래에는 후진국이 될지도 모른다.

2025년 4월 SK텔레콤이 해킹당해 약 2,300만 명의 USIM 정보가 유출된 사실이 밝혀졌다. 해킹 공포에 시민들은 유심칩을 바꾸려고 오픈런을 해야 했다. 2025년 8월부터 서울 서부권에서 KT 가입자들의 휴대폰 무단 소액결제 피해가 보고되더니 10월 중순 기준 피해 인원은 수도권 거주자 362명, 피해 금액은 약 2억 4,000만 원으로 불어났다. 같은 달 롯데카드도 약 28만 명의 카드번호, 유효기간, CVC를 포함해 297만 명의 회원 정보가 유출된 사실을 확인했다. 2025년 8월 우리 정부 내부망 곳곳이 뚫린 사실이 공개됐다. 익명의 화이트해커 2명(Saber, cyb0rg)이 특정 국가의 지원을 받는 것으로 추정되는 해커의 시스템을 해킹해 그 안에 저장된 데이터를 공개하면서 알려진 사실이다. 국군방첩사령부와 검찰, 외교부, 행정안전부, 한국지역정보개발원, 통신사 등을 대상으로 한 피싱 공격 캠페인이 확인됐다. 참고로 지역정보개발원은 모든 공공기관 조직정보와 직원정보가 담긴 정부디렉터리시스템을 관리한다. 외교부 등 공공기관에서 사용하는 메일 서비스 ‘에어즈락(Ayersrock)’ 소스코드, 공무원의 공인인증서인 GPKI 소스코드, 행정안전부 내부 웹보안 시스템 관련 문서들도 유출됐다. 심지어 해커는 정부 내부 업무 시스템인 ‘온나라(통일부 및 해양수산부에 한함)’에 접속하기도 했다. 연세대, 네이버, 카카오 사용자를 대상으로 하는 피싱 사이트도 발견됐다. 2025년 9월에는 국가정보자원관리원 본원 전산실에 화재가 발생했다. 공공기관 업무 시스템과 대국민 공공서비스를 포함해 709개의 정부 서비스가 중단됐다. 10월 14일 18시 기준 297개의 시스템이 복구되었다.

한편, 이재명정부 국정운영 5개년 계획(2025)에 따르면 우리가 구상 중인 AI 미래는 이렇다. AI 3대 강국이라는 전략 아래 AI 컴퓨팅 및 네트워크 인프라를 확충하고 국가 전체 공공민간 데이터 통합 플랫폼을 구축한다. 민관협력 기반으로 독자적인 AI 모델 개발을 지원하고 누구든 AI를 체험할 수 있도록 교육 서비스와 공간을 조성한다. 제조업과 서비스업, 지역특화산업의 AI 전환을 촉진한다. AI 핵심 인재도 양성하고 공장, 로봇, 자율주행, 자율운항선박 등과 연계한 피지컬 AI의 산업 적용을 확대한다. AI로 금융, 식량, 재난 등 리스크를 분석해 국민의 삶을 지키는 사회를 구현한다. 범정부 AI 공통기반을 구현하고 대국민서비스와 정부업무를 AI로 혁신해 세계 1위 AI 정부를 실현한다.

우리뿐만 아니라 전 세계가 이런 미래의 초입에 살고 있다. 이 시점에 굵직한 보안 사고들이 발생한 것은 차라리 다행일지도 모른다. 또 단편적으로 사태만 수습하고 책임질 대상만 찾아 때리고 끝나면 안 된다. 우리의 디지털 세계를 받치고 있는 칩과 시스템, 네트워크 등 물적 인프라와 디지털 세계를 구성하는 소프트웨어에 이르기까지 모든 요소를 바닥부터 재점검해야 한다. 그 안의 생태계도 살펴보고 이해관계도 식별해야 한다. 일하는 방식과 문화는 물론 문제가 되는 법규도 과감히 바꿔야 한다. 이 과정에서 고려해야 하는 문제는 다음과 같다.

첫째, 해킹당했다고 늘 큰 잘못이 있는 것은 아니다. 방대한 데이터 관리자로서의 상당한 주의의무가 있으므로 보안에 힘써야 하지만 진짜 비난의 화살은 해커에게 가야 한다. 특히 오늘날 해킹은 단순한 사이버범죄 수준을 한참 벗어난다. 특정 국가의 전략적 지원을 받은 해커들이 장기간 치밀하게 접근하여 대상 시스템에 침입하고 있다. 국가 수준의 지원이 이루어지니 개별 조직이 혼자 대응할 수 없다. 정부와 기업, 화이트해커들이 협력해 공격자를 추적하고 신원을 식별해 우리 법정에 세울 수 있어야 한다. 국가의 근본적 역할을 바로 세우고 그에 필요한 권한과 자원을 부여해야 한다.

둘째, 해킹당한 자에게 잘못이 없는 것도 아니다. 보안에 대한 인식이 여전히 부족하다. 경영진이 책임져야 한다는 얘기는 예전부터 있었다. SK그룹이 USIM 해킹 사태 이후 정보보호혁신특별위원회를 구성했다. LGU+도 2023년 해킹 이후 CEO 직속 정보보안센터를 운영하고 있다. 거버넌스가 있다고 보안이 강화되는 것도 아니다. 보안 문제에 모든 구성원들이 동참해야 한다. 그런데 사고가 나면 담당자만 자르고 과징금 얼마 내면 끝나는 일이 반복된다. CISO는 정보보호 최고책임자라는 직책이 무색하게 힘이 없고 책임만 크다. 최신 솔루션을 도입해야 한다든지 보안 인력을 늘려야 한다는 요구는 영업이익에 밀린다. 현업 부서에서 보안정책은 그저 불편한 요소다. 보안은 기피 업무가 되고 그래도 버틴 보안 담당자는 사고가 나면 모든 책임을 진다. 이 불합리한 구조를 전면 개혁해야 한다.

셋째, 다자간 통신을 전제로 하는 디지털 기반은 선천적으로 보안에 취약하다. 유기적인 요소들의 집합인 우리 몸에 비유하면 해킹은 질병과 같다. 면역력이 약해지면 세균과 바이러스의 침입을 허용하게 된다. 그러면 세균과 바이러스를 퇴치하고 면역력을 강화해야지 면역체계를 깨부수면 안 된다. 건강을 챙기기 위해 안 좋은 것을 안 먹고 꾸준히 운동하듯이 처음부터 프라이버시와 보안을 고려해 SW를 설계하고 이후에도 보안 교육과 함께 시스템의 취약점을 지속적으로 찾아 개선해야 한다. 스스로도 노력해야겠지만 혼자 찾으려면 힘들다. 화이트해커 등 외부의 도움을 받아야 한다. SW나 시스템의 취약점을 해커들로부터 제보받아 개선하고 제보자를 보상하는 버그바운티와 취약점 공개정책(vulnerability disclosure policy)이 공공과 민간 전역에서 활성화되어야 한다.

내 몸이 혼자 싸우지 못하면 능력 있는 의사의 도움이 필요하다. 다만, 매번 의사가 개입하면 몸이 혼자 싸울 역량을 갖출 수 없다. 마찬가지로 국가지원해커를 추적하고 사이버 위협정보를 공유하며 역량이 부족한 중소기업을 지원하는 일과 같이 공적 권한의 투입이 필요한 경우를 제외하고는 정부가 나서는 일을 줄여야 한다. Taisic Yun et al. (2025)에 따르면 우리 금융 부문에서 의무적으로 설치하도록 요구하고 있는 보안 소프트웨어의 취약점들이 다수 발견되었다. 보안을 고려해 정부가 나서 우리만의 금융 보안소프트웨어 설치를 의무화한 정책이 오히려 비표준 보안소프트웨어의 설치를 강제함으로써 취약한 경로를 지정해 놓고 전 세계에 발표하는 결과를 낳은 셈이다. 모든 일에 정부가 개입하기보다는 시장의 경쟁을 통해 서로 보안 역량을 강화함으로써 신뢰할 수 있는 디지털 공급망과 함께 더 견고한 SW가 시장에 쏟아져 나오는 시대가 되어야 한다.

AI를 중심으로 하는 디지털 미래에는 더 큰 연결성이 형성된다. AI 강국은 견고한 디지털 기반 위에서만 가능하다. 해커 잡는 일은 애초에 포기하고 해킹당한 조직만 때려잡는 전략, 보안 업무는 보안 부서가 해야 한다는 생각, 배터리 교체하다가 정부 시스템이 마비되는 상황은 곤란하다. 범국가적 혁신을 위해 힘과 자원을 가진 정부와 기업이 나서야 한다.

 

<b>참고문헌</b>

 

고려대학교 정보보호대학원 (2025). “APT-Down Revisited: 국가지원해킹그룹 해킹자료 분석 및 시사점”, https://security.korea.ac.kr/m06_03/76, (2025.10.12. 23:12 접속)

대통령직속국정기획위원회 (2025). “이재명정부 국정운영 5개년 계획(안)”, 53-59면.

행정안전부 (2025). “정보시스템 복구 현황 및 전체 시스템 목록(10.14. 18:00 기준, 297개/709개)”, https://blog.naver.com/mopaspr/224040490016, (2025.10.14. 23:44 접속)

Sober, Cyb0rg (2025). “APT Down - The North Korea Files”, 2025.08.19., https://phrack.org/issues/72/7_md#article, (2025.10.12. 22:35 접속)

Taisic Yun et al. (2025). “Too Much of a Good Thing: (In-)Security of Mandatory Security Software for Financial Services in South Korea”, 34th USENIX Security Symposium, August 13–15, 2025, Seattle, WA, USA.

 

<b><i>디지털사회</i></b><b><i>(Digital Society)</i></b><b><i>는 연세대학교 디지털사회과학센터</i></b><b><i>(Center for Digital Social Science)</i></b><b><i>에서 발행하는 이슈브리프입니다</i></b><b><i>. </i></b><b><i>디지털사회의 내용은 저자 개인의 견해이며</i></b><b><i>, </i></b><b><i>디지털사회과학센터의 공식입장이 아님을 밝힙니다</i></b><b><i>.</i></b>

 ]]></description>
			<author><![CDATA[ssk]]></author>
			<pubDate>Tue, 04 Nov 2025 16:39:32 +0000</pubDate>
			<category domain="http://cdss.yonsei.ac.kr/?kboard_redirect=1"><![CDATA[Issue Brief]]></category>
		</item>
				<item>
			<title><![CDATA[디지털사회 제65호: ﻿인공지능 시대의 인재 전략: ‘숙련 우선(skills-first)’ 접근의 필요성과 과제]]></title>
			<link><![CDATA[http://cdss.yonsei.ac.kr/?kboard_content_redirect=221]]></link>
			<description><![CDATA[<p style="text-align:center;"><b>인공지능 시대의 인재 전략</b><b>: ‘</b><b>숙련 우선</b><b>(skills-first)’ </b><b>접근의 필요성과 과제</b></p>
 
<p style="text-align:right;"><b>이현경</b><b>(KISDI)</b></p>
 

<b>서론</b><b>: </b><b>변화하는 인재 시그널</b>

산업화 이후로 ‘학위’는 노동자를 선별하기 위해 중요한 핵심 시그널 역할로 기능해왔다. 인공지능 시대에 접어들면서 기존의 '학위'만으로는 산업현장에서 즉시 활용 가능한 인재를 식별하기 어려워졌고, 실질적인 ‘숙련(skills)’의 측면에서 수요와 공급의 미스매칭이 심화되고 있는 추세이다. 전통적으로 자동화의 영향으로부터 비교적 안전하다고 느껴왔던 반복적이지 않거나 창의성이 요구되는 직무조차 생성형 인공지능의 발전으로 인해 위기를 맞고 있다. 심지어 미래에 유망하다고 예측되었던 개발자 및 IT 인력조차도 기업의 감원 대상이 되는 시대로 접어들었다. 특히 신입 인력의 일자리를 AI가 대체하는 현상은 청년층의 고용 기회를 위협하고, 노동 시장의 양극화를 심화시키는 요인으로 작용하고 있다. 기존에 대학이라는 고등교육 기관에서 학위를 취득하는 데 소요되는 등록금과 비효율적인 시간 낭비를 하지 말고 특정 기업(예: 미국의 팔란티어)의 학위를 따라는 기사도 나올 정도이다. '학위'보다 실무에 바로 투입될 수 있는 '숙련(skills)'을 보유하였는가를 파악하는 것이 점점 더 중요해지고 있는 것이다.

<b>글로벌 동향</b><b>: </b><b>숙련 우선</b><b>(‘skills-first’) </b><b>전략의 확산</b>

유럽연합(EU)은 2022년부터 ‘인공지능 숙련 대연합(Artificial Intelligence Skills Alliance; 이하 ARISA)’을 출범하여 인공지능 시대의 인력전환을 위한 초국가적 대응에 나섰다. ARISA는 EU의 에라스무스+ 프로그램 펀딩으로 진행되는 4년간의 초국가적 프로젝트의 일환으로 노동자, 구직자, 비즈니스 리더, 정책결정자들이 인공지능 관련 직무에 적응할 수 있도록 재교육(upskilling, reskilling)을 제공하는 패스트트랙을 목표로 하고 있다. 구체적으로 ARISA는 ‘숙련’ 부족, 격차, 불일치를 해소하는 것을 최우선으로 유럽의 인공지능 숙련 전략을 개발하고 인공지능 관련 지식과 숙련을 제공하기 위한 교육 프로그램 및 커리큘럼을 개발하는 것을 세부 목적으로 한다. 2022년에 '수요 분석'과 '인공지능 숙련 개발을 위한 유럽의 전략'을 발간하고, 2023년부터는 구체적인 AI 숙련을 위한 커리큘럼, 학습 프로그램, 인증 방법 및 프레임워크를 마련하며, 2024년에는 인공지능과 관련된 직무를 위한 핵심 커리큘럼, 품질 라벨링 방법론을 개발하여 2025년 올해에는 교수자의 역량 강화를 위한 프로그램 디자인, 마이크로인증(micro-credentials) 및 인정 시스템 등 구체적인 단계까지 발전하였다.

OECD에서도 생성형 인공지능 도구의 발달이 숙련 수요(skills demand)의 변동을 가속화시키고 있다면서 노동 시장에서 '숙련 우선(skills-first)' 접근 방식이 부상하는 현상에 대해 연구하고 있다. OECD가 2025년에 발간한 &lt;숙련 우선 접근 방식을 통한 인력 역량 강화&gt;는 ‘숙련 우선’ 접근을 개인의 습득 경로와 무관하게, 입증된 기술·역량을 학위나 직책 등 전통 자격보다 우선시하는 채용·인력개발 관행으로 정의한다. 많은 고용주들이 학위 요건을 줄이고 실제 기술에 중점을 두는 방향으로 채용 관행을 전환하고 있다는 것인데, 특히 OECD 국가에서 채용 담당자의 검색 활동은 ‘숙련’ 기준으로 필터링하는 비중(2023년 15%)이 ‘학위’만으로 필터링하는 비중(1.7%)보다 훨씬 높다고 보고하였다. 동시에 이러한 변화의 주요 동인으로 디지털 전환, 친환경 전환, 인구통계학적 변화와 같은 거시적 트렌드가 기술 수요와 직업 방식을 근본적으로 재편하고 있다고 설명한다.

<b>국내 현황</b><b>: </b><b>숙련 기반 고용 신호의 등장</b>

우리나라와 같이 고용에 있어서 '학위'가 중요한 신호로 작용해온 나라에서도 이러한 숙련 시그널링은 증가하고 있다. 전년도 정보통신정책연구원에서 진행한 연구에서 수집한 우리나라의 인공지능 온라인 구인구직 공고(Online Job Postings, 이하 OJPs) 1,774개 중(2024년 7월 기준)에 '학력 무관'을 표시한 구인공고가 약 638개(전체 공고의 약 36%), '경력 무관'으로 표시한 구인공고는 약 855개(전체 공고의 약 48%)로 나타났다. 직무에서 요구하는 숙련이 있는 경우에는 경력이나 학력과 상관없이 인력을 채용하겠다는 인공지능 기업들의 강한 인재 확보에 대한 의지를 엿볼 수 있는 결과이다.

이처럼 개인의 '숙련'을 강조하는 고용 트렌드는 기회와 잠재적 위험을 동시에 내포하고 있다. 고용에 있어서 기회는 명확하다. 구직자와 구인자는 인공지능 산업계처럼 기술과 인력의 변화로 발생하는 숙련 수요에 더욱 빠르게 적응해 산업 현장의 인력 미스매치를 완화할 것으로 기대된다. 또한 온라인 강좌, 직장 내 교육, 부트캠프 등 비전통적 경로를 통해 습득된 숙련을 인정함으로써 다양한 배경의 인재들이 노동시장에 진입할 기회를 확대할 수 있다. 하지만 당장의 기술 수요나 최신 트렌드에만 초점을 맞출 경우, 장기적 국가 인재 준비와 미래 인력의 적응력이 저해될 수도 있다. ‘숙련(skills)과 역량(competency)’ 중심으로의 성공적인 전환을 위해서는 전 국민을 대상으로 하는 재교육(upskilling, reskilling)에 대한 대비와 핵심 인재를 확보하기 위한 전문가 양성이 모두 필요하다.

전 국민 대상의 포괄적인 숙련 향상 전략과 핵심 인재 중심의 엘리트 양성 전략 중 어떤 접근 방법을 취하는 것이 좋을까? 이러한 접근법에 대한 증거기반의 비교는 아직도 현재 진행형이다. 다만, 7개국의 인공지능 숙련 정책을 검토·분석한 연구에 따르면, 전 국민을 대상으로 한 광범위한 재교육 전략이 국가 차원의 AI 역량을 강화하는 데 있어 더 효과적일 수 있음을 시사한다. 이는 Rigley 외(2024)가 2022년 기준 ‘정부 AI 준비도 인덱스(Government AI Readiness Index, GAIRI)’와 ‘글로벌 AI 인덱스(Global AI Index)’를 토대로 미국·영국·캐나다·스웨덴·호주·싱가포르·중국의 공식 정부 문서를 검토하고 AI 숙련 전략과 접근법을 비교한 결과에 기반한 것이다. 해당 연구진은 각국 정부 문서의 내용을 분석한 뒤 미국이나 싱가포르처럼 모든 시민을 대상으로 한 포괄적이고 전국적인 업스킬링 방식의 전략이 중국, 캐나다, 스웨덴처럼 소수의 뛰어난 인공지능 전문가를 양성해 내려는 국가들보다 더 높은 인공지능 준비도를 나타내고 있는 상관관계를 발견하였다. 비록 인과관계를 밝혀낸 것은 아니지만 향후 증거기반 정책 마련의 기초적인 연구를 시작했다고 볼 수 있다.

<b>제언</b><b>: </b><b>한국형 숙련 기반 인재 전략 수립을 위하여</b>

이제 인공지능 시대의 인재 전략은 학위 중심에서 벗어나 숙련 중심으로 재편되어야 한다. 글로벌 경쟁이 심화되는 상황에서 실질적 기술 역량을 갖춘 인재를 유연하게 발굴하고 육성하는 시스템이야말로 지속가능한 성장의 핵심이 된다. 우리 정부에서는 어떤 재교육 전략을 가져가야 할까? 첫째, 평생 학습 및 숙련 개발에 대한 투자를 확대해야 한다. 개인이 변화하는 기술 수요에 지속적으로 적응할 수 있도록 유연한 학습 기회를 제공하고, 훈련 비용 지원을 포함한 평생 학습에 대한 투자를 확대해야 한다. 둘째, 기술 인정 및 표준화 시스템 구축이 필요하다. 전통적인 학위과정이 아닌 학습을 통해 습득된 기술을 포함하여 모든 숙련에 대한 명확하고 표준화된 인정 및 검증 시스템을 개발하고 강화해야 한다. 특히 인공지능 관련 숙련은 해외 인재의 적극적인 유입이 있는 분야로 국내 인공지능 관련 비정형 교육이 세계 수준의 숙련(skills)을 갖출 수 있도록 기술자격증명(예: Micro-credential)의 신뢰성을 높이고 국가 간 상호 인정을 촉진하는 것이 좋겠다. 셋째, 노동 시장 정보 시스템 개선이다. 구인자와 구직자를 포함한 노동 수요와 공급의 연결을 촉진하고, 그리고 나아가 관련 숙련을 제공하는 교육 기관에 종사하는 전문가들을 포함한 모든 이해관계자가 정확하고 실시간적인 숙련 정보에 접근할 수 있도록 노동시장의 정보시스템을 개발하고 접근성을 높여야 한다. 이는 정보통신정책연구원 ICT 기반 사회현안 연구(2025)가 지적한 바와 같이, 국내 인공지능 관련 OJPs의 상당수가 일반 구인 플랫폼에 게시되지 않고(해당 기업 홈페이지에만 게시되는 사례 다수), 사람인·잡코리아·워크넷 등의 구인구직 정보만으로는 국내 전체 AI OJPs를 대표하기 어렵기 때문이다. 넷째, 노동 전환/비고용 상태에 대응한 재교육 연계 체계를 구축해야 한다. 순환형 노동생애 대응이 필요하다는 것이다. 인공지능 기술의 발달로 말미암아 인공지능 전공자뿐만 아니라 비전공자들도 업무 단위의 직무 변화가 일어나며, 그 변화 정도가 큰 직업군에서는 실질적인 실직이나 비고용 상태로 이어지는 경우가 발생하게 된다. 이러한 변화를 단순히 거시적 흐름으로만 보아 ‘기술적 실업’에 따른 재교육이라는 복지 정책만으로 다룰 것이 아니라, ‘고용–비고용–고용’을 노동자 생애주기에 나타나는 자연스러운 현상으로 이해하고, 노동자의 역량을 생애주기에 걸쳐 강화하는 교육 정책의 관점에서 접근해야 한다. 취약 산업, 취약 계층을 위한 재교육 지원뿐만 아니라 전 노동자를 대상으로 하는 재교육을 어떻게 구상하고 시스템을 구축해야 할지 학계와 실무단에서 함께 머리를 맞대고 고민해야 할 시기이다.

<b>참고문헌</b>

정보통신정책연구원. (2025). ICT기반 사회현안 해결방안 연구 (ICT 진흥 및 혁신 기반 조성사업 RS-2024-00331941) &lt;제5장 인공지능 인재 숙련 수요 분석: 국내 온라인 구인공고를 중심으로&gt;

Rigley, E., Bentley, C., Krook, J., &amp; Ramchurn, S. D. (2024). Evaluating international AI skills policy: A systematic review of AI skills policy in seven countries. <i>Global Policy</i>, <i>15</i>(1), 204-217.

OECD. (2025). <i>Empowering the Workforce in the Context of a Skills-First Approach</i>, OECD Skills Studies, OECD Publishing, Paris, https://doi.org/10.1787/345b6528-en.

ARISA. (2024). <i>AI Skills Strategy for Europe</i>. <a href="https://aiskills.eu/wp-content/uploads/2025/04/ARISA_AI-Skills-Strategy-for-Europe_2024.pdf"><u>https://aiskills.eu/wp-content/uploads/2025/04/ARISA_AI-Skills-Strategy-for-Europe_2024.pdf</u></a>

ARISA. (2025). <i>Design the train-the-trainers programme</i>. <a href="https://aiskills.eu/wp-content/uploads/2025/04/ARISA_Design-the-train-the-trainers-programme.pdf"><u>https://aiskills.eu/wp-content/uploads/2025/04/ARISA_Design-the-train-the-trainers-programme.pdf</u></a>

조선일보. 강다은. (2025.04.24.). "대학서 돈·시간 낭비 말고 '팔란티어 학위'를 따라" <a href="https://www.chosun.com/economy/tech_it/2025/04/23/GXLHQTJK2FDYHDWMSKOTZ6ZUUE/"><u>https://www.chosun.com/economy/tech_it/2025/04/23/GXLHQTJK2FDYHDWMSKOTZ6ZUUE/</u></a>

<b><i>디지털사회</i></b><b><i>(Digital Society)</i></b><b><i>는 연세대학교 디지털사회과학센터</i></b><b><i>(Center for Digital Social Science)</i></b><b><i>에서 발행하는 이슈브리프입니다</i></b><b><i>. </i></b><b><i>디지털사회의 내용은 저자 개인의 견해이며</i></b><b><i>, </i></b><b><i>디지털사회과학센터의 공식입장이 아님을 밝힙니다</i></b><b><i>.</i></b>]]></description>
			<author><![CDATA[ssk]]></author>
			<pubDate>Tue, 14 Oct 2025 15:23:40 +0000</pubDate>
			<category domain="http://cdss.yonsei.ac.kr/?kboard_redirect=1"><![CDATA[Issue Brief]]></category>
		</item>
				<item>
			<title><![CDATA[디지털사회 제64호: ﻿인공지능기본법이 우리의 미래에 미칠 영향]]></title>
			<link><![CDATA[http://cdss.yonsei.ac.kr/?kboard_content_redirect=220]]></link>
			<description><![CDATA[<p style="text-align:center;"><b>인공지능기본법이 우리의 미래에 미칠 영향</b></p>
<p style="text-align:right;"><b>정원준</b><b>(</b><b>한국법제연구원</b><b>)</b></p>
<b>들어가며</b>

2025년 현재 한국 입법계에서 가장 뜨거운 화두 중 하나는 인공지능기본법 제정을 둘러싼 논의이다. 혁신 기술인 인공지능 분야에 전 세계의 막대한 자본과 인재가 몰리고 있다. 이는 각국으로 하여금 입법을 서둘러야 한다는 조급함을 불러일으키고 있다. 그러나 정작 각국의 인공지능 관련 규범 형성은 예상보다 더디게 진행되고 있다. 이러한 지연의 배경에는 인공지능 입법을 둘러싼 견해 차이가 존재한다. 한편에서는 적절한 관리와 통제를 통해 신뢰할 수 있는 인공지능을 구현하려면 관련 입법이 필요하다고 주장하지만, 다른 한편에서는 이러한 규제적 요소가 오히려 혁신을 저해할 수 있다는 우려를 제기하고 있다. 이러한 견해 차이가 지속되는 가운데, 한국은 전 세계에서 두 번째로 국가 차원의 인공지능기본법을 제정하였다. 과연 이러한 선제적 입법이 기회가 될 것인가, 아니면 잘못된 시도로 남게 될 것인가? 결국 이 입법이 기회가 될지 여부는 향후 우리가 인공지능기본법을 어떻게 발전시키고, 나아가 이 법이 인공지능 발전에 효과적인 규범으로 작동하도록 어떻게 집행하느냐에 달려 있다고 해도 과언이 아니다. 이는 인공지능을 규율하는 법적 규범이 전 세계적으로도 아직 성숙 단계에 이르지 못한 현실과 맞물려 있다. 이와 관련하여 우리나라가 굳이 이러한 모험적인 입법 실험을 앞서 추진할 필요가 있었느냐는 의문도 제기된다. 그러나 이미 입법이 이루어진 상황에서는 과거에 대한 비판보다는 이 법이 합리적인 규범으로 거듭날 수 있도록 미래지향적인 제언을 하는 것이 더욱 효과적일 것이다. 이하에서는 인공지능기본법이 인공지능 시대의 발전을 이끄는 초석이 될 수 있도록 향후 개선해야 할 주요 사항에 관해 몇 가지 제언하고자 한다.

<b>수범 주체의 불명확성과 책임 범위의 모호성</b>

2026년 1월 시행을 앞둔 인공지능기본법은 주요한 수범 주체로 '인공지능사업자'를 정의하고 있다. 이 법이 규정하는 인공지능사업자는 개발사업자와 이용사업자를 포괄하는 개념이다. 최근 발표된 인공지능기본법 시행령안 해설서(2025년 9월 8일 공개)에 따르면, 인공지능을 개발하여 직접 서비스화하거나 해당 인공지능 제품을 이용자에게 제공하는 경우에는 한 사업자가 개발사업자와 이용사업자의 지위를 동시에 가질 수도 있다고 설명한다. 또한 개발사업자에는 인공지능을 직접 개발한 경우뿐만 아니라 해당 인공지능의 성능에 중대한 영향을 줄 정도로 이를 수정·변경·개량한 경우도 포함된다고 밝히고 있다.

문제는 개발사업자에 해당하는지 여부를 판단하는 기준이 명확하지 않을 수 있다는 점이다. 예를 들어 알고리즘 개발을 전적으로 외부에 맡기고 발주 기관은 완성된 인공지능 시스템을 활용하기만 한 경우, 그 발주 기관은 이용사업자로 분류될 가능성이 있다. 실제로 이러한 개발사업자와 이용사업자의 경계에 놓여 판단이 모호한 사례들이 다수 발생할 수 있다. 이를테면, 한 오픈마켓(온라인 플랫폼)이 일부 고객 데이터를 제공하여 특정 챗봇 서비스를 파인튜닝(fine-tuning)하고 이를 이용자에게 제공하는 경우를 생각해 보자. 이때 해당 오픈마켓이 알고리즘 개발에 얼마나 주체적으로 관여했는지에 따라, 그 지위를 개발사업자로 볼 수도 있고 이용사업자로 볼 수도 있을 것이다.

나아가 '이용사업자' 개념 역시 모호하다. 해설서에 따르면, 이용사업자는 개발사업자 또는 다른 이용사업자로부터 인공지능 제품이나 서비스를 제공받아 이를 이용자에게 제공하는 자를 의미한다. 인공지능 제품이나 서비스에 중대한 기능 변경을 가하지 않고 제공하면 이용사업자로 간주되지만, 중대한 기능 변경을 가한 경우에는 개발사업자로 본다. 그러나 인공지능이 다양한 영역에서 각양각색의 형태로 상용화되는 현실을 감안하면, 이러한 기준이 실제 현장에서 명확하게 적용되기는 쉽지 않을 것으로 예상된다.

결국 수범 주체의 모호성으로 인해 일부 기업은 자신이 법의 규제 대상이 아니라고 잘못 판단하여 법상 의무를 이행하지 않다가, 예기치 않게 제재를 받는 상황이 발생할 수 있다.

<b>불명확한 규제와 법적 안정성</b>

인공지능기본법은 과학기술정보통신부가 소관하는 법률로, 해당 부처는 정보통신 산업의 진흥을 주요 임무로 하고 있다. 따라서 법 제정 과정에서도 인공지능 산업의 '진흥'에 방점을 둘 수밖에 없었을 것이다. 그 결과 이 법은 운용 방식에 따라서는 엄격한 규제 조항을 포함할 수 있으나, 내용과 실질에 있어서는 규제적 접근을 최소화하려는 의도가 엿보인다.
<ul>
 	<li>통상적으로 규제 수준을 최소화하려는 입법 기법으로는 다음과 같은 방법들이 활용된다:</li>
</ul>
<ul>
 	<li>준수 의무 사항을 다소 모호하게 규정한다.</li>
 	<li>법적 의무 대신 권고적 성격의 '책무' 조항을 두어 책임성을 낮춘다.</li>
 	<li>위반 시 부과되는 제재 수준을 대폭 낮추거나 아예 규정하지 않는다.</li>
</ul>
우리나라의 인공지능기본법은 엄격한 규율을 추구하는 EU의 AI Act와 달리 이러한 경향을 보이고 있다. 그러나 이러한 접근은 규범 준수에 민감한 기업들의 입장에서는 법적 안정성을 저해할 수밖에 없다. 따라서 규제 수준을 낮추면서도 법적 안정성을 확보하기 위해서는 법령이 아닌 가이드라인 등 연성법적 수단을 통해 기업들의 혼란을 해소할 필요가 있다. 또한 가이드라인에는 다양한 구체적 사례와 예시를 풍부하게 담아야 하며, 이를 마련하는 과정에서 최대한 많은 현장의 의견을 수렴하여 반영해야 할 것이다.

<b>나가며</b>

인공지능기본법은 앞으로 도래할 인공지능 시대와 함께 발전해 나갈 것이다. 향후 예측하기 어려운 위험이 발생할 수도 있지만, 동시에 예상치 못한 혁신적 편의를 누리게 될 가능성도 있다. 2025년 9월 현재 법 시행일(2026년 1월 22일)이 약 4개월 앞으로 다가왔지만, 시행령과 고시, 가이드라인 등이 아직 확정되지 않은 상황이다. 이로 인해 기업들이 법 시행에 맞춰 대비하기 어렵다는 지적이 제기되고 있다. 정부는 제재 규정의 적용을 일정 기간 유예하는 계도기간을 운영하여 사실상 법 집행을 늦추겠다는 방침을 보이고 있다. 전 세계적으로도 관련 입법 논의가 활발히 진행되고 있는 만큼, 우리나라가 굳이 그보다 앞서 법을 집행할 필요는 없을 것으로 보인다. 인공지능 시대는 앞으로도 지속적으로 발전할 것이므로 법 집행을 몇 년 늦춘다고 해서 큰 영향은 없을 것으로 예상된다. 지금은 멀리 내다보며 지혜로운 방향을 모색하는 것이 무엇보다 중요한 시기라고 여겨진다.

<b><i>디지털사회</i></b><b><i>(Digital Society)</i></b><b><i>는 연세대학교 디지털사회과학센터</i></b><b><i>(Center for Digital Social Science)</i></b><b><i>에서 발행하는 이슈브리프입니다</i></b><b><i>. </i></b><b><i>디지털사회의 내용은 저자 개인의 견해이며</i></b><b><i>, </i></b><b><i>디지털사회과학센터의 공식입장이 아님을 밝힙니다</i></b><b><i>.</i></b>]]></description>
			<author><![CDATA[ssk]]></author>
			<pubDate>Wed, 24 Sep 2025 17:11:02 +0000</pubDate>
			<category domain="http://cdss.yonsei.ac.kr/?kboard_redirect=1"><![CDATA[Issue Brief]]></category>
		</item>
				<item>
			<title><![CDATA[디지털사회 제63호: ﻿생성형 인공지능과 민주주의: 위기와 가능성]]></title>
			<link><![CDATA[http://cdss.yonsei.ac.kr/?kboard_content_redirect=219]]></link>
			<description><![CDATA[<p style="text-align:center;"><strong>생성형 인공지능과 민주주의: 위기와 가능성</strong></p>
<p style="text-align:right;"><strong>김태균(KAIST)</strong></p>
디지털화와 인공지능의 도래는 사회, 경제, 정치 전반에 걸쳐 광범위한 변화를 일으키고 있다. 특히 대형언어모델(large language model, LLM)을 포함한 다양한 생성형 인공지능(generative AI)의 발전은 기존에 인간이 수행해왔던 역할을 보완하거나 대체하는 방식으로 사회 제도 전반에 구조적인 변화를 유발하고 있다. 이러한 변화는 정치 영역, 특히 민주주의의 작동 방식에도 중대한 영향을 미칠 것으로 예상된다. 이에 따라 숙의(deliberation)와 타협(compromise), 대표성(representation), 책임성(accountability) 등 민주주의의 핵심 원칙과 작동 양상을 기준으로 생성형 인공지능이 어떤 방식으로 민주주의를 변화시키고 있는지를 이론적, 실증적으로 규명하려는 연구가 절실히 요구된다. 특히 긍정적인 가능성과 부정적인 위험을 모두 있는 그대로 조명하는 다학제적 융합 연구와, 이를 바탕으로 한 증거 기반의 정책 논의는 민주주의의 미래를 위해 필수적인 과제가 될 것이다.

민주주의는 본질적으로 시민 간의 숙의와 타협, 그리고 대표성과 책임성이라는 원칙 하에서 안정적으로 유지된다(Dahl, 2008; Habermas 2015 ; Schumpeter 1942). 다만, 최근의 정치 환경에서는 정치적 양극화(political polarization)가 심화되면서 숙의와 타협의 여지는 급격히 줄어들고 있다. 특히 시민들이 정치적 반대자를 단순한 이견의 주체가 아닌 도덕적으로 타락한 '타자'로 간주하는 경향은 민주주의의 토대를 흔들 수 있다 (Finkel et al., 2020). 대표성은 시민의 선호와 가치가 제도와 정책에 반영되는 과정이며, 민주주의의 핵심 기반이다. Robert Dahl 이 언급했듯이, 민주주의는 시민들의 가치와 선호에 지속적으로 반응하는 정부를 필요로 한다. 또한 책임성은 시민들이 정치인의 발언과 행위를 평가하고 이에 따라 재신임 여부를 결정할 수 있는 메커니즘을 의미한다. 특히 선거는 정부 관료에게 책임을 묻는 가장 중요한 메커니즘이며, 이 메커니즘이 효과적으로 작동하기 위해서는 시민이 정치인의 행동에 관한 정확한 정보에 접근할 수 있어야 한다.

최근에는 인공지능 행위자(AI agents)가 시민들의 일상적인 대화에 개입했을 때, 정치적 이견을 좁히고 정서적 적대감을 완화하며, 더 나아가 숙의와 타협의 가능성을 높이는 데 기여할 수 있는지를 탐색하는 연구들이 활발히 이루어지고 있다. 예컨대 Argyle et al. (2023)은 실험을 통해, 서로 다른 정치 성향을 가진 시민 간의 온라인 대화에서 인공지능이 감정적 대립을 완화하고 보다 협력적인 상호작용을 유도할 수 있음을 보여준다. Hackenburg et al. (2025) 역시 대규모 실험을 통해 대형언어모델이 정치적으로 이질적인 집단 간의 의견 간극을 좁히는 데 기여할 수 있다는 기술적 가능성을 보여주고 있다. 그러나 동시에, 생성형 인공지능의 정치적 편향성과 그 인식 가능성에 대한 우려도 제기되고 있다. Potter et al. (2024)는 대형언어모델이 미국의 민주당이나 진보 성향으로 편향되어 있음을 다수의 정책 평가, 투표 시뮬레이션, 후보 태도 평가의 차원에서 보여준다. 나아가 Westwood et al. (2025)은 시민들이 실제로 대형언어모델의 정치적 편향을 감지할 수 있으며, 그 편향성을 인식한 상태에서 정치적 메시지를 평가하고 있음을 강조한다. 즉, 대형언어모델은 정치적 양극화 완화를 위한 기술적 가능성을 가지고 있지만, 동시에 편향성 그 자체, 그리고 편향성에 대한 시민들의 인식이 숙의와 타협의 문화를 저해하거나 정파성을 강화할 위험도 내포하고 있다는 것을 알 수 있다. 따라서 이러한 편향성의 발생 조건과 정치적 효과에 대한 정밀한 규명은, 인공지능 시대의 민주주의를 이해하기 위한 핵심적 과제가 된다.

민주주의의 핵심 원칙 중 하나인 대표성(representation) 측면에서도 생성형 인공지능은 중대한 파급력을 가질 수 있다. 대표성이란 시민들의 선호와 가치가 제도와 정책 결정에 충실히 반영되는 과정을 의미하며, 이를 위해서는 정치인들이 시민의 의견을 정확히 감지하고 이해할 수 있어야 한다. 그런데 오늘날 시민들의 정치적 의사 표현은 점점 온라인 뉴스, 소셜 미디어, 디지털 커뮤니티 등 디지털 공간을 통해 이루어지고 있으며, 이 공간에서의 여론 형성과 전달 과정에 생성형 인공지능이 깊숙이 개입하고 있다는 점은 주목할 만하다. 관련하여, Kreps &amp; Kriner (2024)는 GPT-3를 기반으로 한 대규모 실험을 통해, 정치인들이 인공지능이 생성한 메시지를 실제 유권자가 작성한 메시지와 거의 구별하지 못하며, 실제로 그러한 메시지에 유의미하게 반응한다는 점을 보여주었다. 이는 ‘가짜 시민 의견(fake constituent sentiment)’의 대량 생산이 가능해졌다는 것을 의미하며, 정치인들이 실제 시민의 선호를 오인하거나 왜곡된 여론에 반응함으로써 대표성이 구조적으로 훼손될 수 있음을 시사한다.

마지막으로, 책임성(accountability) 측면에서도 생성형 인공지능의 등장은 민주주의에 중대한 변화를 예고한다.  민주주의는 시민들이 정치인의 행위에 책임을 물을 수 있어야 하며, 이를 가능케 하는 핵심적인 메커니즘 중 하나는 자유롭고 공정한 선거이다. 그리고 이러한 선거 책임성(ballot-box accountability)이 실효성 있게 작동하기 위해서는, 시민들이 자신을 대표하는 정치인의 정책 행위와 발언에 대한 정확한 정보에 접근할 수 있어야 한다. 이러한 맥락에서, 생성형 인공지능은 새로운 위협으로 작동할 수 있다. Goldstein et al. (2024)은 대형언어모델이 생성한 선전물(propaganda)이 인간이 작성한 콘텐츠만큼이나 설득력이 있으며, 유권자들에게 유의미한 영향을 미칠 수 있음을 실험적으로 보여준다. 이들은 실험 참가자에게 GPT-3가 생성한 정치적 메시지를 노출시키는 방식으로 설득력, 신뢰도 투표 선택 등에 미치는 영향을 측정하였으며, 그 결과 대형언어모델이 생성한 메시지는 인간의 메시지와 거의 동등하거나 때로는 더 큰 영향력을 보였다.

더불어, 이러한 문제는 단순히 국내 정치에만 국한되지 않는다. 악의를 가진 외국 행위자나 정치적 이해관계자들이 생성형 인공지능을 활용해 특정 정치적 입장을 확산시키고 여론을 조작하는 방식으로 정치적 영향력을 행사할 가능성도 존재하기 때문이다. 특히 기존의 자동화된 봇(bot)을 넘어서는 수준에서 이루어지는 인공지능 기반 개입은 탐지하기 어렵고 대응도 복잡해, 민주주의 체제를 외부 간섭에 더욱 취약하게 만들 수 있다. 따라서 인공지능이 초래하는 책임성의 약화는 기술적 문제이자 정치적 과제로, 국제적 차원의 감시, 대응 체계 구축과 더불어 시민의 정보 해독력 및 디지털 리터러시 향상과 같은 복합적인 접근이 요구된다.

이상의 논의를 종합해보면, 생성형 인공지능은 민주주의에 복합적인 영향을 미치는 기술로, 그 영향은 맥락에 따라 복잡, 상이하게 나타날 수 있다. 생성형 인공지능은 숙의와 타협을 촉진하고 정치적 대화를 건설적으로 이끌 수 있는 잠재력을 지닌 동시에, 편향성을 통해 당파 간의 갈등을 악화시킬 수 있으며, 여론 조작과 시민의 정치적 판단 능력 약화를 야기해 민주주의의 대표성과 책임성에 심각한 위협이 될 수 있다. 이러한 맥락에서 생성형 인공지능이 민주주의에 미치는 영향을 이해하고 대응하기 위해서는 특정 국가나 문화에 국한되지 않고 다양한 정치적 환경에서의 실증 연구가 요구된다. 현재 많은 연구가 미국을 중심으로 이루어지고 있으나, 정치문화적 배경이 다른 국가들에서도 유사하거나 상이한 결과가 나타나는지에 대한 비교연구가 확대되어야 한다. 또한 이러한 분석은 기술에 대한 이해뿐 아니라 정치 및 민주주의의 작동 원리에 대한 깊은 통찰을 필요로 하며, 따라서 다학제적 연구의 접근이 반드시 수반되어야 한다. 궁극적으로, 인공지능이 민주주의의 원칙과 가치를 강화하는 방향으로 설계되고 활용되기 위해서는 국제적인 협력, 다학제적 연구에  기반한 대안 모색이 필수적이며, 이러한 다차원적 접근이 앞으로의 민주주의 발전에 핵심적인 역할을 할 것이다.

참고문헌

Argyle, L. P., Bail, C. A., Busby, E. C., Gubler, J. R., Howe, T., Rytting, C., ... &amp; Wingate, D. (2023). Leveraging AI for democratic discourse: Chat interventions can improve online political conversations at scale. <i>Proceedings of the National Academy of Sciences</i>, <i>120</i>(41), e2311627120.

Dahl, R. A. (2008). <i>Polyarchy: Participation and opposition</i>. Yale University Press.

Finkel, E. J., Bail, C. A., Cikara, M., Ditto, P. H., Iyengar, S., Klar, S., ... &amp; Druckman, J. N. (2020). Political sectarianism in America. <i>Science</i>, <i>370</i>(6516), 533–536.

Goldstein, J. A., Chao, J., Grossman, S., Stamos, A., &amp; Tomz, M. (2024). How persuasive is AI-generated propaganda? PNAS Nexus, 3(2), pgae034.

Habermas, J. (2015). <i>Between facts and norms: Contributions to a discourse theory of law and democracy</i>. John Wiley &amp; Sons.

Hackenburg, K., Tappin, B. M., Röttger, P., Hale, S. A., Bright, J., &amp; Margetts, H. (2025). Scaling language model size yields diminishing returns for single-message political persuasion. <i>Proceedings of the National Academy of Sciences</i>, <i>122</i>(10), e2413443122.

Kreps, S., &amp; Kriner, D. L. (2024). The potential impact of emerging technologies on democratic representation: Evidence from a field experiment. <i>New Media &amp; Society</i>, <i>26</i>(12), 6918–6937.

Schumpeter, J. A. (1942). <i>Capitalism, socialism and democracy</i>. New York: Harper &amp; Brothers.

Potter, Y., Lai, S., Kim, J., Evans, J., &amp; Song, D. (2024). Hidden Persuaders: LLMs' Political Leaning and Their Influence on Voters. <i>arXiv preprint arXiv:2410.24190</i>.

Westwood, S. J., Grimmer, J., &amp; Hall, A. B. (2025). Measuring Perceived Slant in Large Language Models Through User Evaluations.
<div></div>
<div><b><i>디지털사회</i></b><b><i>(Digital Society)</i></b><b><i>는 연세대학교 디지털사회과학센터</i></b><b><i>(Center for Digital Social Science)</i></b><b><i>에서 발행하는 이슈브리프입니다</i></b><b><i>. </i></b><b><i>디지털사회의 내용은 저자 개인의 견해이며</i></b><b><i>, </i></b><b><i>디지털사회과학센터의 공식입장이 아님을 밝힙니다</i></b><b><i>.</i></b></div>
<div class="kboard-content">
<div class="content-view"></div>
</div>
<div class="kboard-document-action"></div>]]></description>
			<author><![CDATA[ssk]]></author>
			<pubDate>Fri, 05 Sep 2025 03:48:01 +0000</pubDate>
			<category domain="http://cdss.yonsei.ac.kr/?kboard_redirect=1"><![CDATA[Issue Brief]]></category>
		</item>
				<item>
			<title><![CDATA[디지털사회 제62호: 글로벌 인공지능(AI) 반도체 경쟁: 미국의 수출통제 정책과 기술패권의 국제정치]]></title>
			<link><![CDATA[http://cdss.yonsei.ac.kr/?kboard_content_redirect=218]]></link>
			<description><![CDATA[<p style="text-align:center;"><b>글로벌 인공지능</b><b>(AI) </b><b>반도체 경쟁</b><b>: </b><b>미국의 수출통제 정책과 기술패권의 국제정치</b></p>
 
<p style="text-align:right;"><b>유인태 </b><b>(</b><b>단국대학교</b><b>)</b></p>
 

인공지능(AI) 기술의 발전은 단순한 기술적 진보를 넘어 국제정치의 권력구조를 재편하는 핵심 변수로 떠오르고 있다. 특히 고성능 연산을 가능케 하는 AI 반도체는 AI 생태계의 기반이자, 군사·산업·외교 전반에 걸쳐 전략적 가치가 급부상한 핵심 기술이다. 이 글은 AI 반도체를 둘러싼 미국의 수출통제 정책을 중심으로, 미중 전략경쟁, 동맹국과의 조율, 기업의 대응, 중국의 기술굴기 등 복합적인 국제정치적 함의를 개관한다.

미국은 2018년 트럼프 행정부 1기를 기점으로 본격적인 대중 기술봉쇄에 착수하였다. ‘수출관리규정(EAR)’과 ‘외국산 직접제품 규정(FDPR)’은 미국 기술이 포함된 반도체, 장비, 소프트웨어 등이 제3국에서 생산되더라도 중국으로의 이전을 차단할 수 있도록 설계되었다. 이는 단순한 국가 간 갈등을 넘어, 글로벌 공급망과 기술 생태계 전반을 재구성하려는 시도로 평가된다. 대표적 사례로는 화웨이, SMIC 등을 포함한 수많은 중국 기업이 미국의 '수출통제 대상 목록(Entity List)'에 등재되며 첨단 기술에 대한 접근이 차단되었다.

바이든 행정부는 트럼프 행정부의 기조를 유지하되, 더 정밀하고 제도화된 규제를 추진하였다. 2022년 10월과 2023년 10월의 두 차례 수출통제 조치는 AI 반도체의 사양 기준을 세분화하고, 슈퍼컴퓨터, 제조장비, 소프트웨어, 인력까지 통제 범위를 대폭 확대하였다. 특히 성능 밀도 등 새로운 기술적 기준을 도입해 규제 실효성을 높였고, 특정 폐쇄형 AI 모델의 가중치까지 통제하는 2025년의 ‘AI 확산 프레임워크’를 통해 국가별 등급(Tier) 시스템을 시도하였다. 이 프레임워크는 AI 반도체 기술의 국제 확산을 구조적으로 제한하고자 하는 미국의 의지를 보여주는 상징적 조치였다.

그러나 이와 같은 고강도 통제는 미국 기업들에게도 부담으로 작용하였다. 대표적으로 엔비디아(NVIDIA)는 2022년의 수출통제를 회피하기 위해 A800, H800 등 중국 수출 전용 칩을 출시했으며, 이는 수출통제의 한계를 보여주는 사례가 되었다. 반도체산업협회(SIA)는 미국 정부에 지나친 통제가 기술혁신과 시장 점유율을 위협한다는 점을 강조하며, 보다 현실적이고 조율된 정책을 요구하였다. 특히 미국 기업들이 규제 대상이 되는 동안, 한국, 대만, 유럽 기업들이 시장을 점유할 가능성에 대한 우려도 제기되었다.

중국 역시 다층적인 대응 전략을 구사하고 있다. 말레이시아 등 제3국에 위탁생산을 맡기거나, 회색시장과 유령회사를 활용한 우회 수입, 심지어 해외 데이터센터에서 대량 AI 칩을 밀반입하는 방식까지 동원되고 있다. 동시에 자체 생태계 구축도 진척되고 있다. 화웨이의 어센드910 시리즈는 SMIC의 7나노 공정을 활용하여 엔비디아 A100에 준하는 성능을 구현하고 있으며, 딥시크(DeepSeek)는 H800 및 H20을 기반으로 GPT-4 수준에 근접한 저비용 고성능 모델을 발표했다. 중국 정부는 '중국제조 2025' 전략 하에 AI 반도체 스타트업에 대한 투자와 세제 혜택을 확대하며, 생태계 자립을 가속화하고 있다.

국제 협력 차원에서도 AI 반도체 수출통제는 주요 쟁점이 되고 있다. 네덜란드는 미국의 압박에 따라 ASML의 EUV·DUV 노광장비 수출을 제한하였으나, 자국의 산업 이익과 주권을 고려해 자율적인 허가제 체계로 전환하고 있다. 일본 역시 2023년부터 첨단 반도체 장비에 대한 수출통제를 시행하였지만, 중국의 희귀광물 보복 가능성과 국내 기업의 손실 우려로 인해 조심스러운 태도를 유지하고 있다. 바이든 정부 시기의 미국은 동맹국의 협력을 이끌어내기 위해 보조금 지급, 외교적 설득, 의회 차원의 압박 등 다양한 수단을 동원한 바 있다.

2025년 트럼프 2기 정부 출범 이후에는 수출통제 정책이 다시 조정 국면에 들어섰다. ‘AI 확산 프레임워크’의 이행은 보류되고 양자 협상 방식으로의 전환이 예고되었다. 이는 미국 내 산업계의 상업적 이해관계, 정부의 정책적 기조 변화, 중국 AI 기술의 부상 등이 복합적으로 작용한 결과로 해석할 수 있다. 나아가 이러한 변화는 AI 반도체를 둘러싼 기술패권 경쟁이 국제정치 구조 뿐 아니라 국내정치 변수에 의해 영향을 받고 있음을 보여준다.

결론적으로 AI 반도체 수출통제는 단순한 기술규제에 그치지 않고, 국가안보와 산업경쟁력, 글로벌 공급망, 동맹 조율, 국제법적 정당성 등 다양한 요소가 교차하는 복합적 정책 공간 속에서 작동하고 있다. 미국의 통제가 일정 부분 기술격차 유지 또는 확대에 기여하고 있음은 분명하지만, 동시에 중국의 자생적 생태계 형성과 글로벌 시장 확장을 자극하는 이중적 효과를 낳고 있다. 향후 AI 반도체를 둘러싼 경쟁은 기술(표준), 규범, 생태계를 포괄하는 전방위적 경합으로 진화할 가능성이 높다.

 

*이 글은 「인공지능과 미･중전략 경쟁의 국제정치: 글로벌 AI 반도체 공급망과 미국의 경제적 강압을 중심으로」(유인태, 2025, 『국제정치논총』 제65권 제1호, 103-140쪽)의 내용을 참조하여 작성되었음.

 

<b><i>디지털사회</i></b><b><i>(Digital Society)</i></b><b><i>는 연세대학교 디지털사회과학센터</i></b><b><i>(Center for Digital Social Science)</i></b><b><i>에서 발행하는 이슈브리프입니다</i></b><b><i>. </i></b><b><i>디지털사회의 내용은 저자 개인의 견해이며</i></b><b><i>, </i></b><b><i>디지털사회과학센터의 공식입장이 아님을 밝힙니다</i></b><b><i>.</i></b>]]></description>
			<author><![CDATA[ssk]]></author>
			<pubDate>Tue, 22 Jul 2025 20:59:16 +0000</pubDate>
			<category domain="http://cdss.yonsei.ac.kr/?kboard_redirect=1"><![CDATA[Issue Brief]]></category>
		</item>
				<item>
			<title><![CDATA[디지털사회 제61호: 윤리에서 규범으로: 글로벌 AI 거버넌스의 전환점]]></title>
			<link><![CDATA[http://cdss.yonsei.ac.kr/?kboard_content_redirect=217]]></link>
			<description><![CDATA[<p style="text-align:center;"><strong>윤리에서 규범으로: 글로벌 AI 거버넌스의 전환점</strong></p>
<p style="text-align:right;"><strong>조계원(고려대 정치연구소)</strong></p>
<strong>AI를 둘러싼 규범의 정치화와 국제적 대응</strong>

인공지능(AI) 기술은 이제 산업 혁신을 넘어, 국제 정치의 핵심 쟁점으로 부상하고 있다. 미국과 중국을 비롯한 주요 강대국들은 AI 주도권을 확보하기 위해 기술 개발뿐 아니라 규범 제정과 표준화에 나서고 있으며, 이는 글로벌 질서의 향방을 좌우할 새로운 ‘규범 경쟁’으로 이어지고 있다. AI를 둘러싼 규범은 단순한 기술 지침을 넘어, 각국의 정치적 가치와 사회적 모델을 반영하는 전략적 수단으로 주목받고 있는 것이다. 이에 따라 규범을 국제적으로 조율하고 제도화할 필요성도 그 어느 때보다 커졌다.

이러한 흐름 속에서 글로벌 AI 거버넌스는 오늘날 국제사회가 직면한 핵심 의제로 자리 잡았다. AI가 정치, 경제, 사회, 문화 등 모든 분야에 깊숙이 파고들면서, 그 설계·개발·운용 과정에서 윤리적이고 책임 있는 기준을 마련하려는 시도가 각국 정부, 국제기구, 민간 기업을 중심으로 활발히 전개됐다. 그러나 선언적 수준의 윤리 원칙만으로는 구속력이 부족하고 실효성이 떨어진다는 한계가 반복적으로 지적됐으며, 이에 따라 최근에는 AI 시스템의 안전성, 투명성, 공정성 등을 실질적으로 보장하기 위한 국제적 규제와 표준 마련이 시급한 과제가 되었다. 그 결과, 국가 간 일관된 규제 프레임워크를 구축하려는 논의가 글로벌 차원에서 본격화하고 있다.

<strong>글로벌 AI 거버넌스의 주요 기능</strong>

글로벌 AI 거버넌스는 책임 있는 AI 개발과 사용을 보장하기 위한 집단적 행동과 다국적 협력을 촉진하는 다중 이해관계자 규제 프레임워크로 정의할 수 있다. 글로벌 수준에서 다양한 이해관계자가 참여하여 AI의 개발과 사용 및 규제를 위한 윤리 규범 및 법적 기준을 개발하고, 다자간 협력 체계를 통해 조정된 방식으로 이를 실행할 수 있는 메커니즘을 의미한다. 글로벌 AI 거버넌스는 크게 7가지 기능을 수행한다.

첫째, AI의 미래 방향 및 영향에 대한 정기적 평가이다. AI 기술의 발전 방향과 그에 따른 영향 및 위험을 독립적이고 다학제적으로 평가하는 역할을 수행하며, 이를 통해 정책 입안자들에게 AI 프로그램을 개발하고 위험을 관리할 수 있는 자료를 제공한다.

둘째, 전 세계적으로 부상하고 있는 글로벌 AI 거버넌스 프레임워크의 상호운용성을 강화하는 것이다. 각국의 AI 거버넌스를 조화시키고, 국제 규범에 기반한 글로벌 AI 거버넌스 프레임워크를 구축하는 기능이다. 유엔, 유네스코, ITU 등과 같은 포럼을 활용하여 정책을 조율하고, 공통의 이해를 구축하며, 모범 사례를 드러내고, 실행을 지원하며, P2P(Peer to Peer) 학습을 촉진할 수 있다. 또한 글로벌 AI 거버넌스 프레임워크는 공공 및 민간 부문, 지역 간, 국가 간 AI 격차와 거버넌스 간극을 줄이기 위해 다양한 조직이 운영해야 할 원칙과 규범을 명확히 하는 정책 결정을 지원하고 이행을 유도하는 역할을 한다.

셋째, 표준, 안전 및 위험 관리 프레임워크를 개발하고 조화시키는 것이다. 글로벌 차원의 기술적·규범적 표준을 개발하고, 이를 조화시킴으로써 AI의 안전성과 위험 관리를 위한 통일된 기준을 설정한다. 예를 들어, 신흥 AI 안전 기관들을 네트워크로 연결하여 프레임워크 간 경쟁, 관할권 간 표준화 관행의 파편화, 글로벌 패치워크 내 많은 격차로 인한 위험을 줄일 수 있다.

넷째, 국제적인 다중 이해관계자와의 협력을 통해 AI 개발과 사용이 경제적·사회적 혜택을 가져올 수 있도록 촉진하는 역할이다. 특히 글로벌 남반구와 같은 지역에 법적, 재정적, 기술적 조치를 조력하여 공공 부문을 중심으로 책임 있고 유용한 AI 사용이 이뤄질 수 있도록 도와야 한다.

다섯째, 컴퓨팅 인프라 접근, 데이터 구축, AI 인재 개발 및 지속가능발전목표(SDGs)를 위한 AI 공공재를 촉진하는 것이다. 데이터, 컴퓨팅 인프라, 인재 개발을 지원하여 SDGs를 달성하기 위한 AI 시스템 개발을 촉진하고, 이를 통해 학계, 사회적 기업가, 시민사회가 AI 시스템을 구축하고 연구할 수 있는 기반을 제공한다.

여섯째, 위험을 모니터링하고 사고를 보고하며 긴급한 대응을 조정하는 역할이다. AI가 국제 안보와 글로벌 안전성에 미치는 위험을 모니터링하고, 신속하게 대응할 수 있도록 조율할 수 있는 능력을 구축하는 것으로 AI가 무기화될 가능성에 대응하는 것도 이에 포함된다.

일곱째, 글로벌 차원에서 법적 구속력을 가진 규범과 비구속적 규범을 개발하고, 이를 통해 AI 시스템의 설계, 배포 및 사용이 국제법을 준수하도록 하는 것이다. 예를 들어, 국가들의 인권 관행에 대한 모니터링, 평가, 보고를 쉽게 하는 보편적 정례 검토나 SDGs에 대한 보고와 유사한 방식을 도입하여 AI 시스템에 대한 책임 공백을 줄이는 것을 고려할 수 있다.

<strong>글로벌 AI 거버넌스의 양상과 미래</strong>

현재의 글로벌 AI 거버넌스는 여러 행위자가 주도하는 다양한 이니셔티브를 통해 파편화된 환경에서 발전하고 있다. AI 거버넌스 이니셔티브는 2018~2022년 사이에 그 수가 급증했는데, 여러 이해관계자에 의해 다양한 거버넌스 이니셔티브가 추진되었다. 특히 G7, G20, 유럽평의회와 같은 국가 주도의 이니셔티브와 UN, EU, OECD, ISO와 같은 비국가 주도 이니셔티브가 AI 거버넌스의 핵심 동인으로 등장하고 있다. 글로벌 인공지능 파트너십(GPAI)처럼 AI 문제를 다룰 수 있는 국가 주도의 새로운 기구도 설립되었다. 현재의 글로벌 AI 거버넌스는 다양한 이해관계자 간의 느슨한 연계성을 가진 다중심적 구조를 특징으로 하는 ‘약한 체제 복합체’(weak regime complex)로 볼 수 있다.

규제 제도를 구분하는 다섯 가지 주요 차원을 기준으로 보면, 여러 정책 영역을 포괄하는 수평적 규제와 특정 정책 영역 혹은 애플리케이션을 다루는 수직적 규제가 혼합되어 있으며, 핵심 규제 기관의 역할을 맡은 기관이 없이 여러 수준과 지역에 걸쳐 병렬적으로 권위가 분산되어 있다. 또한 국내 법령이나 조약과 같은 경성법보다는 행동 지침, 권고, 결의, 표준 등과 같은 연성법에 치우쳐 있고, 주로 공공적 성격이 강하며, 군사 및 비군사 규제가 혼합된 양상을 보인다.

글로벌 AI 거버넌스는 진공 상태에서 이뤄지는 것이 아니므로 각 국가의 AI 기술에 대한 경제적, 군사적, 사회적 이해관계가 글로벌 거버넌스 형성에 장애물로 작용한다. AI는 다용도 기술로 기술 혁신이 경제적, 안보적 이점을 가져올 수 있기 때문에 각 국가는 이 기술을 통해 전략적 우위를 확보하려는 유인을 갖게 된다. 그 결과 각국이 독자적으로 AI 기술을 개발하고, 다른 국가와의 기술 공유를 제한하려는 모습이 나타나고 있다. 미중 간의 기술 경쟁으로 인한 AI 기술 블록화가 대표적인 사례이다. 미국은 대중 기술 견제를 통해 기술동맹을 확대하고 있지만, 중국은 AI 응용 분야에서 경쟁력을 바탕으로 중국 내에 자체 생태계를 구축하면서 두 진영으로 분리되는 블록화가 심화하고 있다. 이러한 AI 기술 블록화는 글로벌 차원에서 AI 기술 개발과 표준화를 위한 협력에 제약을 가하고, 독자적인 규제 프레임워크 형성과 자국의 이익 중심의 규제로 이어져 글로벌 AI 거버넌스 형성에 부정적인 영향을 미친다.

이와 같은 지정학적 긴장과 경쟁, 그리고 파편화된 환경이라는 조건에서 글로벌 AI 거버넌스를 발전시키는 것이 과제라고 할 수 있는데, 현재의 ‘약한 체제 복합체’ 구조를 강화하는 것이 현실적인 대안이다. 체제 복합체는 지정학적 혹은 제도적 조건으로 인해 어떤 포럼에서 논의가 진전되지 않아도 다른 포럼을 통해 협력이 이뤄지면 시간이 지남에 따라 상호 강화적인 변화를 만들어내어 신뢰 구축을 촉진할 수 있고, 다양한 이해관계자를 포용하여 기술 변화에 유연하게 적응할 수 있다는 장점이 있다. 그러나 제도적 조정과 권위의 부족으로 인해 행위자들이 책임을 회피하거나, 약속을 이행하지 않는 문제가 있으므로 목표 조정, 정보 공유 개선, 제도적 파트너십 개발, 갈등 해결 메커니즘 구축 등을 통해 기존 제도들을 조정하고 역량을 강화하는 노력이 필요하다.

<strong>한국의 대응 과제: 규범 수용국을 넘어 규범 제안국으로</strong>

글로벌 AI 거버넌스가 규범 주도권 경쟁의 장으로 전환되고 있는 상황에서, 한국 역시 국제 규범 형성에 보다 능동적이고 전략적으로 참여해야 한다. 단순한 규범 수용을 넘어, 자체적인 정책 비전과 규범적 입장을 정립하고, OECD, G7, UN, GPAI 등 주요 국제 논의 구조에 적극 개입할 필요가 있다. 이를 위해서는 디지털 권리, 책임성, 데이터 공정성 등 핵심 의제에 대한 선제적 제안 역량을 갖추는 것이 시급하다. 아울러 EU의 「AI법」을 비롯한 주요 국제 규범과 정합성을 확보하는 방향으로 국내 AI 규제 체계를 조속히 정비해야 한다. 산업 경쟁력과 기술 규제 사이의 균형을 고려하되, 신뢰 기반의 AI 생태계 조성이 장기적 경쟁력의 핵심임을 인식하고, 「디지털 권리장전」(2023.9)에서 제시된 윤리 원칙을 실질적인 법·제도로 전환하는 정책적 조치가 요구된다.

이를 기반으로 미중 간 기술 패권 경쟁이 심화하는 국제 질서 속에서 규범 기반 국제협력을 끌어 낼 수 있는 규범 촉진국(norm entrepreneur)으로서의 외교 전략을 모색해야 한다. 이는 국제 갈등의 조정자 역할을 수행함과 동시에, 한국형 규범을 제안하고 확산시키는 능동적 규범 형성자로서의 위상을 구축하는 길이기도 하다. 이를 통해 한국은 글로벌 AI 거버넌스 형성 과정에서 새로운 질서의 공동 설계자로서 독자적인 역할과 기여를 해나갈 수 있을 것이다.

 

<strong>참고문헌</strong>

김맹근 (2024), 미·중 AI 기술 경쟁 양상과 블록화 전망, 『디지털 비즈온』 2월 9일. https://www.digitalbizon.com/news/articleView.html?idxno=2334605

조은교 (2023), 미·중 첨단기술의 블록화와 우리의 대응, 『이슈분석』, 245.

최계영 (2023), 글로벌 AI 거버넌스 논의와 국제협력, 『KISDI Premium Report』, 23-06.

Niazi, Maral. (2024). “Conceptualizing Global Governace of AI.” Digital Policy Hub Working Paper.

United Nations. (2023). <i>Interim Report: Governing AI for Humanity.</i> https://www.un.org/sites/un2.un.org/files/un_ai_advisory_body_governing_ai_for_humanity_interim_report.pdf

Roberts, Huw, Emmie Hine, Mariarosaria Taddeo, and Luciano Floridi. (2024). “Global AI Governance: Barriers and Pathway Forward.” <i>International Affairs</i> 100(3): 1275-1286.

Koniakou, Vasiliki. (2023). “From the ‘Rush to Ethics’ to the ‘Race for Governance’ in Artificial Intelligence.” <i>Information Systems Frontiers</i> 25: 71-102.

Schmitt, Lewin. (2022). “Mapping Global AI Governance: A Nascent Regime in a Fragmented Landscaple.” <i>AI and Ethics</i> 2: 303-314.

Tallberg, Jonas, Eva Erman, Markus Furendal, Johannes Geith, Mark Klamberg, and Magnus Lundgren. (2023). “The Global Governance of Artificial Intelligence: Next Steps for Empirical and Normative Research.” <i>International Studies Review</i> 25(3): viad040.

Veale, Michael, Kira Matus, and Robert Gorwa. (2023). “AI and Global Governance: Modalities, Rationales, Tensions.” <i>Annual Review of Law and Social Science</i> 19: 255-275.

<b><i>디지털사회</i></b><b><i>(Digital Society)</i></b><b><i>는 연세대학교 디지털사회과학센터</i></b><b><i>(Center for Digital Social Science)</i></b><b><i>에서 발행하는 이슈브리프입니다</i></b><b><i>. </i></b><b><i>디지털사회의 내용은 저자 개인의 견해이며</i></b><b><i>, </i></b><b><i>디지털사회과학센터의 공식입장이 아님을 밝힙니다</i></b>

 ]]></description>
			<author><![CDATA[ssk]]></author>
			<pubDate>Thu, 19 Jun 2025 20:31:23 +0000</pubDate>
			<category domain="http://cdss.yonsei.ac.kr/?kboard_redirect=1"><![CDATA[Issue Brief]]></category>
		</item>
				<item>
			<title><![CDATA[제42차 데이터사이언스 포럼: 박주연 교수(The Ohio State University)]]></title>
			<link><![CDATA[http://cdss.yonsei.ac.kr/?kboard_content_redirect=216]]></link>
			<description><![CDATA[제42차 데이터 사이언스 포럼은 박주연 교수(The Ohio State University, Department of Political Science)의 발표로 진행되었습니다.

"Diversity and Representation in Information Provision to Congress"라는 제목으로, 미국 의회 청문회 증인들의 인종 및 성별을 분석하여 의회가 언제 더 다양한 증인을 초청하는지 알아보았습니다. 제도 설계의 영향을 다각도로 논의할 수 있는 자리였습니다.

 

<a href="http://cdss.yonsei.ac.kr/wp-content/uploads/2025/06/%EC%A0%9C42%EC%B0%A8-%EB%8D%B0%EC%9D%B4%ED%84%B0%EC%82%AC%EC%9D%B4%EC%96%B8%EC%8A%A4%ED%8F%AC%EB%9F%BC-%ED%8F%AC%EC%8A%A4%ED%84%B0.png"><img class="alignnone size-full wp-image-2082" src="http://cdss.yonsei.ac.kr/wp-content/uploads/2025/06/%EC%A0%9C42%EC%B0%A8-%EB%8D%B0%EC%9D%B4%ED%84%B0%EC%82%AC%EC%9D%B4%EC%96%B8%EC%8A%A4%ED%8F%AC%EB%9F%BC-%ED%8F%AC%EC%8A%A4%ED%84%B0.png" alt="" width="1200" height="1200" /></a>]]></description>
			<author><![CDATA[ssk]]></author>
			<pubDate>Sat, 07 Jun 2025 15:34:57 +0000</pubDate>
			<category domain="http://cdss.yonsei.ac.kr/?kboard_redirect=3"><![CDATA[Data Science Forum]]></category>
		</item>
				<item>
			<title><![CDATA[제41차 데이터 사이언스 포럼: 김태균 교수(KAIST 디지털인문사회과학부)]]></title>
			<link><![CDATA[http://cdss.yonsei.ac.kr/?kboard_content_redirect=215]]></link>
			<description><![CDATA[제41차 데이터 사이언스 포럼은 김태균 교수(KAIST 디지털인문사회과학부)의 발표로 진행되었습니다.

"Moralizing Politics: The Rise of Strategic Rhetoric"이라는 제목으로, 정치인의 SNS 발언을 중심으로 '정치의 도덕화' 현상을 분석하였습니다.

 

<a href="http://cdss.yonsei.ac.kr/wp-content/uploads/2025/06/%EC%A0%9C41%EC%B0%A8-%EB%8D%B0%EC%9D%B4%ED%84%B0%EC%82%AC%EC%9D%B4%EC%96%B8%EC%8A%A4%ED%8F%AC%EB%9F%BC-%ED%8F%AC%EC%8A%A4%ED%84%B0.jpg"><img class="alignnone size-full wp-image-2081" src="http://cdss.yonsei.ac.kr/wp-content/uploads/2025/06/%EC%A0%9C41%EC%B0%A8-%EB%8D%B0%EC%9D%B4%ED%84%B0%EC%82%AC%EC%9D%B4%EC%96%B8%EC%8A%A4%ED%8F%AC%EB%9F%BC-%ED%8F%AC%EC%8A%A4%ED%84%B0.jpg" alt="" width="1050" height="1200" /></a>]]></description>
			<author><![CDATA[ssk]]></author>
			<pubDate>Sat, 07 Jun 2025 15:34:31 +0000</pubDate>
			<category domain="http://cdss.yonsei.ac.kr/?kboard_redirect=3"><![CDATA[Data Science Forum]]></category>
		</item>
				<item>
			<title><![CDATA[제40차 데이터 사이언스 포럼: 홍순만 교수(연세대학교 행정학과)]]></title>
			<link><![CDATA[http://cdss.yonsei.ac.kr/?kboard_content_redirect=214]]></link>
			<description><![CDATA[제40차 데이터 사이언스 포럼은 홍순만 교수(연세대학교 행정학과)의 발표로 진행되었습니다.

"Decoding Risk Preferences: AI and Human Decision-Making Under Uncertainty"라는 제목으로, 불확실성 상황에서 인간과 AI의 의사결정의 차이에 대해 논의하였습니다.

 

<a href="http://cdss.yonsei.ac.kr/wp-content/uploads/2025/06/%EC%A0%9C40%EC%B0%A8-%EB%8D%B0%EC%9D%B4%ED%84%B0%EC%82%AC%EC%9D%B4%EC%96%B8%EC%8A%A4%ED%8F%AC%EB%9F%BC-%ED%8F%AC%EC%8A%A4%ED%84%B0.jpg"><img class="alignnone size-full wp-image-2080" src="http://cdss.yonsei.ac.kr/wp-content/uploads/2025/06/%EC%A0%9C40%EC%B0%A8-%EB%8D%B0%EC%9D%B4%ED%84%B0%EC%82%AC%EC%9D%B4%EC%96%B8%EC%8A%A4%ED%8F%AC%EB%9F%BC-%ED%8F%AC%EC%8A%A4%ED%84%B0.jpg" alt="" width="720" height="960" /></a>]]></description>
			<author><![CDATA[ssk]]></author>
			<pubDate>Sat, 07 Jun 2025 15:33:38 +0000</pubDate>
			<category domain="http://cdss.yonsei.ac.kr/?kboard_redirect=3"><![CDATA[Data Science Forum]]></category>
		</item>
				<item>
			<title><![CDATA[제 39차 데이터사이언스포럼: 송현진 교수(연세대학교 언론홍보영상학부)]]></title>
			<link><![CDATA[http://cdss.yonsei.ac.kr/?kboard_content_redirect=213]]></link>
			<description><![CDATA[제39차 데이터 사이언스 포럼은 송현진 교수(연세대학교 언론홍보영상학부)의 발표로 진행되었습니다.

"Temporal Dynamics of Correction: Understanding Long-Term Effects of Fact-Checking in the Age of AI"라는 제목으로, 펙트체킹 효과의 장기적 영향, AI를 이용한 오정보 교정 전략 등에 대해 논의하였습니다.

<a href="http://cdss.yonsei.ac.kr/wp-content/uploads/2025/06/%EC%A0%9C39%EC%B0%A8-%EB%8D%B0%EC%9D%B4%ED%84%B0%EC%82%AC%EC%9D%B4%EC%96%B8%EC%8A%A4%ED%8F%AC%EB%9F%BC-%ED%8F%AC%EC%8A%A4%ED%84%B0.jpg"><img class="alignnone size-full wp-image-2079" src="http://cdss.yonsei.ac.kr/wp-content/uploads/2025/06/%EC%A0%9C39%EC%B0%A8-%EB%8D%B0%EC%9D%B4%ED%84%B0%EC%82%AC%EC%9D%B4%EC%96%B8%EC%8A%A4%ED%8F%AC%EB%9F%BC-%ED%8F%AC%EC%8A%A4%ED%84%B0.jpg" alt="" width="720" height="960" /></a>]]></description>
			<author><![CDATA[ssk]]></author>
			<pubDate>Sat, 07 Jun 2025 15:33:07 +0000</pubDate>
			<category domain="http://cdss.yonsei.ac.kr/?kboard_redirect=3"><![CDATA[Data Science Forum]]></category>
		</item>
				<item>
			<title><![CDATA[제38차 데이터 사이언스 포럼: 이기헌 교수(연세대학교 언더우드국제대학 융합인문사회과학부)]]></title>
			<link><![CDATA[http://cdss.yonsei.ac.kr/?kboard_content_redirect=212]]></link>
			<description><![CDATA[제38차 데이터 사이언스 포럼은 이기헌 교수(연세대학교 언더우드국제대학 융합인문사회과학부)의 발표로 진행되었습니다.

"머신러닝의 혁신적인 활용, 그리고 혁신을 위한 머신러닝의 활용"라는 제목으로, 머신러닝 활용을 통한 사회과학 문제의 해결, 혁신 분석 방법론을 다각도로 검토하였습니다.

 <img src="http://cdss.yonsei.ac.kr/wp-content/uploads/kboard_attached/3/202506/6843e34e092f29857279.png" alt="" />]]></description>
			<author><![CDATA[ssk]]></author>
			<pubDate>Sat, 07 Jun 2025 15:32:38 +0000</pubDate>
			<category domain="http://cdss.yonsei.ac.kr/?kboard_redirect=3"><![CDATA[Data Science Forum]]></category>
		</item>
				<item>
			<title><![CDATA[제37차 데이터 사이언스 포럼: 유은재 선임연구원(KISO)]]></title>
			<link><![CDATA[http://cdss.yonsei.ac.kr/?kboard_content_redirect=211]]></link>
			<description><![CDATA[제37차 데이터 사이언스 포럼은 유은재 선임연구원(한국인터넷 자율정책기구 KISO)의 발표로 진행되었습니다.

"한국인터넷자율정책기구 KISO 자율규제 현황: 게시물 관련 정책을 중심으로"라는 제목으로, 네이버와 카카오와 같은 포탈사이트, 그리고 온라인 커뮤니티들을 회원사로 갖고 있는 KISO의 경험을 토대로, 온라인 포탈사이트, 커뮤니티들의 허위정보, 혐오표현 등에 대한 자율규제의 현실은 어떠하며 앞으로 개선해야할 점은 무엇인지에 대해 생생한 연구결과를 들어볼 수 있었습니다.

 <img src="http://cdss.yonsei.ac.kr/wp-content/uploads/kboard_attached/3/202506/6843e03947d3c8085340.png" alt="" />]]></description>
			<author><![CDATA[ssk]]></author>
			<pubDate>Sat, 07 Jun 2025 15:32:03 +0000</pubDate>
			<category domain="http://cdss.yonsei.ac.kr/?kboard_redirect=3"><![CDATA[Data Science Forum]]></category>
		</item>
				<item>
			<title><![CDATA[사이버커뮤니케이션학회 2025 봄철정기학술대회 패널]]></title>
			<link><![CDATA[http://cdss.yonsei.ac.kr/?kboard_content_redirect=210]]></link>
			<description><![CDATA[디지털사회과학센터는 2025년 5월 23일 강원대학교 삼척캠퍼스에서 진행된 사이버커뮤니케이션학회 2025 봄철정기학술대회 "분열과 소통: 정치 사회의 혼란과 미디어의 역할"에서 AI혁신연구원과 함께 패널을 기획하였다. 패널에서는 김현, 박성호, 송지향 전임연구원이 최근의 연구성과를 발표하였다.

김현: '혐오 표현'의 개념적 정의에 대한 검토
박성호: 인터넷 정보활동이 투표결정 시점과 전략투표 여부에 미치는 영향
송지향: 디지털 공간에서 남녀 집단의 다른 정치관 형성

단국대의 김범수 박사가 사회를 맡았으며, 토론자로는 장휘(세종대), 한은수(연세대), 홍성우(한국외대)이 참여하였다.
<img src="http://cdss.yonsei.ac.kr/wp-content/uploads/kboard_attached/4/202506/6843d101b8ca31472238.png" alt="" />
<img src="http://cdss.yonsei.ac.kr/wp-content/uploads/kboard_attached/4/202506/6843d110307031934130.png" alt="" />]]></description>
			<author><![CDATA[ssk]]></author>
			<pubDate>Sat, 07 Jun 2025 14:26:27 +0000</pubDate>
			<category domain="http://cdss.yonsei.ac.kr/?kboard_redirect=4"><![CDATA[Academic Events]]></category>
		</item>
				<item>
			<title><![CDATA[디지털사회 제60호: AI 시대, 대중의 인식과 현명한 정책 거버넌스를 향하여]]></title>
			<link><![CDATA[http://cdss.yonsei.ac.kr/?kboard_content_redirect=209]]></link>
			<description><![CDATA[<p style="text-align:center;"><strong>AI 시대, 대중의 인식과 현명한 정책 거버넌스를 향하여</strong></p>
<p style="text-align:right;"><strong>양준석(연세대학교)</strong></p>
<strong>AI의 양면성과 대중 인식의 중요성</strong>

인공지능(AI)은 의료, 금융, 제조, 교육 등 사회 전반에 걸쳐 생산성 향상, 새로운 서비스 창출, 삶의 질 개선 등 혁명적 변화를 주도한다. 데이터 분석, 패턴 인식, 자연어 처리, 이미지 생성과 같은 AI의 핵심 능력은 과거에는 상상하기 어려웠던 문제 해결의 가능성을 열어준다. 그러나 이러한 발전 이면에는 일자리 대체, 소득 불평등 심화, 개인정보 침해, 편향된 의사결정, 윤리적 딜레마와 같은 다양한 사회경제적, 윤리적 문제들이 잠재되어 있다 있다 (e.g., Acemoglu &amp; Restrepo, 2022; Autor, Mindell, &amp; Reynolds, 2022; IMF, 2025). AI 알고리즘 학습 데이터의 편견이 사회적 차별을 재생산하거나, AI 기술 오용이 감시 사회나 허위 정보 확산을 초래할 위험도 존재한다.
이처럼 AI는 기회와 위협이라는 양면성을 지니며, 이러한 특성 때문에 AI 기술의 발전 방향과 사회적 수용성을 결정하는 데 있어 대중의 인식이 매우 중요하다. AI 시대의 복잡한 문제들을 해결하고, 기술 발전의 혜택을 공정하게 분배하며 잠재적 위험을 효과적으로 관리하기 위한 '지속적이고 유효한' 정책 수립에는 대중에 대한 이해가 핵심 기반이 된다. 효과적인 AI 거버넌스는 기술적 타당성뿐 아니라 사회적 수용성과 정당성을 확보해야 하며, 대중의 가치와 동떨어진 정책은 저항에 직면하거나 효과가 반감될 수 있다. 따라서 대중의 정책 선호를 분석하는 것은 정책의 실질적 효능성을 담보하는 핵심 요건이될 것이다.

<strong>AI에 대한 대중의 인식: 기대와 우려의 공존</strong>

AI에 대한 대중의 정서는 기대와 우려가 혼재된 복잡한 양상을 보인다. 초기에는 낙관론이 우세했으나, 최근 미국 및 영국 등 서구에서는 AI에 대한 우려와 불안감이 점증하는 경향이 나타난다(Brookings Institution, 2025). AI 기능이 발전하고 대중의 기술 노출이 증가함에 따라 경계심 또한 커지고 있으며, 이는 AI가 추상적 개념에서 실질적 기술로 전환되면서 대중이 그 위험성을 구체적으로 인지하게 됨을 시사한다.
한국의 경우, AI 기술에 대해 전반적으로 높은 관심과 기대를 보이면서도 다양한 위험에 대한 깊은 우려가 공존한다. 2025년 입소스(Ipsos)와 구글 공동 연구에 따르면, 한국인의 AI 잠재력에 대한 기대감(66%)은 우려(35%)보다 현저히 높았고, AI 직접 사용 경험자의 기대감은 75%까지 상승했다. 또한 한국리서치 조사(2025년)에서도 AI 기술 발전을 체감하는 이들 중 다수가 자신의 삶(60%)과 우리 사회(73%)에 긍정적 영향을 기대했다.
그러나 이러한 높은 기대감 속에서도 일자리 감소, 사생활 침해, 정보의 부정확성 및 편향성, 윤리적 문제, 인간관계 약화 등에 대한 우려는 지속적으로 제기되고 있다(KISTEP, 2025). 특히 일자리 감소는 가장 큰 우려 사항으로, IMF는 한국 일자리의 약 50%가 AI에 노출되어 있다고 분석했고(IMF, 2025), 산업연구원은 국내 일자리의 13.1%(327만 개)가 AI로 대체될 가능성이 높다고 전망했으며(KISTEP, 2025), 한국은행 역시 국내 일자리의 51%가 AI 도입에 큰 영향을 받을 것이라고 분석했다(한국은행, 2025).

<strong>AI 태도 형성의 다차원적 요인과 프레이밍 효과</strong>

AI에 대한 단일한 "여론"은 존재하지 않으며, 인구 통계학적, 이념적, 문화적 요인의 복잡한 상호 작용에 의해 견해가 형성되는 다수의 "대중"이 존재한다. AI에 대한 태도를 형성하는 주요 요인들은 다음과 같다.

<strong>1. 물질적 이해관계 (Material Self-Interest):</strong> 개인이 AI 기술 변화의 물질적 수혜자인지 혹은 희생자인지에 대한 판단이 태도에 직접적인 영향을 미친다(Magistro et al., 2025). 일자리 감소 우려와 같은 개인적 손실 가능성, 또는 낮은 가격과 같은 소비자 혜택 등 즉각적인 경제적 이익이 추상적인 사회적 위협보다 중요하게 작용할 수 있다.
<strong>2. 정치 이념 (Political Ideology):</strong> 개인의 정치적 신념 또한 AI 태도를 결정하는 중요 요인이다. 예를 들어 미국에서는 민주당 지지자들이 공화당 지지자들보다 AI 적용에 대해 더 긍정적인 태도를 보이는 경향이 있으며(Gur et al., 2024; Magistro et al., 2025), 이는 AI의 분배적 영향에 대한 서로 다른 평가에서 비롯될 수 있다. 진보주의자들은 기술 발전과 정부 개입으로부터 더 큰 집단적 혜택을 인식하는 반면, 보수주의자들은 전통적 경제 질서의 혼란에 더 민감할 수 있다.
<strong>3. 문화적 지향성 (Cultural Orientation):</strong> 개인주의, 평등주의, 위험 감수성과 같은 문화적 지향성이 AI 태도를 강력하게 예측한다(O’Shaughnessy et al., 2023). 개인주의자는 AI가 창출하는 개인적 기회를 우선시하는 반면, 평등주의자는 잠재적인 사회적 불평등에 더 집중할 수 있다. 이는 규제 및 거버넌스 선호도에도 영향을 미쳐, 개인주의자는 시장 주도 접근을, 평등주의적 공동체주의자는 더 강력한 정부 감독을 지지하는 경향을 보인다.
<strong>4. 기술 친숙도 및 활용 경험 (Tech Familiarity and Experience):</strong> AI 기술에 대한 친숙도와 활용 경험은 AI에 대한 태도 형성에 중요한 역할을 한다. 신흥 기술에 대한 개인적 노출이 많을수록(Horowitz &amp; Kahn, 2021), AI 활용 능력 수준이 높을수록 AI 애플리케이션 수용도가 높아지는 경향이 있다(Nussberger et al., 2022). 기술 친숙도는 기술과의 심리적 거리를 줄여 추상적 위협을 더 구체적이고 관리 가능하게 만들 수 있다.
<strong>5. 인구학적 요인 (Demographic Factors):</strong> 연령, 교육 수준, 성별과 같은 인구학적 요인도 AI 평가에 영향을 미친다. 젊고, 교육 수준이 높으며, 남성인 응답자는 지속적으로 더 높은 AI 사용률과 사회적 영향에 대한 더 낙관적인 평가를 보고하는 경향이 있다(Bick et al., 2024). 반면, 노년층, 대학 교육을 받지 못한 사람들, 경제적으로 취약한 인구는 더 큰 회의론을 표명하며(Vesely and Kim, 2024), 이는 잠재적으로 개인적 취약성에 대한 인식 증가를 반영한다.

<strong>프레이밍 효과: 인식의 지형을 바꾸는 힘</strong>

AI에 대한 태도에 영향을 미치는 개인 차원의 내재적 특성 외에도, AI 기술이 사회적으로 어떻게 제시되고 소통되는지, 즉 '프레이밍(framing)' 방식 역시 대중의 인식 형성에 결정적인 영향을 미친다. 동일한 사실이라도 어떤 관점과 맥락에서 제시되느냐에 따라 수용자의 해석과 판단이 달라질 수 있다.
예를 들어, AI가 경제 성장의 기회로 프레이밍될 때, 일자리 안정에 대한 위협으로 프레이밍될 때보다 대중의 태도가 더 긍정적으로 나타난다(Zhang et al., 2021). 또한 AI를 인간과 유사하게 제시하는 의인화된 설명은 AI를 도구와 유사하게 제시하는 도구적 설명보다 더 큰 불안감을 유발할 수 있다(Fast and Horvitz, 2017). 이는 AI를 어떻게 명명하고 설명하며, 어떤 측면을 부각하는지에 따라 대중의 수용도와 정책 지지까지 달라질 수 있음을 의미한다.

<strong>정책적 시사점과 현명한 AI 거버넌스를 향하여</strong>

프레이밍 효과의 중요성은 AI 기술의 사회적 수용성을 높이고 성공적인 정책을 수립하는 데 다음과 같은 중요한 정책적 시사점을 제공한다. 첫째, 정책 입안자들은 AI 기술의 혜택과 위험에 대한 정보를 단순히 전달하는 것을 넘어, 대중이 AI의 사회적 가치를 이해하고 공감할 수 있도록 전략적인 소통 방안을 모색해야 한다는 점이다. AI가 가져올 긍정적 변화와 잠재적 위험을 균형 있게 제시하되, 희망과 기회의 프레임을 통해 사회적 논의를 이끌어갈 필요가 있다. 예를 들어, 일자리 감소 우려에 대응하여 일자리 전환 지원 프로그램이나 새로운 직업 창출 가능성을 함께 제시하는 방식이다. 둘째, '단일한 대중'이 아닌 '다수의 대중'이 존재함을 인지하고, 각 집단의 특성과 우려 사항에 맞는 맞춤형 정책 메시지와 소통 채널을 개발해야 한다. 연령, 직업군, 기술 친숙도, 가치관 등에 따라 AI에 대한 인식과 수용도가 다를 수 있으므로, 획일적인 접근보다는 세분화된 공중(publics)을 대상으로 하는 섬세한 정책 설계와 커뮤니케이션이 요구된다.
결론: 지속적인 소통과 신뢰 구축을 통한 AI 거버넌스
AI에 대한 대중의 인식은 고정되어 있지 않으며 개인의 이해관계, 가치관, 사회문화적 맥락, 그리고 미디어와 정책 담론의 프레이밍 방식에 따라 역동적으로 변화한다. 따라서 성공적인 AI 거버넌스는 이러한 대중 인식의 다층성과 가변성을 고려하여, 다양한 목소리를 경청하고 이를 정책 과정에 적극적으로 반영하는 데서 출발해야 한다.
궁극적으로 AI 시대의 현명한 정책은 기술적 합리성을 넘어 사회적 정당성을 확보하고, 대중과의 지속적인 소통과 신뢰 구축을 통해 기술 발전의 혜택을 모두가 함께 누릴 수 있도록 설계되어야 한다. 이를 실현하기 위해서는 AI에 대한 대중 인식 연구가 확장되고, 그 결과를 바탕으로 심도 있는 사회적 논의를 확장해 나가는 노력이 무엇보다 중요하다. 이는 AI 기술이 가져올 미래를 보다 포용적이고 지속 가능한 방향으로 이끌어가는 데 핵심적인 역할을 할 것이다.

References:
Acemoglu, D., &amp; Restrepo, P. (2022). "Tasks, Automation, and the Rise in US Wage Inequality." Econometrica, 90(5), 1973-2016.
Autor, D., Mindell, D., &amp; Reynolds, E. (2022). The Work of the Future: Building Better Jobs in an Age of Intelligent Machines. MIT Press.
Bick, Alexander, Adam Blandin, and David J Deming. (2024). The rapid adoption of generative ai. Technical report National Bureau of Economic Research.
Brookings Institution. (2025). What the public thinks about AI and the implications for governance. https://www.brookings.edu/articles/what-the-public-thinks-about-ai-and-the-implications-for-governance/
Fast, Ethan, and Eric Horvitz. (2017). “Long-Term Trends in the Public Perception of Artificial Intelligence.” Proceedings of the Thirty-First AAAI Conference on Artificial Intelligence (AAAI-17), pp. 963–969. URL: https://ojs.aaai.org/index.php/AAAI/article/view/10604
Gur, Tamar, Boaz Hameiri, and Yossi Maaravi. (2024). “Political ideology shapes support for the use of AI in policy-making.” Frontiers in Artificial Intelligence, 7, 1447171.
Horowitz, Michael C, and Lauren Kahn. (2021). “What influences attitudes about artificial intelligence adoption: Evidence from US local officials.” PLoS One, 16(10), e0257732.
IMF. (2025). Transforming the Future: The Impact of Artificial Intelligence in Korea. https://www.imf.org/en/Publications/selected-issues-papers/Issues/2025/03/04/Transforming-the-Future-The-Impact-of-Artificial-Intelligence-in-Korea-562939
Ipsos. (2023). Ipsos Global AI 2023 Report. https://www.ipsos.com/sites/default/files/ct/news/documents/2023-07/Ipsos%20Global%20AI%202023%20Report-WEB_0.pdf
KISTEP (한국과학기술기획평가원). (2025). 인공지능 기술 발전이 가져올 미래 사회 변화. https://www.kistep.re.kr/boardDownload.es?bid=0032&amp;list_no=19515&amp;seq=6047
Magistro, B., Borwein, S., Alvarez, R. M., Bonikowski, B., &amp; Loewen, P. J. (2025). "Attitudes toward artificial intelligence (AI) and globalization: Common microfoundations and political implications." American Journal of Political Science.
Nussberger, Anne-Marie, Lan Luo, L Elisa Celis, and Molly J Crockett. (2022). “Public attitudes value interpretability but prioritize accuracy in Artificial Intelligence.” Nature communications, 13(1), 5821.
O’Shaughnessy, Matthew R, Daniel S Schiff, Lav R Varshney, Christopher J Rozell, and Mark A Davenport. (2023). “What governs attitudes toward artificial intelligence adoption and governance?” Science and Public Policy, 50(2), 161–176.
Vesely, Stepan, and Byungdoo Kim. (2024). “Survey evidence on public support for AI safety oversight.” Scientific Reports, 14(1), 31491.
Zhang, Baobao, and Allan Dafoe. (2021). “Artificial Intelligence: American Attitudes and Trends.” Journal of Artificial Intelligence Research, 70, 1145–1168.
한국리서치. (2025). 2024 인공지능 인식조사: 인공지능 관심 및 발전 체감도, 미래 변화 인식. https://hrcopinion.co.kr/archives/30552
한국은행. (2025). [제2025-2호] AI와 한국경제. BOK 이슈노트. https://www.bok.or.kr/portal/bbs/P0002353/view.do?nttId=10089704&amp;menuNo=200433

<b><i>디지털사회</i></b><b><i>(Digital Society)</i></b><b><i>는 연세대학교 디지털사회과학센터</i></b><b><i>(Center for Digital Social Science)</i></b><b><i>에서 발행하는 이슈브리프입니다</i></b><b><i>. </i></b><b><i>디지털사회의 내용은 저자 개인의 견해이며</i></b><b><i>, </i></b><b><i>디지털사회과학센터의 공식입장이 아님을 밝힙니다</i></b><b><i>.</i></b>]]></description>
			<author><![CDATA[ssk]]></author>
			<pubDate>Thu, 29 May 2025 14:37:23 +0000</pubDate>
			<category domain="http://cdss.yonsei.ac.kr/?kboard_redirect=1"><![CDATA[Issue Brief]]></category>
		</item>
			</channel>
</rss>