디지털사회 제67호: 디지털 기술의 사회적 수용과 측정
작성자
ssk
작성일
2025-11-17 20:29
조회
43
디지털 기술의 사회적 수용과 측정
권은낭(KAIST 디지털인문사회과학센터)
디지털 기술의 사회적 수용
21세기에 들어서며 가속화된 디지털 기술의 발전은 인류 사회에 큰 변혁을 가져오고 있다. 특히 인공지능(AI)을 비롯한 첨단 디지털 기술은 단순히 기술적 진보를 넘어 사회 구조와 경제 시스템 그리고 문화에 이르기까지 광범위한 영향을 미쳤다. 이러한 디지털 전환(digital transformation)은 사회 전반에 거쳐 전례 없는 기회를 확장하는 동시에 우리가 이전에 경험하지 못했던 새로운 형태의 위험을 야기하는 디지털 기술의 양면성을 보이며 기회와 위험을 공존하게 한다. 디지털 기술은 개인화된 맞춤형 정보와 서비스 제공을 통해 생산성과 효율성을 획기적으로 향상시켰으며, 정보 접근성을 높이고 지리적·경제적 제약으로 인한 교육 격차 해소에 기여하고 있다. 그러나 디지털 기술 발전의 혜택은 모든 개인과 집단에게 균등하게 분배되지 않는다. 기술 접근성, 디지털 리터러시 등의 차이에 따라 기술 혜택을 누리는 집단과 소외되는 집단 간의 간극이 확대되며 사회적·경제적 불평등을 심화시킬 가능성이 있다. 또한 디지털 기술은 정보의 생산과 유통 방식에 큰 변화를 가져왔는데, 이 과정에서 허위정보의 확산과 편향된 정보를 선택적으로 취하면서 생기는 양극화 문제, 개인정보 보호와 프라이버시 침해 등은 디지털 기술로 인한 위험으로 제기되고 있다.
이처럼 디지털 기술이 삶의 질에 미치는 다차원적인 영향을 체계적으로 이해하기 위해 OECD(2019)에서는 디지털 기술의 영향을 12개 영역으로 구분하여 각 영역에서의 기회와 위협 요인을 제시하고 있다. 예를 들어, ‘직업과 소득’ 영역에서 디지털 기술의 발달은 개발자 등의 새로운 직업을 창출하는 기회를 제공하지만, 전화 상담원 같은 특정 직군을 대체하여 실업 문제를 야기하는 위협요인이 될 수 있다. 이와 같은 예시는 디지털 기술의 발달이 모든 개인과 집단에게 일률적으로 긍정적인 영향을 미치는 것이 아니라, 특정 영역에서는 일부 집단이 소외되거나 위협을 받을 수 있음을 시사한다.
디지털 기술 중에서도 특히 급격한 발전을 보이고 있는 AI 기술의 경우 해당 기술의 영향력과 위험성을 고려하여 여러 국가와 기구에서 윤리 기준을 마련하고 있다. 미국 국방부(U.S. Department of Defense, 2020)는 2020년 책임성(responsibility), 형평성(equitability), 추적 가능성(traceability), 신뢰성(reliability), 통제 가능성(governability) 이라는 5가지 AI 윤리 원칙을 제시했다. 유네스코(UNESCO, 2021)는 2021년 ‘AI 윤리에 대한 권고(Recommendation on the Ethics of Artificial Intelligence)’를 채택하였으며, 유럽 연합(European Union, 2024)은 2024년 세계 최초로 ‘AI 규제법(AI Act)’을 통과시켰다. 대한민국도 이러한 국제적 흐름에 발맞춰 과학기술정보통신부(과학기술정보통신부, 2020)는 2020년 ‘사람이 중심이 되는 인공지능(AI)’을 발표하여 윤리 기준을 제시했으며, 이를 실행하기 위한 전략과 추진 과제를 지속적으로 마련해 왔다. 이러한 노력이 이어져 2024년 대한민국 국회에서 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법’이 가결되었으며, 2026년 1월 시행을 앞두고 있다. 일명 ‘AI 기본법’이라고 불리는 이 법은 “인공지능의 건전한 발전과 신뢰 기반 조성에 필요한 기본적인 사항을 규정함으로써 국민의 권익과 존엄성을 보호하고 국민의 삶의 질 향상과 국가경쟁력을 강화하는 데 이바지함을 목적”으로 하고 있다.
이러한 변화에 발맞추어 디지털 기술에 대한 학계의 심층적인 관심이 필요하다. 디지털 기술에 대한 균형적이고 올바른 사회적 수용을 촉진하기 위해서는 기술로 인해 발생하는 사회적 기회와 위협 요인을 면밀히 분석하고, 다양한 사회 집단 간 인식 차이를 반영한 맞춤형 해결책을 모색할 필요가 있다. 먼저 AI 기술이 가져오는 사회적 영향을 체계적으로 측정하고 평가할 수 있는 지표와 방법론 개발이 필요하다. 2022년 OpenAI의 ChatGPT 출시를 시작으로 급격히 발전한 생성형 AI 기술은 이전의 기술과는 다른 차원의 사회적 영향을 미치고 있다. 이에 따라 기존의 디지털 기술과 구별되는 AI 기술의 특성을 고려하여 개인과 사회에 미치는 기회와 위협요인을 새롭게 탐색하고, 각 요인별로 집단의 사회적 수용도를 살펴보는 것이 필요하다. 디지털 격차에 대한 지금까지의 연구가 주로 접근성과 활용 차원에 초점을 맞춰왔다면 AI 시대에서는 AI 윤리 인식, AI 시스템과의 상호작용 역량 등을 포괄하는 개념화가 필요하며 단순히 기술의 사용 여부나 빈도를 넘어 기술 활용이 실제 개인과 사회에 어떠한 영향을 미치는지를 종단적으로 추적할 필요가 있다. 더 나아가 AI 디지털 격차를 해소하고 기술 혜택이 모든 사회 구성원에게 균등하게 제공될 수 있는 정책적 방안을 수립할 것을 제언한다. 새롭게 등장한 디지털 기술에 대한 교육 계획은 디지털 격차 해소를 위한 하나의 방안이 될 것이다. AI 기술에 대한 윤리 기준을 종합한 이용 가이드라인을 구축하여 사회 집단별 리터러시 교육을 제공함으로써 기술 활용에서 발생하는 문제점을 해결하고 집단 간 사용 격차를 해결할 수 있을 것이다. 또한 AI 시스템이 특정 집단에 편향되지 않도록 개발 단계에서부터 다양성을 고려해야 하며, AI 정책 수립과정에서도 다양한 집단을 포용하는 것이 필요하다.
사회인구학적 집단별 디지털 기술 인식 측정을 위한 방법론적 접근
그렇다면 디지털 기술에 대한 사람들의 인식은 어떻게 측정할 수 있을까? 디지털 기술의 사회적 수용도는 다양한 방식으로 측정 가능하지만, 디지털 기술의 활용 경험을 여러 차원으로 분해하여 각 요인이 개인에게 기회 또는 위협으로 인식되는지에 대한 정도로 측정할 수 있다. 사회인구학적 배경에 따른 디지털 기술의 기회와 위협에 대한 인식 차이 연구는 동일한 기술이 서로 다른 집단에게 상이한 의미로 다가올 수 있다는 점을 체계적으로 이해할 수 있게 한다. 즉 연령, 성별, 교육 수준, 소득 계층 등 사회인구학적 변수에 따라 동일한 디지털 기술이 어떤 집단에게는 새로운 기회로 인식되는 반면, 다른 집단에게는 사회적 배제를 발생시키는 위협으로 다가올 수 있다는 것이다. 이러한 집단별 인식 차이의 파악은 기회의 강화와 위협의 감소를 위한 맞춤형 정책 대응 방안을 수립하는 데 있어 기초 자료를 제공할 것이다. 디지털 기술, 특히 AI 기술에 대한 기회와 위협 요인을 체계적으로 검토하기 위해서는 국내외에서 마련된 AI 윤리 기준을 참고할 수 있다. 이러한 윤리 기준들은 AI 기술이 개인과 사회에 미칠 수 있는 영향에 대해 검토하며 디지털 기술의 활용 과정에서 고려해야할 구체적인 쟁점들을 반영하고 있다. 대표적으로 대한민국의 ‘사람이 중심이 되는 인공지능(AI) 윤리기준’에서는 10대 핵심 요건으로 인권보장, 프라이버시 보호, 다양성 존중, 침해금지, 공공성, 연대성, 데이터 관리, 책임성, 안전성, 투명성을 제시하고 있다. 이러한 10대 핵심 요건을 포함해 시민들에게 작용할 요인들에 대한 다각도의 고민이 필요하며, 이론적 통합을 바탕으로 시민들에게 다가올 디지털 기술의 기회와 위협 요인을 선정하여 실증적 조사가 필요함을 제안한다.
구체적인 연구 방법론으로는 대규모 설문조사를 통해 디지털 기술에 대한 시민들의 사회적 수용도를 측정할 수 있다. 이때 단순히 활용 빈도나 일반적인 만족도를 묻는 것을 넘어 앞서 도출한 개별 기회 및 위협 요인을 어떻게 인식하는지를 세밀하게 측정하는 것이 중요할 것이다. 수집된 데이터에 대해서는 통계적 분석을 시도할 수 있다. 요인 분석(factor analysis)을 활용하여 다양한 측정 항목들이 어떤 잠재적 차원으로 수렴되는지 규명할 수 있으며, 회귀분석(regression analysis) 등의 분석 기법을 활용하여 디지털 기술의 사회적 수용에 영향을 미치는 주요 변수를 규명할 수 있다. 또한 사회인구학적 변수를 반영한 군집분석(cluster analysis) 등을 통해 응답자들을 유사한 특성을 가진 집단으로 분류하고 각 집단이 보이는 수용 패턴과 특성을 이해할 수 있다. 한편 여러 기회 및 위협 요인들 중에서 시민들이 가장 우선적으로 해결해야 한다고 인식하는 것이 무엇인지를 파악하는 것도 정책적으로 중요한 함의를 갖는다. 이를 위해 쌍대비교 질문 기법(pairwise comparison)을 활용할 수 있다(임정재·조지연·강정한, 2021; Han et al, 2024). 이 방법은 여러 요인 중 두 개를 무작위로 짝지어 제시한 뒤 둘 중 더 중요하다고 생각하는 것을 선택하게 하는 방식으로, 이러한 접근은 기존의 리커트 척도(Likert scale)나 순위 매기기 방식 등에서 발생할 수 있는 인지적 왜곡이나 응답 편향을 완화시켜 우선순위를 더 명확하게 파악할 수 있다는 장점이 있다.
여러 방법론적 접근을 종합적으로 활용한다면 조사 결과를 다층적으로 분석하여 주요 응답 패턴과 유형을 도출할 수 있다. 또한 세부적으로 연령, 성별, 소득 등의 인구통계학적 변수에 따른 수용도의 차이를 비교 분석함으로써 집단별 디지털 격차의 구체적 양상을 파악할 수 있다. 예를 들어, 청년층은 AI로 인한 일자리 대체 위협을 가장 크게 느끼는 반면, 고령층은 기술 활용의 어려움과 사회적 소외에 대한 우려가 클 수 있다. 여성과 남성 간에도 프라이버시 침해나 알고리즘 편향에 대한 민감도가 다를 수 있으며 저소득층은 디지털 기기와 서비스 접근성 문제를 더 심각하게 인식할 수 있다. 이는 단순히 디지털 격차의 존재를 확인하는 것을 넘어서 각 집단이 직면한 고유한 기회와 위협 요인을 구체적으로 이해하고, 이에 기반한 차별화된 정책적 개입 방안을 모색할 수 있게 한다. 집단별 분석을 통해 도출된 함의는 디지털 기술의 균형적 수용을 촉진하고 디지털 격차를 해소하기 위한 실효성 있는 정책적 접근 방안을 제시하는 데 근거를 제공할 것이다. 결국 AI 기술이 진정한 사람 중심의 디지털 기술로 자리 잡기 위해서는 경제적 효율성과 기술적 성과 추구를 넘어, 그 과정에서 발생하는 윤리적 갈등을 해결하고 인간의 사회적 적응을 적극적으로 지원하는 것이 필요함을 제언한다.
참고문헌
과학기술정보통신부, (2020), 사람이 중심이 되는 인공지능(AI).
임정재, 조지연, 강정한. (2021). 사회문제 간 우선순위 파악을 위한 쌍대비교 선택형 응답실험. 한국사회학, 55(2), 141-169.
European Union, (2024), The Act Texts.
Han, D., Kwon, E. R., & Kang, J. H. (2024). Opportunities and Threats of Digital Transformation on Quality of Life: People's Perception in South Korea. 2024 WAPOR Conference.
Krosnick, J. A. (1991). Response strategies for coping with the cognitive demands of attitude measures in surveys. Applied Cognitive Psychology, 5(3), 213-236.
OECD, (2019), How’s Life in the Digital Age?.
UNESCO, (2021), Recommendation on the Ethics of Artificial Intelligence.
U.S. Department of Defense, (2020), DOD Adopts 5 Principles of Artificial Intelligence Ethics.
디지털사회(Digital Society)는 연세대학교 디지털사회과학센터(Center for Digital Social Science)에서 발행하는 이슈브리프입니다. 디지털사회의 내용은 저자 개인의 견해이며, 디지털사회과학센터의 공식입장이 아님을 밝힙니다.
전체 0
댓글을 남기려면 로그인하세요.
