Issue Brief

디지털사회 제63호: 생성형 인공지능과 민주주의: 위기와 가능성

작성자
ssk
작성일
2025-09-05 03:48
조회
354

생성형 인공지능과 민주주의: 위기와 가능성

김태균(KAIST)

디지털화와 인공지능의 도래는 사회, 경제, 정치 전반에 걸쳐 광범위한 변화를 일으키고 있다. 특히 대형언어모델(large language model, LLM)을 포함한 다양한 생성형 인공지능(generative AI)의 발전은 기존에 인간이 수행해왔던 역할을 보완하거나 대체하는 방식으로 사회 제도 전반에 구조적인 변화를 유발하고 있다. 이러한 변화는 정치 영역, 특히 민주주의의 작동 방식에도 중대한 영향을 미칠 것으로 예상된다. 이에 따라 숙의(deliberation)와 타협(compromise), 대표성(representation), 책임성(accountability) 등 민주주의의 핵심 원칙과 작동 양상을 기준으로 생성형 인공지능이 어떤 방식으로 민주주의를 변화시키고 있는지를 이론적, 실증적으로 규명하려는 연구가 절실히 요구된다. 특히 긍정적인 가능성과 부정적인 위험을 모두 있는 그대로 조명하는 다학제적 융합 연구와, 이를 바탕으로 한 증거 기반의 정책 논의는 민주주의의 미래를 위해 필수적인 과제가 될 것이다.

민주주의는 본질적으로 시민 간의 숙의와 타협, 그리고 대표성과 책임성이라는 원칙 하에서 안정적으로 유지된다(Dahl, 2008; Habermas 2015 ; Schumpeter 1942). 다만, 최근의 정치 환경에서는 정치적 양극화(political polarization)가 심화되면서 숙의와 타협의 여지는 급격히 줄어들고 있다. 특히 시민들이 정치적 반대자를 단순한 이견의 주체가 아닌 도덕적으로 타락한 '타자'로 간주하는 경향은 민주주의의 토대를 흔들 수 있다 (Finkel et al., 2020). 대표성은 시민의 선호와 가치가 제도와 정책에 반영되는 과정이며, 민주주의의 핵심 기반이다. Robert Dahl 이 언급했듯이, 민주주의는 시민들의 가치와 선호에 지속적으로 반응하는 정부를 필요로 한다. 또한 책임성은 시민들이 정치인의 발언과 행위를 평가하고 이에 따라 재신임 여부를 결정할 수 있는 메커니즘을 의미한다. 특히 선거는 정부 관료에게 책임을 묻는 가장 중요한 메커니즘이며, 이 메커니즘이 효과적으로 작동하기 위해서는 시민이 정치인의 행동에 관한 정확한 정보에 접근할 수 있어야 한다.

최근에는 인공지능 행위자(AI agents)가 시민들의 일상적인 대화에 개입했을 때, 정치적 이견을 좁히고 정서적 적대감을 완화하며, 더 나아가 숙의와 타협의 가능성을 높이는 데 기여할 수 있는지를 탐색하는 연구들이 활발히 이루어지고 있다. 예컨대 Argyle et al. (2023)은 실험을 통해, 서로 다른 정치 성향을 가진 시민 간의 온라인 대화에서 인공지능이 감정적 대립을 완화하고 보다 협력적인 상호작용을 유도할 수 있음을 보여준다. Hackenburg et al. (2025) 역시 대규모 실험을 통해 대형언어모델이 정치적으로 이질적인 집단 간의 의견 간극을 좁히는 데 기여할 수 있다는 기술적 가능성을 보여주고 있다. 그러나 동시에, 생성형 인공지능의 정치적 편향성과 그 인식 가능성에 대한 우려도 제기되고 있다. Potter et al. (2024)는 대형언어모델이 미국의 민주당이나 진보 성향으로 편향되어 있음을 다수의 정책 평가, 투표 시뮬레이션, 후보 태도 평가의 차원에서 보여준다. 나아가 Westwood et al. (2025)은 시민들이 실제로 대형언어모델의 정치적 편향을 감지할 수 있으며, 그 편향성을 인식한 상태에서 정치적 메시지를 평가하고 있음을 강조한다. 즉, 대형언어모델은 정치적 양극화 완화를 위한 기술적 가능성을 가지고 있지만, 동시에 편향성 그 자체, 그리고 편향성에 대한 시민들의 인식이 숙의와 타협의 문화를 저해하거나 정파성을 강화할 위험도 내포하고 있다는 것을 알 수 있다. 따라서 이러한 편향성의 발생 조건과 정치적 효과에 대한 정밀한 규명은, 인공지능 시대의 민주주의를 이해하기 위한 핵심적 과제가 된다.

민주주의의 핵심 원칙 중 하나인 대표성(representation) 측면에서도 생성형 인공지능은 중대한 파급력을 가질 수 있다. 대표성이란 시민들의 선호와 가치가 제도와 정책 결정에 충실히 반영되는 과정을 의미하며, 이를 위해서는 정치인들이 시민의 의견을 정확히 감지하고 이해할 수 있어야 한다. 그런데 오늘날 시민들의 정치적 의사 표현은 점점 온라인 뉴스, 소셜 미디어, 디지털 커뮤니티 등 디지털 공간을 통해 이루어지고 있으며, 이 공간에서의 여론 형성과 전달 과정에 생성형 인공지능이 깊숙이 개입하고 있다는 점은 주목할 만하다. 관련하여, Kreps & Kriner (2024)는 GPT-3를 기반으로 한 대규모 실험을 통해, 정치인들이 인공지능이 생성한 메시지를 실제 유권자가 작성한 메시지와 거의 구별하지 못하며, 실제로 그러한 메시지에 유의미하게 반응한다는 점을 보여주었다. 이는 ‘가짜 시민 의견(fake constituent sentiment)’의 대량 생산이 가능해졌다는 것을 의미하며, 정치인들이 실제 시민의 선호를 오인하거나 왜곡된 여론에 반응함으로써 대표성이 구조적으로 훼손될 수 있음을 시사한다.

마지막으로, 책임성(accountability) 측면에서도 생성형 인공지능의 등장은 민주주의에 중대한 변화를 예고한다.  민주주의는 시민들이 정치인의 행위에 책임을 물을 수 있어야 하며, 이를 가능케 하는 핵심적인 메커니즘 중 하나는 자유롭고 공정한 선거이다. 그리고 이러한 선거 책임성(ballot-box accountability)이 실효성 있게 작동하기 위해서는, 시민들이 자신을 대표하는 정치인의 정책 행위와 발언에 대한 정확한 정보에 접근할 수 있어야 한다. 이러한 맥락에서, 생성형 인공지능은 새로운 위협으로 작동할 수 있다. Goldstein et al. (2024)은 대형언어모델이 생성한 선전물(propaganda)이 인간이 작성한 콘텐츠만큼이나 설득력이 있으며, 유권자들에게 유의미한 영향을 미칠 수 있음을 실험적으로 보여준다. 이들은 실험 참가자에게 GPT-3가 생성한 정치적 메시지를 노출시키는 방식으로 설득력, 신뢰도 투표 선택 등에 미치는 영향을 측정하였으며, 그 결과 대형언어모델이 생성한 메시지는 인간의 메시지와 거의 동등하거나 때로는 더 큰 영향력을 보였다.

더불어, 이러한 문제는 단순히 국내 정치에만 국한되지 않는다. 악의를 가진 외국 행위자나 정치적 이해관계자들이 생성형 인공지능을 활용해 특정 정치적 입장을 확산시키고 여론을 조작하는 방식으로 정치적 영향력을 행사할 가능성도 존재하기 때문이다. 특히 기존의 자동화된 봇(bot)을 넘어서는 수준에서 이루어지는 인공지능 기반 개입은 탐지하기 어렵고 대응도 복잡해, 민주주의 체제를 외부 간섭에 더욱 취약하게 만들 수 있다. 따라서 인공지능이 초래하는 책임성의 약화는 기술적 문제이자 정치적 과제로, 국제적 차원의 감시, 대응 체계 구축과 더불어 시민의 정보 해독력 및 디지털 리터러시 향상과 같은 복합적인 접근이 요구된다.

이상의 논의를 종합해보면, 생성형 인공지능은 민주주의에 복합적인 영향을 미치는 기술로, 그 영향은 맥락에 따라 복잡, 상이하게 나타날 수 있다. 생성형 인공지능은 숙의와 타협을 촉진하고 정치적 대화를 건설적으로 이끌 수 있는 잠재력을 지닌 동시에, 편향성을 통해 당파 간의 갈등을 악화시킬 수 있으며, 여론 조작과 시민의 정치적 판단 능력 약화를 야기해 민주주의의 대표성과 책임성에 심각한 위협이 될 수 있다. 이러한 맥락에서 생성형 인공지능이 민주주의에 미치는 영향을 이해하고 대응하기 위해서는 특정 국가나 문화에 국한되지 않고 다양한 정치적 환경에서의 실증 연구가 요구된다. 현재 많은 연구가 미국을 중심으로 이루어지고 있으나, 정치문화적 배경이 다른 국가들에서도 유사하거나 상이한 결과가 나타나는지에 대한 비교연구가 확대되어야 한다. 또한 이러한 분석은 기술에 대한 이해뿐 아니라 정치 및 민주주의의 작동 원리에 대한 깊은 통찰을 필요로 하며, 따라서 다학제적 연구의 접근이 반드시 수반되어야 한다. 궁극적으로, 인공지능이 민주주의의 원칙과 가치를 강화하는 방향으로 설계되고 활용되기 위해서는 국제적인 협력, 다학제적 연구에  기반한 대안 모색이 필수적이며, 이러한 다차원적 접근이 앞으로의 민주주의 발전에 핵심적인 역할을 할 것이다.

참고문헌

Argyle, L. P., Bail, C. A., Busby, E. C., Gubler, J. R., Howe, T., Rytting, C., ... & Wingate, D. (2023). Leveraging AI for democratic discourse: Chat interventions can improve online political conversations at scale. Proceedings of the National Academy of Sciences120(41), e2311627120.

Dahl, R. A. (2008). Polyarchy: Participation and opposition. Yale University Press.

Finkel, E. J., Bail, C. A., Cikara, M., Ditto, P. H., Iyengar, S., Klar, S., ... & Druckman, J. N. (2020). Political sectarianism in America. Science370(6516), 533–536.

Goldstein, J. A., Chao, J., Grossman, S., Stamos, A., & Tomz, M. (2024). How persuasive is AI-generated propaganda? PNAS Nexus, 3(2), pgae034.

Habermas, J. (2015). Between facts and norms: Contributions to a discourse theory of law and democracy. John Wiley & Sons.

Hackenburg, K., Tappin, B. M., Röttger, P., Hale, S. A., Bright, J., & Margetts, H. (2025). Scaling language model size yields diminishing returns for single-message political persuasion. Proceedings of the National Academy of Sciences122(10), e2413443122.

Kreps, S., & Kriner, D. L. (2024). The potential impact of emerging technologies on democratic representation: Evidence from a field experiment. New Media & Society26(12), 6918–6937.

Schumpeter, J. A. (1942). Capitalism, socialism and democracy. New York: Harper & Brothers.

Potter, Y., Lai, S., Kim, J., Evans, J., & Song, D. (2024). Hidden Persuaders: LLMs' Political Leaning and Their Influence on Voters. arXiv preprint arXiv:2410.24190.

Westwood, S. J., Grimmer, J., & Hall, A. B. (2025). Measuring Perceived Slant in Large Language Models Through User Evaluations.

디지털사회(Digital Society)는 연세대학교 디지털사회과학센터(Center for Digital Social Science)에서 발행하는 이슈브리프입니다디지털사회의 내용은 저자 개인의 견해이며디지털사회과학센터의 공식입장이 아님을 밝힙니다.




전체 0