반론보도닷컴은 박사 과정의 객원 기자가 직접 미디어, 커뮤니케이션, 마케팅 분야의 연구(논문)를 요약ㆍ소개하는 코너를 통해 업무에 바쁜 홍보인과 마케터들에게 인사이트와 아이디어를 제공한다.  

소셜미디어를 비롯한 디지털 미디어의 발달로 인해 전 세계적으로 가짜 뉴스(fake news)라고 불리는 허위 정보(misinformation)가 무분별하게 생성되고 확산되고 있다. 특히 딥페이크(deep fake)와 같은 AI 기술과 허위 정보가 융합되며 정치 분야에서 각종 루머를 생성하며 기승을 부리고 있다.

2023년 3월, 트럼프 전 대통령의 성관계 입막음 의혹 재판을 앞두고 경찰에 연행되는 조작 이미지가 소셜미디어에 확산된 것은 허위 정보의 대표적 사례이다.

트럼프 전 대통령이 체포되는 모습을 그린 조작 이미지 [출처=엘리엇 히긴스 트위터]
트럼프 전 대통령이 체포되는 모습을 그린 조작 이미지 [출처=엘리엇 히긴스 트위터]

허위 정보에 몸살을 앓는 것은 비단 해외만의 사정이 아니다.

한국언론진흥재단의 <2022 언론수용자 조사>에 따르면 이용자들은 뉴스 기사를 가장한 허위 정보의 확산을 한국 사회를 위협하는 뉴스/정보 분야의 주요 문제로 인식하고 있다.

AI 기반 팩트체크

허위 정보에 따른 피해를 줄이기 위한 법적 조치와 수용자의 디지털 리터러시 교육 등 사회적 차원의 대책이 강구되고 있다. 그중 팩트체크(fact-check)는 뉴스 기사의 진실성을 검증하며 허위 정보로 인한 잘못된 인식을 교정하는 효과적인 수단이다.

일반적으로 기자를 포함한 전문가 집단, 또는 다수의 일반 시민으로 구성된 크라우드소싱이 팩트체크의 주체가 되었으나 최근 AI 기반 팩트체킹에 대한 논의가 활발히 이루어지고 있다,

실제로 영국 팩트체크 기관인 풀 팩트(Full Fact)와 아르헨티나 팩트체크 기관 체케아도(Chequeado) 등은 기사 팩트체크에 AI를 활용하고 있다. 해당 기관들은 자동화된 AI 팩트체크 기술을 통해 기사에 실린 정치인이나 언론인들의 주장, 시민이 제보한 내용의 사실관계를 확인하고 후속 조치를 요구한다.

출처=체케아도 홈페이지. URL: https://chequeado.com/
출처=체케아도 홈페이지. URL: https://chequeado.com/

팩트체크 자동화: 기술적 기반과 신뢰

AI를 활용한 팩트체크는 인간의 한계를 넘어 실시간으로 생성되는 잠재적인 허위 정보를 빠르게 식별할 수 있다는 장점이 있다. 빠른 대처가 가능하기 때문에 이용자들이 가짜 뉴스에 노출되어 잘못된 신념을 갖는 것과 같은 피해를 최소화할 수 있다는 점에서 관심을 받고 있다.

팩트체크 자동화에 AI를 활용하기 위해서는 우선적으로 두 가지 측면이 고려되어야 한다. 먼저 정확히 사실관계를 판정할 수 있는 기술적 기반이 마련되어야 한다. 그리고 이용자들이 AI가 팩트체킹한 메시지를 얼마나 신뢰할 수 있는지 점검할 필요가 있다. 이 글에서는 기술적인 부분 보다는 뉴스 이용자들이 AI가 팩트체킹한 내용을 신뢰하기 위해 필요한 요소를 살펴보고자 한다.

인간의 방향성(directional) 목표

사람들은 커뮤니케이션 과정에서 발생한 메시지를 목표지향적으로 처리한다. 이때 어떠한 목표가 강하게 작동하느냐에 따라 같은 정보라도 처리하는 방식이 달라진다(Kunda, 1990; Molden & Higgins, 2012).

본인의 신념이나 태도에 반하는 상황에 노출되었을 때 심리적 불편함을 가지는 것을 인지 부조화(cognitive dissonance)라고 한다. 사람들은 흔히 인지 부조화 상태를 피하기 위해 방향성 동기에 따라 정보를 처리하게 되며 자신이 기존에 가진 신념에 맞게 메시지를 해석한다.

이러한 상황은 정치 기사를 읽는 이용자들에게도 적용된다. 이용자들이 자신의 정치 성향에 따라 기사의 메시지를 다르게 해석하고 신뢰하는 확증 편향(confirmation bias)이 발생하기 때문이다.

AI 휴리스틱에 대한 믿음

사람들은 흔히 “기계는 객관적이고, 논리적이며 정확하고 오류가 없다”는 일반화된 믿음을 가지고 있다(Waddell, 2018; Wang, 2021). 이를 기계 휴리스틱에 대한 믿음(beliefs in machine heuristic)이라고 일컫는다.

같은 맥락에서 인간이 검증한 기사보다 AI가 검증한 기사가 인간의 시각이 반영되지 않아 덜 편향되고 더 정직할 것으로 기대할 수 있다.

팩트체크: 정치 성향, 주체, 확증 편향

이은주, 김현석, 그리고 이종민(2023)의 연구는 앞서 언급한 정치 성향, 주체, 확증 편향 등 다양한 조건에서 뉴스 팩트체크 메시지에 대한 신뢰도가 어떻게 달라지는지 실증적으로 살펴보았다.

출처=이은주·김현석·이종민 (2023). 사람들은 언제 팩트체크를 믿는가?: 검증 주체와 확증 편향의 영향.
출처=이은주·김현석·이종민 (2023). 사람들은 언제 팩트체크를 믿는가?: 검증 주체와 확증 편향의 영향.

실험 결과, 이용자들의 정치 성향과 팩트체크의 검증 주체에 따라 메시지를 신뢰하고 타인에게 공유하고자 하는 의도가 달라지는 것으로 확인되었다.

팩트체크 판정 결과가 자신의 정치 성향과 같은 경우 주체에 따른 차이가 나타나지 않았지만, 자신의 정치 성향과 다를 경우 전문가보다 AI가 팩트체킹한 메시지를 더 호의적으로 받아들인 것이다.

팩트체크 메시지를 받아들일 때 이용자들이 자신의 정치 성향에 따라 확증 편향적으로 해석한다는 한계가 존재할 수 있다. 이보다 중요한 점은 AI를 정치 기사 팩트체크에 활용하는 방식이 이용자들에게 거부감을 낳기보다 오히려 인간의 검증보다 신뢰할 만한 수단이 될 수 있다는 것이다.

한편 인간의 확증 편향을 고려하여 정치 기사를 넘어 범용적으로 AI 팩트체크 메시지의 신뢰도를 향상시킬 다양한 방안이 향후 모색될 필요가 있다.

저작권자 © 반론보도닷컴 무단전재 및 재배포 금지