Search
Duplicate
😷

전염병 확산 초기 언론 보도 분석

소속팀
데이터 저널리즘 팀
팀명
셀라리
데모
저희는 뉴스 데이터를 활용해, 뉴스 생산자의 입장에서 특정 주제에 대해 시기별 보도량이나 보도 양상이 어떻게 달라지는지를 분석하고자 했습니다.
시기별로 보도 양상을 파악할 주제로는 ‘감염병’을 선정했습니다. 2012년 사스, 2015년 메르스를 거쳐 2020년 코로나19 팬데믹을 겪었고, 최근에는 원숭이두창이 전세계적 확산 조짐을 보이고 있는데요. 주기적으로 감염병이 대유행해왔고 매 감염병이 빠르게 전파될 때마다 많은 정보량의 뉴스가 쏟아져 왔던 만큼, 감염병별로 보도 양상을 비교하는 분석을 수행하기에 데이터의 양은 충분할 것으로 봤습니다.
감염병의 확산세가 늘어나는 시기별로 언론보도 양상의 패턴도 파악할 수 있을 것으로 예상했는데요. 그중에서도 감염병 확산 초기에 보도량 추이와 주요 보도 내용이 어떤 양상을 보이고, 이러한 양상이 감염병별로는 어떤 차이를 보이는지 분석해보고자 했습니다.
가설 보도량 추이가 유사한 양상을 보이고, 주요 키워드와 토픽이 유사한 내용이라면
감염병 확산을 보도하는 일정한 패턴, 감염병 보도 뉴스에 활용되는 주요 표현들의 패턴을 확인할 수 있을 것이다.
보도량 추이와 주요 키워드, 토픽이 감염병별로 다른 양상을 보인다면
감염병의 특성(전파력, 치명률 등)과 관련 사회,경제,정치 이슈 요인에 따라 감염병 보도 뉴스가 이슈화되는 양상이 어떻게 다른지 분석할 수 있을 것이다.

뉴스 데이터 크롤링

뉴스 검색사이트 빅카인즈(BIG KINDS)가 제공하는 데이터와 검색기능을 활용하여 뉴스 데이터를 수집했습니다.
국내 첫 확진 사례가 발견된 시점을 기준으로 +5일의 기간을 설정하고, 각 병명을 키워드로 하여 뉴스를 상세 검색했습니다.

메르스 : 2015.05.20 국내 첫 확진자 발생 ~ 2015.05.25.

589건의 뉴스 데이터를 추출했습니다. 코로나19 뉴스데이터과 비교해보면, 코로나19 확산 초기의 보도량이 메르스 확산 초기 당시 보도량보다 약 4배 가까이 많이 나타났습니다.

코로나19 : 2020.01.20 국내 첫 확진자 발생 ~ 2020.01.25.

코로나 확산 초기에 ‘우한 폐렴’이란 용어로도 자주 보도가 되었음을 고려하여, “코로나19 OR 코로나 바이러스 OR 우한 폐렴”로 검색했습니다.
2,730건의 뉴스 데이터가 추출되었습니다.

원숭이두창 : 2022.06.22 국내 첫 확진자 발생 ~ 2022.06.27.

771건의 뉴스 데이터를 추출했습니다.
이렇게 코로나19, 메르스, 그리고 원숭이두창에 관련된 뉴스데이터를 각각 수집해보았습니다. 수집된 데이터에서 저희가 활용할 정보는 ‘일자’, ‘제목’, ‘본문 일부’ 이렇게 세 가지입니다.
1.
먼저 일자 정보를 통해 각 날짜별 보도량 추이를 분석합니다.
다음으로 뉴스 ‘제목’과 ‘본문’ 데이터를 각각 전처리와 시각화, 토픽모델링하여
2.
같은 감염병 주제 내에서 제목과 본문에서 각각 강조되는 내용의 차이를 비교합니다.
3.
코로나19/메르스/원숭이두창 감염병별 뉴스데이터에서 강조되는 내용이나 관심사, 보도 동향의 차이를 파악합니다.

보도량 분석

코로나19, 메르스, 원숭이두창의 일자별 기사 건수를 시각화하여 일자별 보도량 추이를 확인하고 비교해봤습니다.
먼저 숫자 형식으로 저장되어 있는 일자 데이터를 ‘datetime’ 형식으로 변환하기 위해 전처리합니다.
import pandas as pd #'일자'column datatype을 int64에서 string 형식으로 변환 df['일자'] = df['일자'].astype('str') #다시 info()로 확인 : object로 바뀜 df.info() #일자 datatype을 datatime64로 변환 df['일자'] = pd.to_datetime(df['일자']) #'일자' 열이 2020-01-20 형태로 변환됨을 확인 df.info()
Python
복사
<class 'pandas.core.frame.DataFrame'> RangeIndex: 2730 entries, 0 to 2729 Data columns (total 15 columns): # Column Non-Null Count Dtype --- ------ -------------- ----- 0 뉴스 식별자 2730 non-null float64 1 일자 2730 non-null datetime64[ns] 2 언론사 2730 non-null object 3 기고자 2565 non-null object 4 제목 2730 non-null object 5 통합 분류1 2730 non-null object 6 통합 분류2 2293 non-null object 7 통합 분류3 1634 non-null object 8 위치 2703 non-null object 9 기관 2652 non-null object 10 키워드 2730 non-null object 11 특성추출(가중치순 상위 50개) 2730 non-null object 12 본문 2730 non-null object 13 URL 2607 non-null object 14 분석제외 여부 170 non-null object dtypes: datetime64[ns](1), float64(1), object(13) memory usage: 320.0+ KB
Plain Text
복사
데이터프레임의 특정 열을 기준으로 데이터를 묶을 수 있는 groupby() 함수로 일자 열을 기준으로 기사 데이터들을 묶은 후, 데이터 시각화 라이브러리 matplotlib를 활용하여 코로나19, 메르스, 원숭이두창의 일자별 기사 건수를 각각 시각화합니다.
#일자 값으로 묶어서 합하기 df_date = df.groupby('일자').sum() #일자, 통합분류 값으로 묶어서 합하기 (계층적으로 groupby) df_date_category = df.groupby(['일자']).sum() import matplotlib.pyplot as plt #plot 시각화 #x df_date.index #y df_date.values #plot(x, y) : plt.plot(df_date.index, df_date.values) #fig, ax 조정 fig = plt.figure(figsize = (15, 4)) ax1 = fig.add_subplot(1,1,1) ax1.plot(df_date.index, df_date.values) plt.show()
Python
복사
일자별 기사 건수 - 코로나19
일자별 기사 건수 - 메르스
일자별 기사 건수 - 원숭이두창
세 감염병 뉴스의 보도량을 나란히 비교해보니, 보도량이 높은 시점이 조금씩 차이를 보였습니다. 코로나19 뉴스는 국내 첫 확진 사례 발견 시점부터 2, 3일이 지난 시점까지 꾸준히 보도량이 많이 나타났고, 메르스 관련 뉴스는 국내 첫 확진 사례 발견 이후 하루가 지난 시점에 보도량이 높게 나타나다가 점차 보도량이 줄어드는 양상을 보였습니다. 코로나19의 경우 전파력이 강해 전파감염이 빠르게 일어나며 계속 보도할 소식이 많았기 때문에 보도량이 높은 시기가 더 오래 유지되고 있는 것으로 보입니다. 감염병 확산 초기에 이슈가 된 후 기간이 경과할수록 보도량이 일정 수준으로 감소하는 패턴은 세 감염병 뉴스의 보도량 추이에서 모두 발견되고 있습니다.
한편 원숭이두창은 국내 첫 확진 사례가 발견되자마자 보도량이 정점을 찍었습니다. 지난 2년간 코로나19에 대응하면서 새로 등장하는 감염병에도 민감하게 반응하고 발빠르게 관심을 가지는 양상을 보이고 있습니다.

형태소 분석

Tokenization

컴퓨터가 분석을 위해 데이터를 사용할 때 문장을 통째로 넣는 게 아닌, 단어를 넣어 유의미한 값을 도출하기 위해서 토큰화 과정은 필수적입니다.
우리가 이번 분석에서 사용할 패키지는 KoNLPy의 Mecab 함수로, 이를 사용하기 위해서는 함수를 설치해주어야 합니다.
pip install konlpy !apt-get update !apt-get install g++ openjdk-8-jdk !pip3 install konlpy JPype1-py3 !bash <(curl -s https://raw.githubusercontent.com/konlpy/konlpy/master/scripts/mecab.sh) from konlpy.tag import Mecab mecab = Mecab()
Python
복사
다음으로, 이번 분석에서는 제목과 본문을 살펴보기로 했으니 해당 열에 속하는 데이터만 추출해 토큰화를 진행해야겠죠? Mecab() 중에서도 명사만 추출하는 mecab.nouns() 함수를 활용하도록 하겠습니다. mecab.morphs() 함수는 명사 포함 형태소를 추출하다 보니, 유의미하지 않은 조사나 어간까지 포함해 분석하는 경우가 많으니 직관적으로 문서의 정보를 파악하기 위해선 명사 분석이 가장 용이합니다.
df['제목_명사'] = df['제목'].map(mecab.nouns) df['본문_명사'] = df['본문'].map(mecab.nouns)
Python
복사

불용어 제거

‘불용어’는 연구자의 주관이 개입하는 개념인데요, 그것은 바로 불용어 제거가 분석에 사용하지 않을 단어를 골라내는 작업이기 때문입니다. 보통 한국어 불용어는 Korean Stopwords 자료와 태깅 한국어 코퍼스에서 고빈도어 상위 100개를 뽑아 만들어진 한국어 불용어 100 자료를 활용합니다. 저희는 이 텍스트 파일을 각각 stop_words.txt, stop_words2.txt로 이름을 붙여 분석을 진행했습니다.
또한, 이 외에도 전염병 보도라는 특성에 맞추어 추가적인 불용어도 선정하였습니다. 전염병 보도인 만큼 빈번히 등장할 수밖에 없는 전염병 이름을 포함하여, 불용어 설정을 하기 전 분석을 돌려보았을 때 신문 기사 보도 전반에서 자주 관찰되는 명사와 동사를 제거하였습니다.
with open("stop_words.txt", 'r', encoding='utf-8') as file: stopword1 = file.read().replace('\n', ', ') with open("stop_words2.txt", 'r', encoding='utf-8') as file: stopword2 = file.read().replace('\n', ', ') stop_words = " ".join((stopword1, stopword2, '코로나19', '코로나', '바이러스', '코로나바이러스', '감염증', '신종', '감염', '전염', '감염병', '전염병', '질병', '증후군', '관리', '하루', '발생', '발병', '중앙', '통제', '의료', '대응', '예방', '소독', '당국', '세계보건기구(WHO)', '중앙방역대책본부', '보건소', '에서', '우리나라', '한국', '국내', '첫', '좀처럼', '가까이', '서도', '육박', '돌파', '가운데', '통해', '처음', '선포', '단계', '조치', '사태', '체계', '당분간', '상황', '거주', '앵커', '기자', '뉴스', '보도', '방송', '특파원', '사진', '영상', '출처', '정부', '따르면', '예정', '공식', '발표', '오전', '오후', '지난', '오는', '오늘', '최근', '현재', '요즘', '날', '전날', '소식', '취재', '이날', '현지시간', '외신', '매체' '사례', '언론', '머니투데이', '헤럴드경제', '아시아경제', '로이터통신', '연합뉴스', '교도통신', 'NHK', '사우스차이나모닝포스트(SCMP)', '노동신문', '대통령', '장관', '[', ']', '?!', '.', '!', ':', '...', '?', ',', '‥', '?)..', ')')) df['제목_명사'] = df['제목_명사'].map(lambda x : [word for word in x if word not in stop_words]) df['본문_명사'] = df['본문_명사'].map(lambda x : [word for word in x if word not in stop_words])
Python
복사

빈도 분석

그 다음으로, 단어별 빈도를 확인하기 위하여 Counter 함수를 설치해줍니다. 어떤 순서로 빈도가 관찰되는지 직관적으로 보아야 이해가 빠르니까요!
또한, 토픽모델링과 워드클라우드 등에 활용하기 위한 데이터 양식도 word_list라는 이름으로 만들면, most_common(100) 메소드를 통해서 각 데이터에서 상위 빈도 100개 단어를 한눈에 알아볼 수 있습니다.
from collections import Counter c = Counter() word_list = sum(df['제목_명사'], []) c = Counter(word_list) c.most_common(100) word_list2 = sum(df['본문_명사'], []) c = Counter(word_list2) c.most_common(100)
Python
복사

Vectorization & LDA

벡터화(vectorization)란 데이터 행렬을 세로 벡터로 바꾸는 선형변환의 유형 중 하나이다.
잠재 디리클레 할당(Latent Dirichlet Allocation, LDA) 토픽 모델링은 문서의 집합에서 토픽을 찾아내는 프로세스이다. 잠재 디리클레 할당은 토픽 모델링의 대표적인 알고리즘이다. LDA는 문서들이 토픽들의 혼합으로 구성되어 있으며, 토픽들은 확률 분포에 기반하여 단어들을 생성한다고 가정한다. 데이터가 주어지면, LDA는 문서가 생성되던 과정을 역추적한다.
벡터화와 LDA 시각화에 앞서 필요한 라이브러리를 불러와줍니다.
from sklearn.feature_extraction.text import CountVectorizer from sklearn.decomposition import LatentDirichletAllocation
Plain Text
복사

1. Vectorization(벡터화)

우선 추출된 텍스트를 Count 기반으로 벡터화 변환할 것입니다. 대표로, 코로나 19의 뉴스 제목 데이터를 시각화하는 과정을 보여드리겠습니다. LDA 기법은 Count 기법의 벡터화만 적용하다 보니 2개의 문서 미만으로 등장하는 단어는 제외하였고, 전체의 10% 이상으로 자주 등장하는 단어 역시 제외하였습니다.
#LDA 는 Count기반의 Vectorizer만 적용 count_vectorizer = CountVectorizer(max_df=0.1, max_features=1000, min_df=2, ngram_range=(1,2)) # 2개의 문서 미만으로 등장하는 단어는 제외, 전체의 10% 이상으로 자주 등장하는 단어는 제외 # bigram도 포함 feat_vect = count_vectorizer.fit_transform(word_list) print('CountVectorizer Shape:', feat_vect.shape) #CountVectorizer Shape: (16807, 940)
Python
복사
CounterVectorizer의 객체 변수인 feat_vect는 16807개의 문서가 940개의 피처로 구성된 행렬 데이터입니다.

2. 토픽모델링: LDA

이제 벡터화된 데이터 세트를 기반으로 LDA 토픽 모델링을 수행해보겠습니다. 토픽의 수는 3개로 설정하겠습니다.
lda = LatentDirichletAllocation(n_components=6) # 토픽 수는 6개로 설정 lda.fit(feat_vect)
Python
복사

3. 토픽별 연관어 출력

각 토픽별 단어 연관도를 보기 쉽도록, 함수를 만들어 연관도가 높은 순으로 단어를 나열해보겠습니다.
def display_topics(model, feature_names, num_top_words): for topic_index, topic in enumerate(model.components_): print('Topic #', topic_index) # components_ array에서 가장 값이 큰 순으로 정렬했을 때, 그 값의 array index를 반환. topic_word_indexes = topic.argsort()[::-1] top_indexes=topic_word_indexes[:num_top_words] # top_indexes대상인 index별로 feature_names에 해당하는 word feature 추출 후 join으로 concat feature_concat = ' '.join([feature_names[i] for i in top_indexes]) print(feature_concat) # CountVectorizer객체내의 전체 word들의 명칭을 get_features_names( )를 통해 추출 feature_names = count_vectorizer.get_feature_names() # Topic별 가장 연관도가 높은 word를 10개만 추출 display_topics(lda, feature_names, 10)
Python
복사
코로나 19의 뉴스 제목 데이터를 기반으로 LDA 토픽 모델링을 실시한 결과, 토픽별로 다음과 같은 단어들이 연관도가 높은 순으로 나열되었습니다.
Topic # 0 중국 환자 비상 공항 연휴 증시 중국인 인천 추가 여행 Topic # 1 공포 봉쇄 속보 검역 사망 입국 비상사태 전역 격리 의료진 Topic # 2 확진 확산 사망자 의심 사스 증상 미국 음성 우려 확인
Python
복사

LDA 시각화: pyLDAvis

LDA 시각화를 위해서는 pyLDAvis를 설치해야 합니다.
pip install pyLDAvis로 설치해서 사용할 수 있습니다.
scikit-learn의 ldamodel에 최적화된 라이브러리를 불러오겠습니다.
import pyLDAvis.sklearn # sklearn의 ldamodel에 최적화된 라이브러리 pyLDAvis.enable_notebook() vis = pyLDAvis.sklearn.prepare(lda, feat_vect, count_vectorizer) pyLDAvis.display(vis)
Plain Text
복사
위와 같은 결과가 출력되었습니다. 좌측의 원들은 각각의 세 개의 토픽을 나타냅니다. 각 원과의 거리는 토픽들 간 서로 얼마나 차이를 보이는지 나타냅니다. 만약 원이 겹친다면, 겹치는 토픽은 유사한 토픽이라는 의미입니다. 현재 도출된 결과로 보아서는, 토픽 간 유사성이 떨어짐을 알 수 있습니다.
이러한 방법으로 코로나 19 기사 본문 텍스트, 메르스, 원숭이두창 기사의 제목 및 본문 텍스트를 기반으로 LDA 토픽 모델링을 실시해보았습니다.

LDA 시각화 결과 해석: 코로나 19

코로나19의 토픽모델링 결과를 대표로 살펴보겠습니다.

TOPIC 1_코로나 초기 발병 및 확산세

코로나 19의 첫 번째 토픽은 “코로나 19 초기 발병 및 확산세”였습니다.
사진에는 없지만 같은 방법으로 코로나 19 뉴스 본문 데이터를 기반으로 LDA 토픽 모델링을 진행한 결과, 코로나 초기 발병지인 ‘우한’, 코로나의 초기 명칭인 ‘우한 폐렴’ 등이 본문에서 관찰되었으며 중국 베이징 역시 연관성이 높은 단어로 등장하였습니다.
확진과 확산, 사망자, 전염병의 증상, 예방법인 마스크 등의 단어가 관찰되며, 과거 중증급성호흡기증후군 사스 역시 언급되었습니다. 베이징과 시진핑 등 중국과 관련된 키워드들이 자주 등장한 것을 확인할 수 있습니다.

TOPIC 2_중국발 코로나로 인한 세계 대응 및 글로벌 증시의 변화

두 번째 토픽은 “중국발 코로나로 인한 세계 대응 및 글로벌 증시의 변화”였습니다.
‘중국’, ‘비상’, ‘경보’ 등 중국발 코로나로 인한 비상 상황을 가리키는 단어들이 확인되며, ‘공항’, ‘인천’, ‘여행’, ‘춘절’ 등 연휴에 따른 이동에 대한 대응 및 여론이 주를 이루었습니다. 또한, ‘프랑스’와 ‘미국’ 등 국제 상황, ‘코스피’, ‘하락’와 같은 증시와 관련된 단어들이 언급되었습니다.

TOPIC 3_확산세에 따른 불안 여론, 국내 상황 및 대응

마지막은 “확산세에 따른 불안 여론 및 국내 상황과 그 대응”입니다.
‘공포’가 가장 연관성이 높은 단어로 등장하였는데 그 뒤를 따라 ‘봉쇄’, ‘사망’, ‘비상사태’, ‘위기’, ‘우려’ 등의 단어가 나오는 것을 통해 확산세에 따른 국내 불안 여론이 관찰됩니다. 봉쇄, 검역, 비상사태, 격리, 접촉 등의 단어들로 보아 확산세에 대한 대응이 Topic 3의 주를 이룸을 알 수 있습니다.
다른 전염병의 결과는, 바로 아래에서 확인하실 수 있습니다!
메르스
원숭이두창

문서별 토픽 할당

1. 각 문서별로 가장 가까운 topic으로 할당

이제 문서별로 가장 가까운 topic으로 할당해주겠습니다.
# 문서별로, 가장 확률이 높은 topic으로 할당해줌 doc_topic = lda.transform(feat_vect) doc_per_topic_list = [] for n in range(doc_topic.shape[0]): topic_most_pr = doc_topic[n].argmax() topic_pr = doc_topic[n].max() doc_per_topic_list.append([n, topic_most_pr, topic_pr]) doc_topic_df = pd.DataFrame(doc_per_topic_list, columns=['Doc_Num', 'Topic', 'Percentage']) doc_topic_df.head()
Python
복사
실제 코로나 19 기사 제목 데이터프레임 내용과 join을 시켜보면 다음과 같은 결과가 나옵니다.
doc_topic_df = doc_topic_df.join(review_df) doc_topic_df.head()
Python
복사

2. 토픽별 문서 수 계산

마지막으로, 토픽별로 문서 수를 계산해보겠습니다.
doc_topic_df_C2.groupby('Topic')[['Doc_Num']].count()
Python
복사
세 개의 토픽으로 이루어진 문서들이 각각 29436, 15870, 22457개 있음을 확인해보았습니다.

워드클라우드

LDA 시각화를 마쳤으니, 토픽 구분 없이 직관적으로 문서 내 등장한 단어의 빈도수를 확인하기 위해 워드클라우드를 제작해보겠습니다.
워드 클라우드(Wordcloud) : 텍스트 내 단어가 언급된 순으로 크기를 다르게 하여 단어의 중요도를 시각화하는 방법
워드클라우드를 생성하기에 앞서서 필요한 라이브러리를 설치해줄 것입니다.
우리가 오늘 사용할 라이브러리는 바로 Matplotlib입니다. matplotlib.pyplot 모듈은 MATLAB과 비슷하게 명령어 스타일로 동작하는 함수의 모음입니다. 해당 모듈의 각각의 함수를 사용하여 간편하게 그래프를 만들고 변화를 줄 수 있습니다!
Pillow 모듈은 파이썬 이미지 처리를 담당하는 모듈입니다. 다양한 이미지 파일 형식을 지원하며, 강력한 이미지 처리와 그래픽 기능을 제공하는 이미지 프로세싱 라이브러리입니다.
from wordcloud import WordCloud # matplotlib.pyplot 모듈의 각각 함수를 사용하여 간편하게 그래프를 만들 수 있다. import matplotlib.pyplot as plt # collections 모듈의 counter 클래스는 주어진 단어에 포함된 각 글자의 수를 세어준다. from collections import Counter from konlpy.tag import Okt from PIL import Image import numpy as np
Python
복사
앞서 진행한 벡터화와, LDA 시각화와 마찬가지로 코로나 19 뉴스 기사 제목을 기준으로 워드클라우드를 생성해주겠습니다. 기사 제목의 데이터프레임을 딕셔너리 형태로 변환해준 다음 워드클라우드를 생성했습니다.
#제목 열 워드클라우드 word_list = sum(df['제목_명사'], []) c = Counter(word_list) word_dictionary = c.most_common(100) word_dict = {word_dictionary[i][0]: word_dictionary[i][1] for i in range(0, len(word_dictionary))} wc = WordCloud(font_path = 'NanumGothic.ttf', background_color = 'white') #폰트지정 gen = wc.generate_from_frequencies(word_dict) plt.figure() plt.imshow(gen)
Python
복사
워드클라우드의 결과를 살펴보니, 코로나 19의 초기 명칭인 ‘우한 폐렴’과 발원지인 ‘중국’, ‘우한’이 가장 두드러지게 나타납니다. 초기 단계의 기사인 만큼 ‘확진’, ‘확산’, ‘비상’ 등 확산세에 따른 우려의 여론도 관찰됩니다.
코로나19뿐 아니라 메르스, 원숭이두창 기사의 워드클라우드는 바로 아래에서 확인하실 수 있습니다.
메르스 워드클라우드
원숭이두창 워드클라우드

결과 분석

위와 같은 방법으로 세 전염병 모두에 대해 분석을 마친 결과, 각 전염병은 다음과 같은 토픽으로 요약할 수 있었습니다.
메르스 1. 국내 첫 확진자 개인에 대한 주목 2. 방역 당국의 대처 3. 국민적 불안 여론
코로나 1. 초기 발병 및 확산세 2. 세계 대응 및 글로벌 증시의 변화 3. 국민적 불안 여론과 국내 대응
원숭이두창 1. 국민적 우려와 국내 대처 2. 전염병의 객관적 정보와 과학적 대응 3. 행정적 대응
초기 언론 보도 경향성의 변화가 보이시나요? 저희가 주목한 점은 바로 다음의 3가지였습니다.
Key Point 1. 환자 개인이나 발원지에 대한 주목도 저하 2. ”대응”에 관한 토픽 수 증가 3. 코로나만 유일하게 “세계 동향” 파악
메르스 시기에는 ‘남성’, ‘부인’ 등 첫 확진자에 대한 정보가 다량으로 보도되었고, 코로나 시기에는 ‘우한’, ‘중국’ 등 그 발원지에 대한 정보가 높았습니다. 그러나 원숭이두창 보도의 경우, 첫 확진자 개인이나 그 발원지에 대한 단어가 많이 등장하지 않았죠.
대신, “대응”에 대한 토픽 수가 증가했습니다. 앞선 두 전염병 모두 당연히 전염병 대응에 대한 토픽이 있었지만, 원숭이두창은 예외적으로 과학적 대응과 행정적 대응의 두 가지 토픽이 ‘대응’과 관련되어 있었습니다.
원숭이두창이 코로나처럼 팬데믹 수준으로 치명적인 바이러스가 아니라는 전문가들의 의견을 생각해보자면, 낮은 위험성을 고려하고도 언론 보도는 코로나 이후 전문가들이 전염병에 어떻게 대처할지, 또 정부가 어떠한 정책을 시행할지 그 해결책이나 예방에 대한 비중이 높아졌습니다.
물론, 코로나는 이례적인 전염병이었던 만큼 세 전염병 중 유일하게 ‘세계 대응’이 토픽으로 등장하였습니다. 전염병이 국내 확진뿐 아니라 전세계적으로 영향을 미쳤다는 사실을 시사하는 셈이죠.

마치며,

이렇게 전염병 초기 언론 보도 경향이 코로나19를 거치며 어떠한 변화를 겪었는지 간략하게 살펴보았습니다. 코로나19가 우리의 삶뿐 아니라 언론이 전염병을 다루는 방식에도 영향을 미쳤다는 점을 시각화해서 살펴보니 흥미롭지 않나요? 이제는 전염병의 발생보다는 그에 대한 대처에 뉴스 생산자의 관심이 높아졌다고도 볼 수 있겠습니다. 현재 이슈가 되는 원숭이두창이 또 한 번 변화를 가져올지 궁금해지는 시점입니다. 하지만 전염병이 더 이상 사람들의 일상과 언론을 타격하지 않기를 바라며, 이만 아티클을 마무리하겠습니다!