포털 사이트의 인터넷 뉴스 댓글, SNS, 커뮤니티 사이트 등의 온라인상에서 명예 훼손 사건이 최근 점점 증가하고 있다. 온라인상의 차별 및 혐오 표현은 명예 훼손 문제뿐만 아니라 사생활 침해, 인신 공격 등 다양한 형태로 온라인 서비스 이용자들을 위협하고 있다. 지난 몇 년간 산업계와 학계는 이러한 문제를 해결하고자 다양한 방법으로 연구해왔다. 하지만 한국어 대상으로 수행된 딥러닝 기반 혐오 표현 탐지 연구는 아직까지 부족한 상황이다. 본 연구의 목적은 혐오 표현뿐만 아니라 다양한 차별적 표현에 대한 탐지를 위해 데이터셋을 구축하고 이를 분류하기 위한 딥러닝 모델링을 실험하는 것이다. 데이터셋 구축은 10명의 인원이 교차적으로 검토를 하면서 7개 항목에 대한 라벨링 기준을 확립했다. 본 연구는 약 137,111개에 해당하는 한국어 인터넷 뉴스 댓글 데이터셋에 대해 7개의 항목을 각각 이진 분류하고, 이를 딥러닝 기법을 통해 분석한다. 본 연구에서 제안하는 기법은 어텐션 기반 다중 채널 CNN 모델링 기법이다. 실험 결과 7개 항목에 대해 가중 평균f1 점수를 평가했을 때, 70.32%의 성능을 달성했다.
포털 사이트의 인터넷 뉴스 댓글, SNS, 커뮤니티 사이트 등의 온라인상에서 명예 훼손 사건이 최근 점점 증가하고 있다. 온라인상의 차별 및 혐오 표현은 명예 훼손 문제뿐만 아니라 사생활 침해, 인신 공격 등 다양한 형태로 온라인 서비스 이용자들을 위협하고 있다. 지난 몇 년간 산업계와 학계는 이러한 문제를 해결하고자 다양한 방법으로 연구해왔다. 하지만 한국어 대상으로 수행된 딥러닝 기반 혐오 표현 탐지 연구는 아직까지 부족한 상황이다. 본 연구의 목적은 혐오 표현뿐만 아니라 다양한 차별적 표현에 대한 탐지를 위해 데이터셋을 구축하고 이를 분류하기 위한 딥러닝 모델링을 실험하는 것이다. 데이터셋 구축은 10명의 인원이 교차적으로 검토를 하면서 7개 항목에 대한 라벨링 기준을 확립했다. 본 연구는 약 137,111개에 해당하는 한국어 인터넷 뉴스 댓글 데이터셋에 대해 7개의 항목을 각각 이진 분류하고, 이를 딥러닝 기법을 통해 분석한다. 본 연구에서 제안하는 기법은 어텐션 기반 다중 채널 CNN 모델링 기법이다. 실험 결과 7개 항목에 대해 가중 평균 f1 점수를 평가했을 때, 70.32%의 성능을 달성했다.
Online defamation incidents such as Internet news comments on portal sites, SNS, and community sites are increasing in recent years. Bias and hate expressions threaten online service users in various forms, such as invasion of privacy and personal attacks, and defamation issues. In the past few year...
Online defamation incidents such as Internet news comments on portal sites, SNS, and community sites are increasing in recent years. Bias and hate expressions threaten online service users in various forms, such as invasion of privacy and personal attacks, and defamation issues. In the past few years, academia and industry have been approaching in various ways to solve this problem The purpose of this study is to build a dataset and experiment with deep learning classification modeling for detecting various bias expressions as well as hate expressions. The dataset was annotated 7 labels that 10 personnel cross-checked. In this study, each of the 7 classes in a dataset of about 137,111 Korean internet news comments is binary classified and analyzed through deep learning techniques. The Proposed technique used in this study is multi-channel CNN model with attention. As a result of the experiment, the weighted average f1 score was 70.32% of performance.
Online defamation incidents such as Internet news comments on portal sites, SNS, and community sites are increasing in recent years. Bias and hate expressions threaten online service users in various forms, such as invasion of privacy and personal attacks, and defamation issues. In the past few years, academia and industry have been approaching in various ways to solve this problem The purpose of this study is to build a dataset and experiment with deep learning classification modeling for detecting various bias expressions as well as hate expressions. The dataset was annotated 7 labels that 10 personnel cross-checked. In this study, each of the 7 classes in a dataset of about 137,111 Korean internet news comments is binary classified and analyzed through deep learning techniques. The Proposed technique used in this study is multi-channel CNN model with attention. As a result of the experiment, the weighted average f1 score was 70.32% of performance.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
또한 세부 항목 별로 라벨을 분류하여 데이터셋을 구축하기 때문에 분류 시 각 항목에 대한 충분한 정보로 모델링을 학습할 수 있다는 장점이 있다. 결론적으로 본연구의 목적은 차별 및 혐오 표현 탐지를 위해 세부적인 항목에 대한 라벨이 포함된 데이터셋 구축하고 딥러닝 기법을 통해 분류 모델의 성능을 고도화하는 것이다. 본연구를 통해 인터넷 사용자들에게 위협이 될 수 있는 혐오 및 차별적 표현을 선제적으로 통제함으로써 건전한 온라인 교류 문화에 기여하는 것을 기대한다.
하지만 한국어 대상연구의 경우 전체적으로 분류 모델의 고도화, 세부 차별적 항목에 대한 분류, 충분한 규모의 데이터셋 구축하는 부분에서 부족함이 있다. 본 연구는 이러한 점을 보완하여 차별적인 표현들을 세부 항목으로 라벨링한 데이터셋을 구축하고 딥러닝 모델링을 통해 분류 모델링을 개발하고자 한다.
본 연구에서는 Bi-LSTM을 적용해 입력되는 문장의 양방향에서 문맥에 대한 정보를 추출하고자 했다. 길이가 n인 문장 내 i번째 단어는 Embedding Layer와 Bi-LSTM Layer를 거치면서 i번째 단어에 대한 양방향의 hidden state를 얻을 수 있다.
이를 통해 딥러닝 모델이 깊어질 때 정보의 흐름을 통제하고 학습 가능성을 극대화 시켜주는 역할을 수행한다[22]. 본 연구에서는 Highway Network를 활용해 CNN Layer 출력과 모델 첫 번째 Embedding Layer의 출력이 각각 반영될 정도를 결정하여 학습효과를 높이고자 했다. 식 (27-30)은 Highway Network의 과정을 나타낸 것으로 Embedding Layer 출력 값은 1D-Global Average Pooling을 적용하여 문장 전체 정보를 함축하여 사용했다.
BERT는 방대한 양의 말뭉치를 바탕으로 단어에 대한 사전 Embedding 을 학습하고 이를 분석 목적에 맞게 Fine-tuning 하는 방식으로 활용되고 있다. 본 연구에서는 사전 학습된 Ko-BERT[24]를 혐오, 차별 표현 분류모델로 Fine-tuning 을 진행하고 성능을 측정해 본 연구에서 제안한 기법과 성과를 비교하고자 했다.
어텐션 메커니즘은 문장번역, 감성분석 및 텍스트 분류 등 여러 NLP(Natural Language Processing)에서 활용되어 분석목적에 따라 문장 내 각 단어마다 차별적인 중요도를 산정해 성능을 개선하였다. 본 연구에서는 어텐션 메커니즘을 Scalar Attention과 Vector Attention으로 구분하여 Bi-LSTM의 hidden state에 적용함으로써 문장의 순서적인 정보를 함께 고려한 attention 특성채널을 얻고자 했다[18].
본 연구에서는 온라인상의 차별 및 혐오 표현을 탐지하기 위한 모델을 개발하였다. 기존의 혐오 표현을 탐지하는 연구들은 문장의 맥락을 고려하지 못했고 혐오 표현 또한 세부적인 항목으로 나누어 분류하지 못 했다.
본 연구에서는 혐오, 차별적인 표현을 분류하기 위한 모델로 어텐션 기반 다중 채널 CNN (Multi-channel CNN with Attention)을 제안한다. 어텐션 기반 다중채널 CNN의 구조는 그림 1과 같으며 LSTM, Attention Layer, CNN과 Highway Network로 구성되어 있다.
Value(Q-K-V)의 구조를 가지고 있다[19]. 본 연구에서도 Q-K구조로 입력요소들 간의 연관성을 나타내는 행렬을 구하고 V에 해당하는 각 입력요소 값에 서로 다른 가중치를 부여하고자 했다. 식 (10), (11)은 문장 내 i번째 단어와 j번째 단어 간의 연관성을 나타내기 위한 것으로 이 과정으로 문장 내 모든 단어 간 연관 정도를 나타내는 행렬 M을 구할 수 있다.
가설 설정
같은 한계점을 가지고 있다. 첫째로, 7가지 항목에 대한 클래스 불균형이 심각한 것이다. 본 연구의 데이터는 연예 뉴스 댓글 데이터 셋을 활용했기 때문에 세부적인 차별적 항목에 대해서 충분한 데이터를 수집하지 못했다.
제안 방법
Vector Attentione Bi-LSTM Hidden State의 각 요소별 중요도를 산출하고 이들의 가중합을 통해 구성했다. 식 (16-18)는 각 Hidden State Vector 마다 Attention 점수를 산출하여 가중합을 구하는 과정을 나타낸 것으로 문장 분류 시 도움이 되는 문맥에 중점을 둘 수 있도록 했다[20].
관련 댓글 데이터셋을 활용한다. 그 중 137, 111 개의 데이터에 대해서 표 1과 같이 어노테이션(annotation) 을 진행했으며, 각종 차별적 표현과 비난 및 혐오 표현을 기준으로 7개 항목을 분류했다. annotation 작업 인원은 총 10명의 빅데이터 분야 연구원들로 구성되며 5명의 인원들이 전담으로 이를 수행했다.
4%, 71%로 나타났다. 논문[15]은 제안하는 기법으로 Convolution-LSTM(Long Short Term Memory)을 활용하여 다양한 텍스트 데이터에 적용하여 분류 모델의 성능을 검증했다. 검증 결과 Convolution-LSTM 분류모델이 f1 점수 기준 대부분의 데이터셋에서 우수한 성능이 측정되었다.
분류 모델학습 시본 연구에 사용된 연예뉴스 댓글 데이터 전체로 말뭉치를 구성하고 Word2Vec 모델을 학습해 Embedding Layer 의 초기 가중치로 활용했다. 또한 모델의 분류 성능을 개선하기 위해 추가된 다중 채널의 효과를 검증하기 위해 LSTM과 Attention 채널이 각각 새롭게 추가될 때마다 분류 모델 성능의 변화를 측정했다.
본 연구에서는 제안기법을 활용하여 총 7가지 혐오, 차별 표현에 대해 개별적으로 이진 분류 모델(Binary Classification Model)학습을 진행했다. 전체 혐오, 차별표현 데이터를 70%, 10%, 20%로 분할하고 70%와 10% 는 각각 train data, validation data로써 모델 학습과 함께 과적합(Overfittting) 여부 확인을 위해 사용했고 20%는 test data로 모델의 성능을 평가했다.
전체 혐오, 차별표현 데이터를 70%, 10%, 20%로 분할하고 70%와 10% 는 각각 train data, validation data로써 모델 학습과 함께 과적합(Overfittting) 여부 확인을 위해 사용했고 20%는 test data로 모델의 성능을 평가했다. 분류 모델학습 시본 연구에 사용된 연예뉴스 댓글 데이터 전체로 말뭉치를 구성하고 Word2Vec 모델을 학습해 Embedding Layer 의 초기 가중치로 활용했다. 또한 모델의 분류 성능을 개선하기 위해 추가된 다중 채널의 효과를 검증하기 위해 LSTM과 Attention 채널이 각각 새롭게 추가될 때마다 분류 모델 성능의 변화를 측정했다.
어텐션 메커니즘은 문장번역, 감성분석 및 텍스트 분류 등 여러 NLP(Natural Language Processing)에서 활용되어 분석목적에 따라 문장 내 각 단어마다 차별적인 중요도를 산정해 성능을 개선하였다. 본 연구에서는 어텐션 메커니즘을 Scalar Attention과 Vector Attention으로 구분하여 Bi-LSTM의 hidden state에 적용함으로써 문장의 순서적인 정보를 함께 고려한 attention 특성채널을 얻고자 했다[18].
못한다. 이에 데이터의 원래 방향과 순서를 역순으로 한 데이터를 두 개의 LSTM에 각각 입력하는 것으로 미래의 정보를 활용할 수 있는 Bi-LSTM이 제안되었다.
다양한 범주를 참고했다. 이에 따라 본 연구에서는 성별(Gender), 정치(Politics), 연령(Age), 종교(Religion), 인종(Race)에 해당하는 5개 항목을 차별적 표현으로 설정했다. 모든 차별적 항목은 중복 라벨이 부여될 수 있다.
Model)학습을 진행했다. 전체 혐오, 차별표현 데이터를 70%, 10%, 20%로 분할하고 70%와 10% 는 각각 train data, validation data로써 모델 학습과 함께 과적합(Overfittting) 여부 확인을 위해 사용했고 20%는 test data로 모델의 성능을 평가했다. 분류 모델학습 시본 연구에 사용된 연예뉴스 댓글 데이터 전체로 말뭉치를 구성하고 Word2Vec 모델을 학습해 Embedding Layer 의 초기 가중치로 활용했다.
최종적으로, Highway Network를 거친 출력 값과 입력된 문장의 혐오, 차별 표현 여부에 대한 실제 정답과 Binary Cross Entropy를 계산하고 모델 전체에 대한 학습을 진행했다.
대상 데이터
그 중 137, 111 개의 데이터에 대해서 표 1과 같이 어노테이션(annotation) 을 진행했으며, 각종 차별적 표현과 비난 및 혐오 표현을 기준으로 7개 항목을 분류했다. annotation 작업 인원은 총 10명의 빅데이터 분야 연구원들로 구성되며 5명의 인원들이 전담으로 이를 수행했다. 각 항목에 대한 모호한 기준은 10명의 합의에 의해 결정했다.
결과적으로 딥러닝 기반 분류모델이 n-gram 기반 분류 모델과 비교했을 때 f1 점수 18%의 향상을 보였다고 한다. 논문[14]은 성차별 및 인종차별 관련 데이터 15, 908개, 혐오 표현 24, 783개, 공격적인 표현 20, 360개의 데이터셋을 구성했다. 구축한 데이터셋을 기반으로 TWEM(Transformed Word Embedding Model) 분류 모델을 실험한 결과 f1 점수가 각각 86%, 92.
본 연구는 논문[11]에서 구축한 2, 033, 893개의 연예 뉴스 관련 댓글 데이터셋을 활용한다. 그 중 137, 111 개의 데이터에 대해서 표 1과 같이 어노테이션(annotation) 을 진행했으며, 각종 차별적 표현과 비난 및 혐오 표현을 기준으로 7개 항목을 분류했다.
기존의 혐오 표현을 탐지하는 연구들은 문장의 맥락을 고려하지 못했고 혐오 표현 또한 세부적인 항목으로 나누어 분류하지 못 했다. 본연구에서는 혐오, 차별 표현을 7가지 세부 항목으로 구분하였고 총 137, 111건의 데이터셋을 구축했다. 또한 혐오, 차별 표현에 대한 분류 성능 고도화를 위해 기존 CNN의 구조에서 3가지 특성 채널과 Highway Network 를 결합하는 모델을 제안하였고 Ko-BERT를 fine-tuning 한 모델과 비교하여 우수한 성능을 보이고 있다.
이론/모형
LSTMe 시계열 또는 순서를 가지는 데이터로부터 유의미한 정보를 추출하기 위해 사용되는 Recurrent Neural Network(RNN)에 기반한다. 기존의 RNN의 구조는 입력되는 전체 시간이나 순서의 길이가 길어질수록 이전 정보가 손실되는 문제가 발생한다.
성능/효과
표에 나타나는 CNN-k의 k는 모델이 사용한 채널의 수를 의미하는 것으로 채널의 구성 또한 함께 표시한 것이다. CNN 모델에 Embedding만 사용한 것에 비해 LSTM과 Attention 채널이 추가될 때 마다 7가지 혐오, 차별 표현 별 모델의 분류 성능이 증가하는 것을 확인할 수 있다. 제안기법에서 3가지 특성채널(Embedding, LSTM, Attention)을 모두 사용하고 Highway Network 를 결합한 모델은 Ko-BERT를 fine-tuning한 모델과 비교하였을 때 전반적으로 우수한 성능을 보이고 있다.
논문[15]은 제안하는 기법으로 Convolution-LSTM(Long Short Term Memory)을 활용하여 다양한 텍스트 데이터에 적용하여 분류 모델의 성능을 검증했다. 검증 결과 Convolution-LSTM 분류모델이 f1 점수 기준 대부분의 데이터셋에서 우수한 성능이 측정되었다. 논문[16]은 차별적 기준 데이터 15, 476 개, 혐오적 기준 데이터 24, 783개, 평가를 위해 페이스북 및 소셜 미디어 댓글 데이터 15, 001개에 해당하는 데이터셋을 구축했다.
데이터셋을 구축했다. 결과적으로 딥러닝 기반 분류모델이 n-gram 기반 분류 모델과 비교했을 때 f1 점수 18%의 향상을 보였다고 한다. 논문[14]은 성차별 및 인종차별 관련 데이터 15, 908개, 혐오 표현 24, 783개, 공격적인 표현 20, 360개의 데이터셋을 구성했다.
논문[14]은 성차별 및 인종차별 관련 데이터 15, 908개, 혐오 표현 24, 783개, 공격적인 표현 20, 360개의 데이터셋을 구성했다. 구축한 데이터셋을 기반으로 TWEM(Transformed Word Embedding Model) 분류 모델을 실험한 결과 f1 점수가 각각 86%, 92.4%, 71%로 나타났다. 논문[15]은 제안하는 기법으로 Convolution-LSTM(Long Short Term Memory)을 활용하여 다양한 텍스트 데이터에 적용하여 분류 모델의 성능을 검증했다.
본연구에서는 혐오, 차별 표현을 7가지 세부 항목으로 구분하였고 총 137, 111건의 데이터셋을 구축했다. 또한 혐오, 차별 표현에 대한 분류 성능 고도화를 위해 기존 CNN의 구조에서 3가지 특성 채널과 Highway Network 를 결합하는 모델을 제안하였고 Ko-BERT를 fine-tuning 한 모델과 비교하여 우수한 성능을 보이고 있다.
제안기법에서 3가지 특성채널(Embedding, LSTM, Attention)을 모두 사용하고 Highway Network 를 결합한 모델은 Ko-BERT를 fine-tuning한 모델과 비교하였을 때 전반적으로 우수한 성능을 보이고 있다. 성능 검증 지표로 사용된 가중 평균 F1 점수는 70.32%로 Ko-BERT 모델의 68.43%보다 높은 성능이 측정되었다. 특히 종교차별과 인종차별 분류성능에서 큰 차이를 보이며 이는 다른 표현들에 비해 클래스 불균형이 심각하기에 학습복잡도가 높은 BERT 모델은 성능이 크게 저하된 것으로 판단된다.
CNN 모델에 Embedding만 사용한 것에 비해 LSTM과 Attention 채널이 추가될 때 마다 7가지 혐오, 차별 표현 별 모델의 분류 성능이 증가하는 것을 확인할 수 있다. 제안기법에서 3가지 특성채널(Embedding, LSTM, Attention)을 모두 사용하고 Highway Network 를 결합한 모델은 Ko-BERT를 fine-tuning한 모델과 비교하였을 때 전반적으로 우수한 성능을 보이고 있다. 성능 검증 지표로 사용된 가중 평균 F1 점수는 70.
논문[16]은 차별적 기준 데이터 15, 476 개, 혐오적 기준 데이터 24, 783개, 평가를 위해 페이스북 및 소셜 미디어 댓글 데이터 15, 001개에 해당하는 데이터셋을 구축했다. 총 13개의 딥러닝 모델링 및 워드 임 베딩 기술을 적용한 결과 테스트 결과로 f1 점수 58%~ 63%로 나타났다.
43%보다 높은 성능이 측정되었다. 특히 종교차별과 인종차별 분류성능에서 큰 차이를 보이며 이는 다른 표현들에 비해 클래스 불균형이 심각하기에 학습복잡도가 높은 BERT 모델은 성능이 크게 저하된 것으로 판단된다.
후속연구
수 있다. 또한, 혐오 및 차별 표현에 제재에 대한 사유를 세부적인 항목으로 분류함으로써 사용자에게 제재 사유에 당위성을 부여할 수 있을 것으로 기대 한다.
본 연구에서 제안하는 모델을 활용한다면 인터넷 사용자들에게 위협이 되는 혐오 및 차별표현을 선제 적으로 통제할 수 있다. 또한, 혐오 및 차별 표현에 제재에 대한 사유를 세부적인 항목으로 분류함으로써 사용자에게 제재 사유에 당위성을 부여할 수 있을 것으로 기대 한다.
텍스트 분류에서 방대한 양의 말뭉치에 적용되는 사전학습 embedding 기법에 따라 모델의 분류 성능에 큰 영향을 미칠 수 있다. 본 연구에서는 Embedding Layer의 초기 가중치로 Word2Vec 모델 한 가지만을 사용하였으나 향후 연구에서 FastText, ELMO(Embeddings from Language Model)등의 모델을 사용한다면 분류성능을 더욱 개선할 수 있을 것으로 기대된다.
첫째로, 7가지 항목에 대한 클래스 불균형이 심각한 것이다. 본 연구의 데이터는 연예 뉴스 댓글 데이터 셋을 활용했기 때문에 세부적인 차별적 항목에 대해서 충분한 데이터를 수집하지 못했다. 특히 7가지 항목 중에서 심한 불균형을 가진 인종차별이나 종교차별에 대해서는 충분한 정보로 학습되었다고 판단할 수 없다.
결론적으로 본연구의 목적은 차별 및 혐오 표현 탐지를 위해 세부적인 항목에 대한 라벨이 포함된 데이터셋 구축하고 딥러닝 기법을 통해 분류 모델의 성능을 고도화하는 것이다. 본연구를 통해 인터넷 사용자들에게 위협이 될 수 있는 혐오 및 차별적 표현을 선제적으로 통제함으로써 건전한 온라인 교류 문화에 기여하는 것을 기대한다.
특히 7가지 항목 중에서 심한 불균형을 가진 인종차별이나 종교차별에 대해서는 충분한 정보로 학습되었다고 판단할 수 없다. 향후 불균형이 심한 항목들에 대해서 추가로 데이터를 수집할 필요가 있다. 둘째로, Embedding Layer의 초기 가중치로 다양한 방법을 시도하지 못한 것이다.
참고문헌 (24)
Korean Ministry of Science and ICT, "2019 the Survey on Internet Use," 2020.
Korean National Police Agency. (2020) Total Cyber Crime Occurrence and Arrest Status [Internet]. Available:https://www.police.go.kr/www/open/publice/publice0204.jsp.
Reuters Institute, "Digital News Report 2020," 2020.
H. G. Kim, "The History of the Internet Real Name System in Korea," The Journal of constitutional precedents, vol. 14, pp. 157-192, 2013.
Hankook Research, "Toxic Comments, is it okay?," [Internet]. Available: https://hrcopinion.co.kr/archives/14589, 2020.
H. J. Kim, Y. M. Yoon, and B. M. Lee, "Prediction System for Abusive Postings using Enhanced FFP," Journal of Advanced Information Technology and Convergence, vol. 9, no. 1, pp. 207-216, 2011.
J. J. Hong, S. H. Kim, J. W. Park, and J. H. Choi, "A Malicious Comments Detection Technique on the Internet using Sentiment Analysis and SVM," Korea Institute of information and Communication Engineering, vol. 20, no. 2, pp. 260-267, 2016.
B. Pinkesh, S. Gupta, M. Gupta, and V. Varma, "Deep Learning for Hate Speech Detection in Tweets," Paper presented at the Proceedings of the 26th International Conference on World Wide Web Companion, 2017.
D. Thomas, D. Warmsley, M. Macy, and I. Weber, "Automated Hate Speech Detection and the Problem of Offensive Language," in Proceeding of the 11th International AAAI Conference on Web and Social Media, Montreal, pp. 512-515, 2017.
D. S. Park and J. W. Cha, "Semi-Supervised Learning for Detecting of Abusive Sentence on Twitter using Deep Neural Network with Fuzzy Category Representation," The Korean Institute of Information Scientists and Engineers, vol. 45, no. 11, pp. 1185-1192, 2018.
J. H. Moon, W. I. Cho, and J. B. Lee, "Beep! Korean Corpus of Online News Comments for Toxic Speech Detection," in Proceeding of the 8th International Workshop on Natural Language Processing for Social Media, Taipei, 2020.
N. D. Gitari, Z. Zuping, H. Damien, and J. Long, "A Lexicon-Based Approach for Hate Speech Detection," International Journal of Multimedia and Ubiquitous Engineering, vol. 10, no. 4, pp. 215-230, 2015.
W. Warner and J. Hirschberg, "Detecting Hate Speech on the World Wide Web," Paper presented at the Proceedings of the second workshop on language in social media, 2012.
R. Kshirsagar, T. Cukuvac, K. McKeown, and S. McGregor, "Predictive Embeddings for Hate Speech Detection on Twitter," in Proceeding of the 2018 Conference on Emprical Methods in Natural Language Processing, Brussels, pp. 1532-1543, 2018.
Z. Zhang, D. Robinson, and J. Tepper, "Detecting Hate Speech on Twitter Using a Convolution-Gru Based Deep Neural Network," Paper presented at the European semantic web conference, 2018.
P. Kapil, A. Ekbal, and D. Das. "Investigating Deep Learning Approaches for Hate Speech Detection in Social Media," in Proceeding of the 20th International Conference on Computational Linguistics and Intelligent Text Processing, La Rochelle: LR, 2020.
S. Hochreiter, and J. Schmidhuber, "Long Short-Term Memory," Neural computation, vol. 9, no. 8, pp. 1735-1780, 1997.
Z. Liu, H. Huang, C. Lu, and S. Lyu. "Multichannel Cnn with Attention for Text Classification," arXiv preprint arXiv:2006.16174, 2020.
A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A. N. Gomez, L. Kaiser, and I. Polosukhin. "Attention Is All You Need," Paper presented at the Advances in neural information processing systems, 2017.
Z. Lin, M. Feng, C. N. D. Santos, M. Yu, B. Xiang, B. Zhou, and Y. Bengio, "A Structured Self-Attentive Sentence Embedding," in Proceeding of the 5th International Conference on Learning Representations, Toulon, 2017.
Y. Kim, "Convolutional Neural Networks for Sentence Classification," in Proceeding of the 2014 Conference on Emprical Methods in Natural Language Processing, Doha, pp. 1746-1751, 2014.
R. K. Srivastava, K Greff, and J Schmidhuber, "Highway Networks," in Proceeding of the 32nd International Conference on Machine Learning, Lille, 2015.
R. J. Boeckmann, and C. T. Petrosino. "Understanding the Harm of Hate Crime," Journal of social issues, vol. 58, no. 2, pp. 207-225, 2002.
※ AI-Helper는 부적절한 답변을 할 수 있습니다.