내부 검토 결과, 유해 콘텐츠 제대로 감지 못해

“세차 영상과 총격 게임 영상 구별 못해”

차 충돌 영상이나 닭싸움 영상도 인식 어려워

혐오 발언은 2%만 감지…폭력 선동은 완전 무방비

 

 페이스북이 유해 콘텐츠를 걸러내기 위해 도입한 인공지능 시스템이 거의 제 기능을 못한다는 내부 평가가 공개됐다. 페이스북 로고. 로이터

 

페이스북이 유해한 콘텐츠를 신속하게 차단하기 위해 도입한 인공지능(AI)이 제 기능을 못 한다는 내부 평가가 공개됐다.

 

<월스트리트 저널>은 17일(현지시각) 페이스북 내부 문건을 입수해, 인공지능이 ‘1인칭 총격 게임’ 영상, 혐오 발언 등을 일관되게 파악하지 못하고 닭싸움과 차량 충돌 영상도 제대로 인지하지 못했다고 보도했다.

 

이 문건에서 페이스북 직원들은 인공지능이 혐오 발언의 극히 일부만 걸러내는 것으로 진단했다. 페이스북의 연구 담당 과학자는 2019년에 내놓은 검토 결과에서 인공지능을 이용한 시스템이 전체 혐오 발언의 약 2%만 감지해 삭제하는 것으로 평가했다. 그는 “전략 변화가 없는 한 단기적으로 감지율을 10~20% 이상으로 높이기 어렵다”고 진단했다. 지난 3월 또다른 직원들의 검토 결과도 이와 비슷한 결론을 내렸다고 신문은 덧붙였다. 페이스북의 폭력 선동 금지 규정을 위반한 콘텐츠의 경우는 감지율이 0.6%로 더욱 낮았다.

 

인공지능이 제대로 감지하지 못하는 콘텐츠에는, 총격 장면을 근접 촬영한 영상과 탑승자의 신체 손상이 확인되는 차량 충돌 영상도 있다고 신문은 전했다. 인공지능은 자동차 세차 영상을 ‘1인칭 총격 게임’ 영상으로 잘못 분류하거나, 반대로 총격 게임 영상을 세차 영상으로 분류하기도 했다. 내부 문건에는 2018년 한 엔지니어가 차 충돌 영상과 닭싸움 영상이 널리 퍼지는 것을 확인하고 인공지능에게 이런 영상들을 학습시켰으나 학습에 실패한 내용도 소개되어 있다. 인공지능은 평범한 닭과 싸우는 닭을 제대로 구별하지 못했다고 직원들은 지적했다.

 

인공지능이 콘텐츠를 삭제해야 할 대상인지 확신하지 못할 경우 노출 빈도를 줄이는 데 그치게 되고, 콘텐츠를 올린 사용자에 대해서는 아무런 조처도 취하지 않는다고 <월스트리트 저널>은 전했다.

 

페이스북은 2년 전 유해 콘텐츠를 사람이 직접 검토하는 비율을 줄이고 인공지능 의존도를 높였으나, 내부에서는 이런 식으로는 유해 콘텐츠를 안정되게 걸러내지 못한다는 평가가 나왔다. 한 고위직 엔지니어는 지난해 중반 작성한 메모에서 “민감한 영역에서는 유해 콘텐츠 대다수를 감지해내는 모델을 만들어낼 가능성이 거의 없을 것”이라고 판단했다.

 

페이스북 대변인은 “내부 문건에서 거론된 감지율은 인공지능을 이용한 경우에 한정된 것”이라며 유해 콘텐츠 노출 축소 등 다른 조처들을 통해서도 유해한 콘텐츠를 줄여가고 있다고 해명했다고 신문은 전했다. 신기섭 기자