"AI 유해 콘텐츠 분리 작업에 저임금 노동자 트라우마 커져"
"AI 유해 콘텐츠 분리 작업에 저임금 노동자 트라우마 커져"
이 기사를 공유합니다

(사진=freepik)

[서울파이낸스 이도경 기자] AI가 쏟아내는 부적절한 콘텐츠들을 걸러내는 과정에서 저임금 근로자의 업무 부담이 늘고 있다는 진단이 나왔다.

미국 월스트리트저널(WSJ)은 23일(현지시간) 인건비가 낮은 케냐 등에서 이러한 일자리가 집중되고 있으며, 노동자들이 폭력적이고 괴기스러운 내용을 접한 뒤 트라우마(정신적 외상)를 겪고 있다고 전했다.

소셜미디어 업체들은 AI 열풍 이전에도 부적절한 이용자 게시물을 걸러내기 위한 작업을 해왔으나, 최근 챗GPT 흥행 이후 이러한 작업의 중요성이 더욱 강조되고 있다.

통상 챗GPT등 챗봇 AI가 LLM(대규모 언어모델)을 기반으로 인터넷 상의 대규모의 디지털 문서를 학습하는 만큼, AI가 유해 정보를 학습해 이를 바탕으로 한 콘텐츠가 만들어질 수 있기 때문이다.

때문에 그간 기업들은 온라인상에서 확보하거나 AI가 만들어낸 수많은 콘텐츠 가운데 폭력·자해·강간·참수 등 부적절한 내용을 검토·분류하기 위해 케냐 노동자들을 고용해왔다.

미국 샌프란시스코에 있는 아웃소싱 기업 사마는 2021년 11월 오픈AI와 계약을 맺고 케냐 직원들을 고용해 이 작업을 시작했다.

WSJ는 케냐 근로자들이 검토한 텍스트에 폭력, 괴롭힘, 자해, 강간, 아동 성폭력 등에 관한 묘사가 포함돼 있었다고 전했다.

이어 이러한 작업의 영향으로 일부 직원들이 정신 질환을 앓거나 인간·가족 관계에서 고통을 받고 있으며, 일부는 일을 계속하는 데 어려움을 겪고 있다고 덧붙였다.

오픈 AI의 연구 보고서에 따르면 오픈AI 연구원들은 사마에 여러 묶음의 텍스트 구절을 보낸 뒤 케냐의 직원들이 하나씩 분류하도록 했다.

여기에는 학자들이 모아서 공유한 유해 콘텐츠와 소셜 미디어에서 스크랩한 게시물, AI 모델이 유해한 결과를 생성하도록 만들어진 콘텐츠 등이 포함됐다.

오픈AI는 작업자들에게 텍스트 기반의 성적인 콘텐츠를 네 가지 심각도에 따라 분류하라고 요청했다. 이 중 가장 심각한 단계는 C4로 아동 성적 학대물에 관한 것이었다.

그 바로 아래 단계인 C3에는 근친상간, 강간, 성매매, 성노예 등 실제로는 불법이 될 수 있는 성적 콘텐츠가 포함됐다.

폭력적 콘텐츠의 경우 오픈AI는 이를 세 가지로 분류하라고 했는데 이 중 가장 심각한 단계는 '극도로 사실적인 폭력'이었다.

처음에는 케냐 직원들에게 전달된 텍스트가 두 문장이 넘지 않았으나, 시간이 지나면서 5~6문장으로 늘어났다. 이와 함께 병가·가족 돌봄 휴가를 신청하는 직원들이 많아졌다고 WSJ는 전했다.

앞서 페이스복의 모회사 '메타'에서 유해 콘텐츠를 걸러내는 작업을 했던 케냐 근로자들은 약 200명 이상의 직원이 메타가 강간, 참수, 자살과 관련된 영상과 이미지를 검토하도록 해 트라우마가 생겼다며 페이스북을 고소하기도 했다. 케냐 법원은 지난달 메타에 계약직 직원의 처우에 관한 법적 책임이 있다고 판결했다.

경제협력개발기구(OECD) 마티아스 코먼 사무총장은 최근 AI 발달에 따른 긍정·부정적 측면이 동시에 있다면서 "노동자들은 업무에 AI를 쓴 뒤 업무 강도가 올라갔다고 보고하고 있다"고 말했다.

또 OECD 보고서에 따르면 AI 이외 분야의 전문가들은 AI 사용으로 업무는 늘었지만 임금 인상 효과는 아직 없는 것으로 전해졌다.



이 시간 주요 뉴스
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.