본문 바로가기

★한 눈에 보는 세상 소식

Google 아동 확대 이미지 검색 전문의 AI 도구 키트를 발표

Google 아동 포르노 이미지 검색 전문의 

AI 도구 키트를 발표




지금까지 많은 조직이 인터넷에 잠복 성적 아동 학대 이미지 (CSAM, child sexual abuse material)의 발견과 퇴치에 노력하고 있습니다 만, 이러한 이미지를 대량으로 심사하는 것은 기술적으로 어렵고, 정신 으로도 힘들 것입니다. Google은 이러한 작업을 대납하도록 AI를 단련했다 "Content Safety API"를 개발했습니다. 


이 툴 킷에 포함 된 딥 신경망은 방대한 자료를 스캔하고 CSAM이 의심되는 것으로 평가를 실시, 인력 체크에 돌 필요가있는 것을 골라 있습니다.

도구 키트의 도입은 인력의 구분에 비해 7 배의 소재 확인을 가능하게하면서 작업에 종사하는 인원의 삭감을 가능하게합니다. 지금까지 이미지 확인 작업의 자동화를위한 노력이 없었던 것은 아닙니다. 단, 자동화 된 시스템으로 알려진 CSAM 이미지와 해시 값의 비교, 즉 이미 발견 된 이미지의 복사를 검출 할 수있는 것에 지나지 않았습니다. 


이에 대해 AI에 의한 검출 방법에서는 전혀 발견되지 않은 (새로운) 소재에 플래그를 세울 수, 그것은 당국의 범죄자 체포와 새로운 학대의 발생 방지에 도움이됩니다. 


Content Safety API는 기업 파트너와 NGO 단체 등에 무료로 제공됩니다. 이 API의 도입이 인터넷의 악성 CSAM 이미지를 극적으로 줄일 수있는 방법은 아직 알 수 없지만 적어도이 작업에 해당하는 조직이 지금까지보다 적은 인원으로 동일한 작업량을 해낼 수있게되는 것은 의심의 여지가 없습니다. 


인간의 뇌의 기능을 함수 모델링 한 신경망을 다층화하고 깊은 학습으로 단련 된 AI 시스템은 이러한 이미지 인식 및 스팸 필터링, 음성 인식 등 단순 작업의 반복이면서 약간의 "감성 "을 필요로하는 처리 분야에 친 화성이 있습니다. "그것이 대량으로 보급되면 인간의 일을 빼앗겨 버린다」라고 생각하는 것이 아니라 이번처럼 더 나은 세상을위한 방향에서 적극적인 활용이 확산 될 것입니다.