Outharm est une plateforme qui détecte le contenu nuisible dans les images via une API. Elle propose une technologie d’analyse d’images pour détecter la censure. Son IA garantit un traitement rapide et une modération humaine pour les contenus générés par les utilisateurs complexes.
Pour en savoir plus : Outharm