Unitary, un ancien élève d’EF, lève 1,3 M £ de graines pour sa modération de contenu AI

Unitary, une startup qui développe l’IA pour automatiser la modération de contenu pour les «contenus nuisibles» afin que les humains n’aient pas à le faire, a récolté 1,35 million de livres sterling de financement. L’entreprise est toujours en mode développement mais a lancé un essai de sa technologie en septembre.

Dirigée par GFC de Rocket Internet, le tour de table comprend également le soutien de Jane VC (la firme conviviale de courrier électronique soutenant les startups dirigées par des femmes), de SGH Capital et d’un certain nombre d’investisseurs providentiels anonymes. Unitary avait auparavant levé un financement de pré-amorçage auprès d’Entrepreneur First, en tant qu’ancien du programme de création d’entreprise.

« Chaque minute, plus de 500 heures de nouvelles séquences vidéo sont téléchargées sur Internet, et le volume de contenu dérangeant, abusif et violent qui est mis en ligne est assez étonnant », a déclaré Sasha Haco, PDG et cofondatrice d’Unitary, qui a précédemment travaillé avec Stephen. Hawking sur des trous noirs, me dit-il. «À l’heure actuelle, la sécurité d’Internet repose sur des armées de modérateurs humains qui doivent surveiller et retirer du matériel inapproprié. Mais les humains ne peuvent pas suivre ”.

Non seulement le volume de contenu téléchargé augmente sans cesse, mais les personnes employées pour modérer le contenu sur des plateformes comme Facebook peuvent en souffrir considérablement. «Une exposition répétée à des images aussi dérangeantes laisse de nombreux modérateurs atteints de SSPT», explique Haco. «Les réglementations répondent à cette crise et exercent une pression croissante sur les plateformes afin qu’elles traitent les contenus nuisibles et protègent nos enfants du pire d’Internet. Mais actuellement, il n’y a pas de solution adéquate ».

C’est là, bien sûr, où Unitary veut intervenir, avec pour mission déclarée de «faire d’Internet un endroit plus sûr» en détectant automatiquement les contenus nuisibles. Sa technologie d’IA propriétaire, qui utilise une vision par ordinateur «à la pointe de la technologie» et des techniques basées sur les graphiques, prétend être en mesure de reconnaître le contenu nuisible au moment du téléchargement, y compris «d’interpréter le contexte pour s’attaquer même aux vidéos les plus nuancées», explique Haco .

Pendant ce temps, bien qu’il existe déjà plusieurs solutions proposées aux développeurs qui peuvent détecter un contenu restreint qui est plus évident, comme la nudité explicite ou la violence extrême (AWS, par exemple, a une telle API), le PDG d’Unitary fait valoir qu’aucune d’entre elles n’est à distance assez bon pour «déplacer véritablement l’implication humaine».

«Ces systèmes ne parviennent pas à comprendre des comportements ou des signes plus subtils, en particulier sur la vidéo», dit-elle. «Alors que l’IA actuelle peut bien gérer de courts clips vidéo, les vidéos plus longues nécessitent encore des humains pour les comprendre. En plus de cela, c’est souvent le contexte du téléchargement qui fait toute la différence dans sa signification, et c’est la capacité à incorporer une compréhension contextuelle qui est à la fois extrêmement difficile et fondamentale pour la modération. Nous nous attaquons à chacun de ces problèmes fondamentaux afin de parvenir à une technologie qui, même à court terme, réduira massivement le niveau d’implication humaine nécessaire et permettra un jour de réaliser un Internet beaucoup plus sûr ».

Traduit de l’anglais de https://techcrunch.com/2020/03/12/unitary/

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.