La surveillance est essentielle à une IA réussie

Alors que le monde devient plus profondément connecté grâce aux appareils et réseaux IoT, les besoins et les attentes des consommateurs et des entreprises ne seront bientôt viables que grâce à l’automatisation.

Reconnaissant cela, l’intelligence artificielle et l’apprentissage automatique sont rapidement adoptés par des secteurs critiques tels que la finance, la vente au détail, les soins de santé, le transport et la fabrication pour les aider à rivaliser dans une culture mondiale toujours et à la demande. Cependant, même si l’IA et le ML offrent des avantages infinis – tels que l’augmentation de la productivité tout en diminuant les coûts, la réduction des déchets, l’amélioration de l’efficacité et la promotion de l’innovation dans les modèles commerciaux obsolètes – il existe un énorme potentiel d’erreurs qui se traduisent par des résultats involontaires et biaisés et, pire, des abus par de mauvais acteurs.

Le marché des technologies avancées, notamment l’IA et le ML, poursuivra sa croissance exponentielle, la société d’études de marché IDC prévoyant que les dépenses en systèmes d’IA atteindront 98 milliards de dollars en 2023, soit plus de deux fois et demie les 37,5 milliards de dollars qui devraient être dépensés. en 2019. En outre, IDC prévoit que le commerce de détail et les services bancaires généreront une grande partie de ces dépenses, car les industries ont investi plus de 5 milliards de dollars en 2019.

Ces résultats soulignent l’importance pour les entreprises qui exploitent ou prévoient de déployer des technologies avancées pour les opérations commerciales de comprendre comment et pourquoi elles prennent certaines décisions. De plus, une compréhension fondamentale du fonctionnement de l’IA et du BC est encore plus cruciale pour effectuer une surveillance appropriée afin de minimiser le risque de résultats indésirables.

Les entreprises se rendent souvent compte des problèmes de performances de l’IA et du ML après que les dommages ont été causés, ce qui a parfois fait la une des journaux. De tels exemples d’IA conduisant à des préjugés involontaires incluent la carte Apple autorisant des limites de crédit plus basses pour les femmes et l’algorithme d’IA de Google pour surveiller les discours de haine sur les réseaux sociaux ayant un parti pris racial contre les Afro-Américains. Et il y a eu des exemples bien pires de l’IA et du ML utilisés pour diffuser de la désinformation en ligne par le biais de deepfakes, de bots et plus encore.

Grâce à la surveillance en temps réel, les entreprises auront une visibilité sur la «boîte noire» pour voir exactement comment leurs modèles AI et ML fonctionnent. En d’autres termes, l’explicabilité permettra aux scientifiques et aux ingénieurs de données de savoir quoi rechercher (par exemple la transparence) afin qu’ils puissent prendre les bonnes décisions (par exemple la perspicacité) pour améliorer leurs modèles et réduire les risques potentiels (par exemple, bâtir la confiance).

Mais il existe des défis opérationnels complexes qui doivent d’abord être résolus afin d’obtenir des résultats sans risque et fiables, ou fiables.

5 défis opérationnels clés dans les modèles AI et ML



Traduit de l’anglais de https://techcrunch.com/2020/03/23/monitoring-is-critical-to-successful-ai/

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.