Pourquoi AWS vend un clavier MIDI pour enseigner l'apprentissage automatique – TechCrunch

Plus tôt cette semaine, AWS a lancé DeepComposer, un ensemble d’outils Web pour apprendre à utiliser l’IA pour créer de la musique et un clavier MIDI à 99 $ pour entrer des mélodies. Ce lancement a toutefois créé une certaine confusion. Nous avons donc rencontré Mike Miller, directeur du groupe AI Devices d'AWS, pour discuter de la place de DeepComposer dans la gamme de périphériques d'intelligence artificielle de la société, notamment la caméra DeepLens et l'IA DeepRacer. voiture, les deux étant destinés à enseigner aux développeurs des concepts spécifiques d'IA, aussi.

La première chose à retenir ici est que DeepComposer est un outil d’apprentissage. Ce n’est pas destiné aux musiciens, mais aux ingénieurs qui veulent en savoir plus sur l’IA générative. Mais AWS ne s’est pas servi en appelant ce «premier clavier musical au monde à permettre aux développeurs d’apprentissage automatique». Après tout, le clavier lui-même n’est qu’un clavier MIDI standard. Il n’ya pas d’intelligence dedans. Tout le travail d'IA se passe dans le cloud.

«L'objectif ici est d'enseigner l'IA générative comme l'une des tendances les plus intéressantes de l'apprentissage automatique au cours des dix dernières années», a déclaré Miller. «Nous avons spécifiquement dit aux GAN, réseaux accusatoires génératifs, que deux réseaux sont formés ensemble. Pour les développeurs, c’est intéressant parce que c’est très compliqué et que beaucoup de choses qu’ils apprennent sur la formation des modèles d’apprentissage automatique sont mélangés lorsque vous en formez deux ensemble.

Avec DeepComposer, le développeur aborde un processus d’apprentissage des bases. Avec le clavier, vous pouvez entrer une mélodie de base – mais si vous ne l’avez pas, vous pouvez également utiliser un clavier à l’écran pour commencer ou utiliser quelques mélodies par défaut (pensez à Ode to Joy). D'un point de vue pratique, le système sort et génère une piste d'arrière-plan pour cette mélodie en fonction du style musical choisi. Pour simplifier les choses, le système ignore certaines valeurs du clavier, notamment la vélocité (juste au cas où vous auriez besoin de plus de preuves qu'il ne s'agit pas d'un clavier pour les musiciens). Mais plus important encore, les développeurs peuvent également explorer les modèles réels générés par le système, et même les exporter vers un bloc-notes Jupyter.

Pour les besoins de DeepComposer, les données MIDI ne sont qu’une autre source de données pour renseigner les développeurs sur les GAN et SageMaker, la plate-forme d’apprentissage automatique d’AWS qui permet à DeepComposer de fonctionner dans les coulisses.

«L’avantage d’utiliser des fichiers MIDI et de se baser sur la formation MIDI réside dans le fait que la représentation des données qui y sont inscrites est dans un format qui est en fait la même représentation des données d’une image, par exemple», a expliqué Miller. «C’est donc très pratique et très analogue. Ainsi, en tant que développeur, examinez le bloc-notes SageMaker et comprenez le formatage des données et la manière dont nous transmettons les données, cela s’applique également à d’autres domaines.»

C’est la raison pour laquelle les outils exposent également toutes les données brutes, y compris les fonctions de perte, les analyses et les résultats des différents modèles, en essayant d’obtenir un résultat acceptable, etc. Parce que c’est évidemment un outil de génération de musique, exposer également certaines des données relatives à la musique, telles que la hauteur et les mesures vides.

"Nous pensons que lorsque les développeurs intégreront les modèles SageMaker, ils verront que, je peux l'appliquer à d'autres domaines. Je peux le prendre et le personnaliser et voir ce que je peux générer", a déclaré Miller.

Ayant entendu les résultats jusqu’à présent, je pense pouvoir affirmer que DeepComposer ne produira pas de tubes bientôt. Cela semble assez bon pour créer une piste de batterie, mais les lignes de basse semblent un peu erratiques. Pourtant, c’est une bonne démonstration de cette technique d’apprentissage automatique, même si je suppose que son succès sera un peu plus limité que DeepRacer, concept un peu plus facile à comprendre pour la plupart des développeurs, car la majorité des développeurs y jetteront un œil. pense qu’ils doivent être capables de jouer d’un instrument pour pouvoir l’utiliser et passer à autre chose.

Reportage supplémentaire par Ron Miller.

Traduit de la source : https://techcrunch.com/2019/12/05/why-aws-is-selling-a-midi-keyboard-to-teach-machine-learning/

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.