L'avenir du travail sera-t-il éthique? Perspectives des futurs leaders – TechCrunch

En juin, TechCrunch Ethicist in Residence Greg M. Epstein a participé à EmTech Next, une conférence organisée par le MIT Technology Review. La conférence, qui s’est déroulée dans le célèbre Media Lab du MIT, a examiné l’intelligence artificielle et la robotique qui changent l’avenir du travail.

L’essai de Greg, L’avenir du travail sera-t-il éthique? Il réfléchit aux expériences qu'il a vécues lors de la conférence, qui a engendré ce qu'il appelle «une crise religieuse, malgré le fait que je ne sois pas seulement athée confirmé, mais aussi professionnel." Dans celui-ci, Greg explore les thèmes de l'inégalité, de l'inclusion et de ce qu'elle signifie travailler dans la technologie de manière éthique, dans un système capitaliste et une économie de marché.

Une série d’interviews approfondies menées par Greg autour de la conférence, accompagnant des universitaires, des journalistes, des fondateurs et des participants, a été ajoutée à l’article pour Extra Crunch.

Ci-dessous, il parle à deux participants à la conférence qui avaient des idées cruciales à partager. Meili Gupta est un lycée de la Phillips Exeter Academy, un pensionnat d’élite du New Hampshire. Gupta a assisté à la conférence EmTech Next avec sa mère et a également assisté avec sa famille les années précédentes. sa voix et ses réflexions sur les privilèges et les inégalités en matière d’éducation et de technologie occupent une place importante dans l’essai de Greg. Walter Erike est un consultant indépendant âgé de 31 ans et directeur principal de la mise en œuvre SAP. de Philadelphie. Entre les sessions de la conférence, Greg et lui ont parlé de diversité et d’inclusion lors de conférences techniques et au-delà.

Meili Guptune est senior à la Phillips Exeter Academy. Image via Meili Gupta

Greg Epstein: Comment êtes-vous arrivé chez EmTech Next?

Meili Gupta: Je suis un lycéen en plein essor à la Phillips Exeter Academy; Je suis l’un des rédacteurs en chef du magazine scientifique de mon école, Matter Magazine.

J'ai (aussi) assisté à la conférence l'année dernière. Mes parents sont déjà venus à ces conférences et cela m’a donné l’occasion de venir. Je suis particulièrement intéressé par le MIT Technology Review car j’ai grandi en le lisant.

Vous êtes le rédacteur en chef de Matière, un magazine sur STEM à votre lycée. Quels sont les sujets abordés par Matter qui vous intéressent le plus?

Cette année, nous avons publié deux numéros. La première comportait de nombreuses interviews de professeurs de premier plan, comme le professeur Fei-Fei Li, à Stanford. Nous avons fait une revue pour elle et une interview avec le professeur Olga Russakovsky à Princeton. C'était un numéro spécial sur l'IA et, à cette conférence, vous avez appris comment l'IA transformera les industries.

Le deuxième numéro a coïncidé avec la Journée mondiale d'action pour le climat de Phillips Exeter. Nous nous sommes concentrés à la fois sur les clubs de défense de l'environnement d'Exeter et sur les efforts de défense de l'environnement dans le monde entier. Je pense que Matter, en tant que seul magazine stem sur le campus, a la responsabilité de le faire.

Intelligence artificielle et climat: dans un sens, vous avez déjà traité ce nouveau domaine que les gens appellent l’éthique de la technologie. Quand vous entendez ce terme, à quoi pensez-vous?

En tant que consommateur de beaucoup de technologie et en tant que membre de la génération qui a grandi avec un téléphone à la main, je suis conscient que mes données se trouvent partout sur Internet. J'ai eu des conversations (avec des amis) au sujet de la vie privée et si je regarde dans la salle de classe, la plupart des gens ont une couverture pour les caméras sur leur ordinateur. Cette génération est déjà consciente de l'éthique chaque fois que vous parlez de l'informatique et de l'utilisation des ordinateurs.

En ce qui concerne l'intelligence artificielle, en tant que personne intéressée par le domaine et privilégiée pour pouvoir suivre des cours et mener des projets de recherche à ce sujet, j'entends beaucoup parler d'éthique avec des algorithmes, qu'il s'agisse de fausses nouvelles ou de biais, ou de l'application d'algorithmes pour bien social.

Quelles sont vos principales préoccupations concernant l'IA? Selon vous, que faut-il aborder pour que nous nous sentions plus à l'aise en tant que société utilisant de plus en plus l'IA?

Ce n’est pas une réponse facile. c’est un problème auquel notre société sera confrontée pendant des années. D'après ce que j'ai appris lors de cette conférence, ce que j'ai lu et essayé de comprendre, c'est une solution multidimensionnelle. Vous allez avoir besoin de programmeurs informatiques pour acquérir les compétences techniques nécessaires pour rendre leurs algorithmes moins biaisés. Vous allez avoir besoin que des entreprises engagent ces personnes et leur disent: «C’est notre objectif; nous voulons créer un algorithme qui soit juste et peut faire du bien. »Vous aurez besoin de la société en général pour demander cette norme. C’est aussi le travail de ma génération. WikiLeaks, il y a quelques années, a suscité la conversation sur la protection de la vie privée et je pense qu'il y aura encore plus d'étincelles.

On dirait que votre lycée fait un travail intéressant en intégrant à la fois les STEM et un accent plus profond, plus créatif que d'habitude, sur l'éthique et l'exploration du sens de la vie. Comment diriez-vous qu'Exeter en particulier tente de combiner ces problèmes?

Je vais donner quelques exemples de mon expérience avec cela lors de mon séjour à Exeter, et je suis très privilégié de fréquenter une école qui offre ces possibilités et ces offres à ses étudiants.

Ne vous inquiétez pas, c’est dans ma prochaine question.

Absolument. Avec le programme d’informatique, à partir de la neuvième année, ils ont proposé 590 cours d’informatique sur (l’initiation à) l’intelligence artificielle. À l'automne 590, un autre cours portait sur les voitures autonomes, et vous avez constaté l'intersection entre notre travail dans notre laboratoire de robotique et l'apprentissage des algorithmes de vision par ordinateur. Au cours du semestre écoulé, quelques étudiants et moi-même avons participé à la création d’un programme 999: un cours indépendant qui s’intéresse de près aux algorithmes d’apprentissage automatique. À l’automne, un autre 590 Je prendrai appelé innovation sociale par le biais du génie logiciel, qui est spécialement conçu pour que chaque étudiant puisse choisir un projet local et appliquer un logiciel, un code ou une IA à un projet de bien social.

J'ai passé 15 ans à travailler à Harvard et au MIT. J'ai travaillé avec beaucoup de personnes intelligentes et privilégiées et je les ai soutenues. Je vais vous poser une question sur Exeter et sur votre expérience en tant que lycéen privilégié qui suit une excellente éducation, mais je ne le dis pas du point de vue de la situation actuelle, c’est moi et vous.

Bien sûr que non.

J'essaie de comprendre cela moi aussi. Nous vivons dans un monde où nous sommes de plus en plus disposés à parler de questions d’équité et de justice. Pourtant, en fournissant simplement ces expériences éducatives extraordinaires à des gens comme vous et moi et à mes étudiants ou à d’autres personnes, nous préparons certaines personnes à ce monde mieux que d’autres. Que pensez-vous d’être si bien préparé pour ce genre de monde à venir qu’il puisse réellement être… Je suppose que ma question est de savoir comment vous rattachez-vous à l’idée que même les types d’expériences éducatives dont nous parlons sont eux-mêmes creuser le fossé entre nantis et démunis?

Je suis tout à fait d’accord pour dire qu’il faut parler davantage du problème des riches et des pauvres, car les inégalités entre les classes supérieure et inférieure se creusent chaque année. Ce matin, les propos de M. Isbell de Georgia Tech ont été très inspirants. Par exemple, chez Phillips Exeter, nous avons un club de service social appelé ESA, qui héberge plus de 70 clubs de service social différents. L’un de mes programmes, la programmation informatique junior, enseigne la programmation aux élèves des collèges locaux. C’est le genre de chose, au niveau individuel et à petite échelle, que les gens peuvent essayer d’aider ceux qui n’ont pas été privilégiés avec des occasions d’apprendre et d’avancer avec ces compétences.

Ce dont M. Isbell a parlé ce matin concernait les universités et établissait un pont entre les sociétés. Je ne pense pas que le problème lui-même doive nécessairement nous faire peur d’aller de l’avant à la frontière pour dire que tous ceux qui n’ont pas suivi une formation en informatique dans les cinq prochaines années n’auront pas de travail.

Aujourd’hui, nous avons eu ce débat sur le rôle ou les emplois et les taxes sur les robots. C’est un très bon débat à faire, mais il a parfois un impact sur le battage médiatique de l’IA et je pense que tenter de retirer une technologie peut être une honte pour la société, qui a démontré son pouvoir de sauver des vies. Il peut s'agir de deux transformations simultanées. L’une, qui tente de réduire l’inégalité et aboutira à de nombreuses solutions différentes et complexes à plusieurs niveaux, et la seconde, qui permet une transformation de la technologie et de l’IA.

Qu'espérez-vous tirer de cette conférence pour vous-même, en tant qu'étudiant, en tant que journaliste ou en tant que personne qui se lance dans l'industrie?

Le thème de cette conférence est l’avenir de la main-d’œuvre. Je suis étudiant. Cela signifie que je vais être l'avenir de la population active. J'espérais avoir un aperçu de ce que je pourrais étudier à l'université. Après cela, quel type d’emplois que je veux exercer existe-t-il, est-il très demandé et vraiment intéressant, qui a un impact sur les autres? De plus, en tant qu’étudiante, en particulier qui est intéressée par la spécialisation en informatique et en intelligence artificielle, j’espérais connaître les projets de recherche que je pourrais poursuivre à l’automne avec ce cours 590.

Actuellement, je travaille sur un projet de recherche avec un professeur de l’Université du Maryland sur l’élimination des biais dans les algorithmes d’apprentissage automatique. À quel type de jeu de données est-ce que je veux appliquer ce projet? Où est la nécessité ou l'attention de corriger les biais dans les algorithmes d'IA?

En tant que journaliste, je voudrais rédiger une critique résumant ce que j’ai appris afin que d’autres étudiants (étudiants d’Exeter) puissent aussi apprendre un peu.

Quelle serait votre plus grande critique de la conférence? Que pourrait-on améliorer?

Traduit de la source : https://techcrunch.com/2019/11/28/will-the-future-of-work-be-ethical-future-leader-perspectives/

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.