La Maison Blanche encourage une approche simplifiée de la réglementation de l'IA

Alors que les experts s'inquiètent des technologies d'IA telles que la surveillance intrusive et les armes autonomes, le gouvernement américain préconise une approche mains-libres de la réglementation de l'IA.

La Maison Blanche a dévoilé aujourd'hui 10 principes que les agences fédérales devraient prendre en considération lors de l'élaboration des lois et des règles pour l'utilisation de l'intelligence artificielle dans le secteur privé, mais a souligné qu'une préoccupation clé était de limiter la «portée excessive» réglementaire.

Toute réglementation conçue par les agences devrait viser à encourager des qualités telles que «l'équité, la non-discrimination, l'ouverture, la transparence, la sûreté et la sécurité», déclare le Bureau de la politique scientifique et technologique (OSTP). Mais l'introduction de toute nouvelle règle devrait également être précédée par «une évaluation des risques et des analyses coûts-avantages» et doit intégrer «des preuves scientifiques et des commentaires du public américain».

L'OSTP a exhorté les autres nations à suivre son exemple, une perspective incertaine à un moment où les principaux organismes internationaux comme l'Organisation de coopération et de développement économiques (OCDE), le G7 et l'UE envisagent de réglementer davantage l'IA.

"L'Europe et nos alliés devraient éviter les modèles de destruction de l'innovation et plutôt envisager une approche réglementaire similaire", a déclaré l'OSTP. «La meilleure façon de contrer les utilisations autoritaires de l'IA est de faire en sorte que l'Amérique et nos partenaires internationaux restent les plaques tournantes mondiales de l'innovation, façonnant l'évolution de la technologie d'une manière cohérente avec nos valeurs communes.»

Michael Kratsios, directeur de la technologie des États-Unis, annoncera officiellement les principes au CES mercredi. Hier, lors d'un appel à des journalistes, un responsable de l'administration a déclaré que les États-Unis réglementaient déjà de manière excessive les technologies de l'intelligence artificielle aux «niveaux national et local».

Siège social de Huawei en Allemagne

Les experts s'inquiètent de la propagation de la surveillance de l'IA à l'aide de technologies telles que la reconnaissance faciale.
Photo par Rolf Vennenbernd / alliance photo via Getty Images

"(L) uand certains États et certaines localités prennent des décisions telles que l'interdiction générale de la reconnaissance faciale, vous vous retrouvez dans des situations délicates où les fonctionnaires peuvent enfreindre la loi lorsqu'ils tentent de déverrouiller leur téléphone émis par le gouvernement", a déclaré un responsable de l'administration, selon un rapport de VentureBeat.

L'annonce de ces 10 principes fait suite à un programme établi par la Maison Blanche en février 2019 lorsqu'elle a lancé «l'American AI Initiative». Mais à un moment où les experts mettent en garde contre les effets néfastes des systèmes d'IA non responsables dans des domaines gouvernementaux comme le logement et les soins de santé , et lorsque l'essor des systèmes de reconnaissance faciale semble éroder les libertés civiles, beaucoup peuvent remettre en question la sagesse de l'approche de la Maison Blanche.

Et tandis que les États-Unis suivent un laissez-faire nationale, elle introduit également de nouvelles restrictions sur la scène internationale. Ce lundi, une nouvelle interdiction d'exportation est entrée en vigueur, interdisant aux entreprises américaines de vendre à l'étranger des logiciels utilisant l'IA pour analyser les images satellite sans licence. L'interdiction est largement considérée comme la tentative américaine de contrer la montée en puissance de rivaux technologiques comme la Chine, qui rattrape rapidement les États-Unis dans son développement de l'IA.

Traduit de la source : https://www.theverge.com/2020/1/7/21054653/america-us-ai-regulation-principles-federal-agencies-ostp-principles

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.