Internet & securité

Google a dit aux scientifiques de «  frapper un ton positif  » dans les documents de recherche sur l’IA


Google d’Alphabet a décidé cette année de resserrer le contrôle sur les articles de ses scientifiques en lançant une revue de « sujets sensibles » et, dans au moins trois cas, les auteurs ont demandé à s’abstenir de présenter sa technologie sous un jour négatif, selon des communications internes et des entretiens avec des chercheurs impliqués dans l’oeuvre.

Google La nouvelle procédure d’examen demande aux chercheurs de consulter les équipes juridiques, politiques et de relations publiques avant de poursuivre des sujets tels que l’analyse des visages et des sentiments et les catégorisations de race, de sexe ou d’affiliation politique, selon des pages Web internes expliquant la politique.

«Les progrès technologiques et la complexité croissante de notre environnement externe conduisent de plus en plus à des situations où des projets apparemment inoffensifs soulèvent des problèmes éthiques, de réputation, réglementaires ou juridiques», a déclaré l’une des pages destinées au personnel de recherche. Reuters n’a pas pu déterminer la date du message, bien que trois employés actuels aient déclaré que la politique avait commencé en juin.

Google a refusé de commenter cette histoire.

Le processus des «sujets sensibles» ajoute un cycle d’examen minutieux à l’examen standard de Google des documents pour les pièges tels que la divulgation de secrets commerciaux, ont déclaré huit employés actuels et anciens.

Pour certains projets, les responsables de Google sont intervenus à des étapes ultérieures. Un directeur principal de Google examinant une étude sur la technologie de recommandation de contenu peu avant sa publication cet été a dit aux auteurs de « prendre grand soin de donner un ton positif », selon une correspondance interne lue à Reuters.

Le responsable a ajouté: « Cela ne veut pas dire que nous devons nous cacher des vrais défis » posés par le logiciel.

Une correspondance ultérieure entre un chercheur et des évaluateurs montre que les auteurs ont été « mis à jour pour supprimer toutes les références aux produits Google ». Un brouillon vu par Reuters avait mentionné la propriété de Google Youtube.

Quatre chercheurs membres du personnel, dont la scientifique principale Margaret Mitchell, ont déclaré qu’ils pensaient que Google commençait à interférer avec des études cruciales sur les dommages technologiques potentiels.

« Si nous recherchons la chose appropriée compte tenu de notre expertise, et que nous ne sommes pas autorisés à publier cela pour des raisons qui ne sont pas conformes à un examen par les pairs de haute qualité, nous nous retrouvons dans un grave problème de censure », a déclaré Mitchell.

Google déclare sur son site Web destiné au public que ses scientifiques ont une liberté « substantielle ».

Tensions entre Google et certains de ses collaborateurs est entré en vue ce mois-ci après la sortie brusque du scientifique Timnit Gebru, qui a dirigé une équipe de 12 personnes avec Mitchell axée sur l’éthique intelligence artificielle logiciel (AI).

Gebru dit que Google l’a licenciée après avoir remis en question une ordonnance de ne pas publier de recherche affirmant que l’IA qui imite la parole pourrait désavantager les populations marginalisées. Google a déclaré avoir accepté et accéléré sa démission. Il n’a pas été possible de déterminer si l’article de Gebru avait fait l’objet d’un examen sur des « sujets sensibles ».

Le vice-président senior de Google, Jeff Dean, a déclaré ce mois-ci dans un communiqué que l’article de Gebru s’attardait sur les dommages potentiels sans discuter des efforts en cours pour y remédier.

Dean a ajouté que Google soutenait les bourses d’études en éthique de l’IA et « travaillait activement à l’amélioration de nos processus d’examen des documents, car nous savons que trop de freins et contrepoids peuvent devenir pesants ».

‘Sujets sensibles’

L’explosion de la recherche et du développement de l’IA dans le secteur de la technologie a incité les autorités aux États-Unis et ailleurs à proposer des règles pour son utilisation. Certains ont cité des études scientifiques montrant que les logiciels d’analyse faciale et d’autres IA peuvent perpétuer les biais ou éroder la vie privée.

Ces dernières années, Google a intégré l’IA dans ses services, en utilisant la technologie pour interpréter les requêtes de recherche complexes, décider des recommandations sur YouTube et des phrases de saisie semi-automatique dans Gmail. Ses chercheurs ont publié plus de 200 articles l’année dernière sur le développement responsable de l’IA, parmi plus de 1000 projets au total, a déclaré Dean.

L’étude des services Google pour les préjugés fait partie des «sujets sensibles» de la nouvelle politique de l’entreprise, selon une page Web interne. Parmi les dizaines d’autres «sujets sensibles» répertoriés figuraient l’industrie pétrolière, la Chine, l’Iran, Israël, COVID-19[feminine, sécurité du domicile, assurance, données de localisation, religion, véhicules autonomes, télécommunications et systèmes qui recommandent ou personnalisent le contenu Web.

Le document de Google pour lequel les auteurs ont été invités à adopter un ton positif discute de la recommandation AI, que des services comme YouTube utilisent pour personnaliser les flux de contenu des utilisateurs. Un projet révisé par Reuters incluait des «préoccupations» selon lesquelles cette technologie peut favoriser «la désinformation, des résultats discriminatoires ou autrement injustes» et «une diversité insuffisante de contenu», ainsi que conduire à une «polarisation politique».

La publication finale indique plutôt que les systèmes peuvent promouvoir «des informations exactes, l’équité et la diversité du contenu». La version publiée, intitulée « Pourquoi optimisez-vous? Aligner les systèmes de recommandation avec les valeurs humaines », a omis de mentionner les chercheurs de Google. Reuters n’a pas pu déterminer pourquoi.

Un article ce mois-ci sur l’IA pour comprendre une langue étrangère a adouci une référence à Google Traduction produit faisait des erreurs suite à une demande des critiques de l’entreprise, a déclaré une source. La version publiée indique que les auteurs ont utilisé Google Translate, et une phrase distincte indique qu’une partie de la méthode de recherche consistait à «réviser et corriger les traductions inexactes».

Pour un article publié la semaine dernière, un employé de Google a décrit le processus comme un «long-courrier», impliquant plus de 100 échanges de courriels entre chercheurs et évaluateurs, selon la correspondance interne.

Les chercheurs ont découvert que l’IA peut cracher des données personnelles et du matériel protégé par le droit d’auteur – y compris une page d’un Harry Potter roman – qui avait été extrait d’Internet pour développer le système.

Un projet décrit comment de telles divulgations pourraient enfreindre les droits d’auteur ou violer la loi européenne sur la protection de la vie privée, a déclaré une personne proche du dossier. À la suite des critiques des entreprises, les auteurs ont supprimé les risques juridiques et Google a publié l’article.

© Thomson Reuters 2020


Le MacBook Air M1 est-il la bête portable d’un ordinateur portable que vous avez toujours voulu? Nous en avons discuté sur Orbital, notre podcast technologique hebdomadaire auquel vous pouvez vous abonner via Podcasts Apple, Podcasts Google, ou RSS, télécharger l’épisode, ou appuyez simplement sur le bouton de lecture ci-dessous.

.



Source link

You may also like

Leave a reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *