Timnit Gebru était une des responsables de l’équipe éthique et IA chez Google. Une personnalité importante qui pose des questions sur la responsabilité ou la protection des chercheurs dans le domaine de l’IA. Elle a été virée aujourd’hui et les raisons n’ont pas l’air très nettes https://twitter.com/timnitGebru/status/1334352694664957952
Pour endiguer les remous créés par le licenciement de @timnitGebru , ses chefs chez Google tentent des réunions d’explications et de discussions pour calmer les esprits en interne. Ça n’a pas l’air de fonctionner comme ils l’espéraient. https://twitter.com/timnitGebru/status/1336340178542063622
D’après Business Insider, le tchat entre les deux boss @JeffDean + Kacholia) et les employés à été enregistré. Impossible de poser des questions, fallait les envoyer après pour une séance de QR à laquelle les boss n’ont pas assisté (sans rire).
Google ayant un sens du timing assez fou sur cette affaire @timnitGebru (rappel : le jour où ils la virent en disant qu’elle a démissionné, Google se fait épingler pour avoir licencié plusieurs salariés qui voulaient s’organiser syndicalemég), et c’est donc au moment où
Google vire Gebru, femme noire renommée dans le milieu de l’IA et ethics et embauchée pour être team leader sur ce sujet. En même temps, Google participe (produit ?) à un film sur les femmes de couleur dans la tech https://twitter.com/artofcasting/status/1334242318107299841
Le CEO de Google, Sundar Pichai, en remet une couche dans un style très googlien : « nous devons accepter la responsabilité du fait qu’une éminente femme noire et leader avec un immense talent a quitté Google malheureuse”.
Elle n’a pas quitté Google, Google l’a virée.
Les risques actuels de l'entrainement de large modèles d'IA en NLP, soulevés dans le papier et qui sont le point de crispation de Google, évoquent :
1 - la consommation électrique et carbone >entrainer le modèle BERT de Google = un AR en avion entre SF et NYC.
or les modèles sont entrainés et ré entrainés en permanence dans le but de les améliorer.

2 - des modèles qui reçoivent toujours + de datas, pour satisfaire ça les chercheurs prennent ce qu'ils trouvent sur internet > risque d'utiliser des textes racistes, misogynes...
étant donné la taille des datasets, il devient impossible de les auditer et vérifier ce qu'ils contiennent.

3 - les efforts de recherche détournés de leur but initial, puisque manipuler de + en + finement des données de langage permet aux grosses entreprises de faire de $
pas besoin d'aller plus loin dans la recherche ou de changer de direction.

4 - les risques de manipulation des gens puisque ces modèles deviennent performants pour manipuler les textes et le langage. ex : création de fausses informations à propos du #Covid19.
You can follow @mfouquenet.
Tip: mention @twtextapp on a Twitter thread with the keyword “unroll” to get a link to it.

Latest Threads Unrolled:

By continuing to use the site, you are consenting to the use of cookies as explained in our Cookie Policy to improve your experience.