Timnit Gebru était une des responsables de l’équipe éthique et IA chez Google. Une personnalité importante qui pose des questions sur la responsabilité ou la protection des chercheurs dans le domaine de l’IA. Elle a été virée aujourd’hui et les raisons n’ont pas l’air très nettes https://twitter.com/timnitGebru/status/1334352694664957952
Peu avant cela, Google a été accusé d’avoir surveillé et espionné des employés pour les empêcher de s’organiser et de les avoir renvoyés. Ca doit chauffer aux RH chez Google https://www.businessinsider.com/us-labor-board-says-google-illegally-spied-on-fired-employees-2020-12
. @timnitGebru, femme noire figure emblématique et Resp. De l’éthique IA a été renvoyé par Google hier. Raisons peu claires. Un ingénieur sécurité, Matthew Garret, écrit lui qu’il a été bien plus critique que Gebru mais qu’il est toujours en piste lui https://www.vice.com/en/article/m7a7bq/ai-ethicists-are-outraged-after-google-fired-a-respected-black-researcher
Google répond et justifie sa décision par la publication trop rapide d’un article qui n’a pas été approuvé par la société. Au passage Google point @JeffDean comme responsable du licenciement de @timnitGebru https://www.theverge.com/2020/12/3/22150355/google-fires-timnit-gebru-facial-recognition-ai-ethicist
Sur @nytimes Google Researcher Says She Was Fired Over Paper Highlighting Bias in A.I.
Timnit Gebru, one of the few Black women in her field, had voiced exasperation over the company’s response to efforts to increase minority hiring https://www.nytimes.com/2020/12/03/technology/google-researcher-timnit-gebru.html?referringSource=articleShare
Timnit Gebru, one of the few Black women in her field, had voiced exasperation over the company’s response to efforts to increase minority hiring https://www.nytimes.com/2020/12/03/technology/google-researcher-timnit-gebru.html?referringSource=articleShare
La contestation continue de montrer en interne chez Google. Plus de 1000 employés ont signé une pétition pour obtenir des explications sur le licenciement de @timnitGebru https://www.businessinsider.fr/us/more-than-1000-google-employees-signed-petition-over-researcher-firing-2020-12
En virant @timnitGebru , Google fait passer ses intérêts commerciaux avant tout le reste #DontBeEvil https://venturebeat.com/2020/12/04/ai-weekly-in-firing-timnit-gebru-google-puts-commercial-interests-ahead-of-ethics/
Google can’t have it both ways. Looks like they forgot it and now à lots of medias should focus on what-they-say vs what-they-do about ethics on AI and about diversify ans minorities in their teams https://www.theverge.com/2020/12/7/22158501/timnit-gebru-team-google-public-statement-fired
Pour endiguer les remous créés par le licenciement de @timnitGebru , ses chefs chez Google tentent des réunions d’explications et de discussions pour calmer les esprits en interne. Ça n’a pas l’air de fonctionner comme ils l’espéraient. https://twitter.com/timnitGebru/status/1336340178542063622
D’après Business Insider, le tchat entre les deux boss @JeffDean + Kacholia) et les employés à été enregistré. Impossible de poser des questions, fallait les envoyer après pour une séance de QR à laquelle les boss n’ont pas assisté (sans rire).
Google ayant un sens du timing assez fou sur cette affaire @timnitGebru (rappel : le jour où ils la virent en disant qu’elle a démissionné, Google se fait épingler pour avoir licencié plusieurs salariés qui voulaient s’organiser syndicalemég), et c’est donc au moment où
Google vire Gebru, femme noire renommée dans le milieu de l’IA et ethics et embauchée pour être team leader sur ce sujet. En même temps, Google participe (produit ?) à un film sur les femmes de couleur dans la tech https://twitter.com/artofcasting/status/1334242318107299841
Le CEO de Google, Sundar Pichai, en remet une couche dans un style très googlien : « nous devons accepter la responsabilité du fait qu’une éminente femme noire et leader avec un immense talent a quitté Google malheureuse”.
Elle n’a pas quitté Google, Google l’a virée.
Elle n’a pas quitté Google, Google l’a virée.
. @techreview a lu le papier "problématique" selon Google qui n'aurait pas du être publié par @timnitGebru https://www.technologyreview.com/2020/12/04/1013294/google-ai-ethics-research-paper-forced-out-timnit-gebru/
Les risques actuels de l'entrainement de large modèles d'IA en NLP, soulevés dans le papier et qui sont le point de crispation de Google, évoquent :
1 - la consommation électrique et carbone >entrainer le modèle BERT de Google = un AR en avion entre SF et NYC.
1 - la consommation électrique et carbone >entrainer le modèle BERT de Google = un AR en avion entre SF et NYC.
or les modèles sont entrainés et ré entrainés en permanence dans le but de les améliorer.
2 - des modèles qui reçoivent toujours + de datas, pour satisfaire ça les chercheurs prennent ce qu'ils trouvent sur internet > risque d'utiliser des textes racistes, misogynes...
2 - des modèles qui reçoivent toujours + de datas, pour satisfaire ça les chercheurs prennent ce qu'ils trouvent sur internet > risque d'utiliser des textes racistes, misogynes...
étant donné la taille des datasets, il devient impossible de les auditer et vérifier ce qu'ils contiennent.
3 - les efforts de recherche détournés de leur but initial, puisque manipuler de + en + finement des données de langage permet aux grosses entreprises de faire de $
3 - les efforts de recherche détournés de leur but initial, puisque manipuler de + en + finement des données de langage permet aux grosses entreprises de faire de $
pas besoin d'aller plus loin dans la recherche ou de changer de direction.
4 - les risques de manipulation des gens puisque ces modèles deviennent performants pour manipuler les textes et le langage. ex : création de fausses informations à propos du #Covid19.
4 - les risques de manipulation des gens puisque ces modèles deviennent performants pour manipuler les textes et le langage. ex : création de fausses informations à propos du #Covid19.