L’Intelligence artificielle, nouveau pari pour Facebook

Avec les révélations du scandale de Cambridge Analytica, Facebook a pris un nouveau tournant et mise sur l’intelligence artificielle (IA) pour “nettoyer” son réseau. Membres ou commentaires racistes, incitations à la haine ou encore crimes ou suicides filmés en direct devraient bientôt être repérés par des algorithmes.

Le réseau social veut aussi tenter par ce biais de repérer les comptes d’utilisateurs décédés et d’éviter le problème des notifications d’anniversaire et autres concernant ces personnes. Selon un porte-parole de Facebook, différents signaux seront passés au crible pouvant indiquer qu’un utilisateur est décédé.

Advertisement

Bref, l’IA se trouve résolument au cœur du réseau social. Pour autant, lors de la conférence donnée début mai 2019, Facebook a également mis en lumière le potentiel dangereux de l’IA sans contrôle et régulation. Un cri d’alarme que Stephen Hawkings, Bill Gates ou encore Elon Musk avait déjà lancé.

AL_Bitcoin_Banner_728x90_v02_FR

Une équipe et un budget confidentiels

Facebook a recours à l'IA pour cibler nos préférences

Si le géant de la Sillicon Valley aime tout savoir de ses utilisateurs, il garde fort bien le secret le concernant. Il est, par exemple, quasiment impossible de trouver des chiffres officiels sur le pôle recherches autour de l’IA.

Tout ce que l’on sait, c’est que la division s’appelle FAIR – Facebook Artificial Intelligence Research – et devrait doubler, passant de 180 employés à 400 personnes. Sept bureaux sont connus du grand public à New York, Seattle, Pittsburgh, Montréal, Paris, Tel Aviv et à Londres.

En France, l’équipe se compose d’une centaine de salariés, dont de nombreux post-doctorants, tout aussi qualifiés que des salariés américains mais moins chers.

L’année dernière, Facebook a annoncé plus de 10 millions d’euros supplémentaires investis d’ici 2022 pour FAIR Paris, ainsi que l’embauche de 40 doctorants, des bourses d’études pour ces étudiants et le financement de dix serveurs “dernière génération”.

a lire sur tradesources : Libra : Facebook surfe sur la vague des cryptos

Mais derrière cette “opération séduction”, Facebook se cache bien de communiquer sur ces “hommes de l’ombre”, qui, discrètement, enrichissent l’enseignement de l’IA. Leur rôle : mieux repérer et alerter les autorités d’un pays en cas de crime commis, filmé ou photographié sur Facebook.

L’Intelligence artificielle pour lutter contre le crime

Facebook se situe actuellement dans une position sensible. D’un côté, le réseau a été vivement critiqué pour payer ses modérateurs à regarder les contenus vidéo à caractère violent. Non seulement ces postes se sont révélés moins productifs qu’attendus, mais le visionnage de contenus violents a entraîné des centaines de cas de dépression et de nombreux reportages d’investigations qui ont entaché la réputation de Facebook.

C’est pour cette raison que les algorithmes utilisant l’IA prendront le relais.

Le 15 mars dernier, un homme est entré dans une mosquée et a fait 50 morts. Pendant 29 minutes, le terroriste est passé inaperçu sur Facebook live, alors qu’il se filmait. Au total la vidéo a été visionnée plus de 8 000 fois en direct et 3 400 fois en différé le lendemain. Ce sont les autorités néo-zélandaises qui ont dû faire appel pour supprimer la vidéo. Les employés de Facebook ne l’avaient tout simplement pas visionnée.

 “L’attentat en Nouvelle Zélande était un exemple terrible de la raison pour laquelle nous avons besoin de nous améliorer en intelligence artificielle”, a déclaré Mike Schroepfer, le CTO lors de la conférence F8 de Facebook fin avril.

L’IA biaisée par les programmateurs ?

Et si Facebook promet d’optimiser son intelligence artificielle, rien ne dit qui va améliorer l’objectivité des programmes.

Comme le raconte le magazine américain Wired, l’IA de Facebook se révèlerait raciste. C’est l’une des ingénieurs de chez Facebook elle-même, Lade Obamehinti, qui en a fait l’expérience lorsqu’un jour, lors d’une conversation sur vidéo messenger, l’ordinateur a identifié son collègue blanc assis à côté d’elle, mais a ignoré son visage.

Alors que les programmateurs de son équipe se sont immédiatement penchés sur ce problème, Mike Schroepfer s’est défendu lors de la conférence: “Il n’y a tout simplement pas de réponse simple”.

Pour éteindre la polémique, Lade Obamehinti a d’ailleurs lancé un programme d’intelligence “inclusive”, pour rectifier les erreurs commises précédemment par le programme. Lors de Facebook 8, l’ingénieure a promis de partager les résultats de ses recherches au prochain semestre.

Facebook veut produire des puces intégrant l’IA

Le réseau social, à l’instar d’autres grands groupes tels Amazon et Google, ambitionne de concevoir ses propres composants dotés d’une intelligence artificielle au niveau hardware.

Il pourrait par exemple créer un assistant numérique capable de converser avec une personne peu importe le sujet de conversation. Bref, Facebook travaille à la conception des assistants vocaux de type Siri et Alexa en beaucoup plus performants et interactifs.

Pour mettre à bien ses objectifs Facebook pourrait collaborer avec Intel, mais reste capable de créer ses propres puces « Asic » (application specific integrated circuit) pour ses programmes intégrant l’IA.

“Facebook est connu pour construire son propre matériel quand il le faut”, déclarait Yann LeCun, responsable français de la division en IA chez Facebook, au Financial Times et à Bloomberg il y a quelques mois.