Retour à : Plan du site - M étéoPolitique - Science & Obscurantisme - Science & découvertes - Découvertes

La menace des robots sociaux et leur destruction

Les robots sociaux attaquent l’internet (Twitter, Facebook et tous les autres du même acabit). Des spécialistes affirment qu’il y a plus de robots (bot informatique) que de personnes sur la cybertoile!  Pour faire le tour de la question, le chroniqueur Olivier Schmouker nous fait part des attaques qu’il a identifiées et qui constituent des crimes contre la démocratie et la libre communication par des gens qui se servent de ces engins sur la cybertoile, et Guillaume Champeau, spécialiste de l'éthique numérique, attire notre attention sur les risques d’être subjugué par le côté enchanteur de la technologie.                  - JosPublic

 

 

 

 

 

 

 

 

 
 

Les robots sociaux attaquent!
Par Olivier SCHMOUKER

 
 

Mine de rien, des robots envahissent notre quotidien et mettent en péril notre existence même.  Peut-être croyez-vous que j'exagère ; laissez-moi vous parler d'une toute nouvelle sorte d'automates, les robots sociaux... 

Dans les années 1950, Alan Turing, l'un des inventeurs de l'informatique, avait imaginé qu'un beau jour les robots seraient capables de tenir une conversation avec les êtres humains.

 C'est aujourd'hui chose faite, du moins sur les médias sociaux : des algorithmes sont capables d'y produire du contenu et d'y interagir avec les êtres humains (répondre à une question, fournir un lien pertinent, etc.) sans que ceux-ci se rendent compte que leur interlocuteur est, en vérité, un robot social.  

Cela peut, certes, présenter certains avantages financiers : par exemple, une entreprise est ainsi en mesure de répondre à un flux considérable de requêtes de la part de ses clients, sans avoir à recruter des dizaines de personnes pour ce faire.  Toutefois, cela se révèle surtout un terrible danger économique, politique et donc sociétal.  Explication.  

Le 15 avril 2013, deux bombes ont explosé à l'arrivée du marathon de Boston, tuant 3 personnes et en blessant 264.  Immédiatement, des informations non fondées se sont mises à circuler sur Twitter concernant les possibles responsables de ce drame, ce qui a mené les forces de l'ordre sur autant de fausses pistes.

Résultat : il leur a fallu plusieurs jours pour identifier les frères Tsarnaïev

Ce que l'on a appris depuis, grâce à une étude de Christopher Cassa et de ses collègues, c'est que le blâme ne revient pas aux gens qui pensaient bien faire en signalant des coupables potentiels sur les médias sociaux, mais aux robots sociaux qui ont massivement relayé toutes ces rumeurs.

Du coup, ces robots ont semé la panique au sein des services d'enquête, qui ne savaient plus où donner de la tête.  

Les robots sociaux peuvent également manipuler les cours de la Bourse.  Un exemple frappant est celui de la campagne en faveur de la start-up Cynk, qui affirme pouvoir faire le lien entre les internautes et les célébrités.  

En juillet 2014, des robots sociaux se sont mis à discuter entre eux à propos de la start-up, histoire de l'encenser.  Ces conversations ont aussitôt été repérées par les algorithmes des maisons de courtage, qui sont responsables de surveiller l'actualité des entreprises cotées en Bourse et qui ont vite donné l'ordre d'acheter à tout-va.

En quelques instants, le titre de Cynk a augmenté de 24 000 %, élevant la valeur de la firme à 5 milliards de dollars.  Le temps que les êtres humains réalisent l'erreur de leurs robots, il était trop tard : les pertes se sont chiffrées en milliards$.  

Même chose à l'occasion de l'élection présidentielle américaine de 2016.  De mi-septembre à mi-octobre, quelque 20 millions de tweets ont été produits en lien avec la campagne, émis par environ 2,8 millions d'utilisateurs distincts

Or, une étude d'Alessandro Bessi et d'Emilio Ferrara a mis au jour le fait que 20% de ces tweets avaient été composés et diffusés par des algorithmes, pour un total de 3,8 millions de tweets émis par 400 000 robots sociaux.

«Ça suffit amplement pour manipuler l'opinion des gens, qui ignoraient que tous les tweets qu'ils recevaient pour défendre un même camp provenaient non pas d'électeurs comme eux, mais de robots sociaux programmés pour les influencer», notent les chercheurs, en soulignant que «cela a sûrement pesé sur le résultat final de l'élection» et peut, à terme, «mettre carrément en péril la démocratie».  

C'est clair, l'heure est grave. D'autant plus que de récentes avancées en matière d'intelligence artificielle permettent aux robots sociaux de voler l'identité d'un internaute et de cloner son comportement en ligne, à son insu.

Autrement dit, si un tel robot prenait le contrôle de vos fils Facebook et Twitter, vos amis virtuels n'y verraient que du feu.  

Que faire ?  Réagir au plus vite à l'échelle gouvernementale, selon plusieurs chercheurs engagés dans l'initiative lancée discrètement en 2015 par la DARPA, l'agence du département américain de la Défense chargée des avancées technologiques à usage militaire.

L'idée est simple : concocter des algorithmes capables de détecter les robots sociaux les plus sophistiqués, puis les supprimer sans pitié après avoir repéré leurs «maîtres».  

Cela permettrait de résoudre ensuite le problème à la source (emprisonner les cybercriminels, condamner les politiciens malveillants, etc.).

 
«

On apprend aux humains dès l'enfance à traiter les robots comme leurs semblables et c'est très grave
                                                          - Guillaume Champeau

»
 
 

Entrevue avec Guillaume CHAMPEAU

 
 
 

Quels sont vos sujets de préoccupation numériques, en ce début d'année ?

 
 

Les questions liées à l'intelligence artificielle (IA) et à la liberté d'expression me préoccupent beaucoup.  En la matière, nous utilisons en Europe essentiellement les services de Google, Facebook ou encore Amazon, et nous rendons dépendants de leurs services et de leurs capacités de calculs tout en leur fournissant nos données.

De fait, l'Europe s'apparente à une "colonie numérique".  Pourtant, il est encore possible de renverser les choses technologiquement.  En effet, une grande partie des algorithmes d'IA son "open source" et de nombreuses communautés de chercheurs ou d'ingénieurs sont dans cette culture du partage. 


Il n'y a pas tant de secrets industriels que ça dans l'IA.  Et nous ne sommes pas si mauvais non plus en terme de capacités de calculs.  Mais ce qui nous manque surtout, c'est le financement des entreprises.

 

Nous sommes toujours plus dépendants des Gafam...

 
 

Et nous devons absolument sortir de cette dépendance !  On nous demande de plus en plus d'utiliser l'IA, et ce pour tout et n'importe quoi : détection de contenus illicites, détection de discours de haine sur les réseaux sociaux, ou encore détection automatique des droits d'auteur sur les plateformes, etc.

Certains États européens créent même des lois autour de ces questions.  Or, les seuls à disposer aujourd'hui des technologies nécessaires pour faire ce genre de choses sont les Gafam.  Donc ces États européens sont en train d'écrire dans la loi que nos entreprises européennes vont devoir se rendre dépendantes des technologies et des outils fournis par les Gafam.

Cela m'inquiète énormément, car en terme de droit et de régulation, on donne un pouvoir à une entreprise privée pour que ce soit elle qui décide de ce qui est légal. 

C'est un danger énorme pour la liberté d'expression.  Sans compter tout ce qu'ils peuvent déjà contrôler par ailleurs !

Amazon a même posté un tweet extraordinaire début décembre 2018 affirmant qu'ils avaient le pouvoir de contrôler votre maison à distance.  Ce tweet, qu'Amazon a retiré depuis, était d'une honnêteté incroyable et j'imagine que beaucoup de gens ayant Alexa chez eux ont dû commencer à réaliser quels étaient ses pouvoirs cachés...

 

Les enceintes connectées et les assistants vocaux vous préoccupent-ils aussi ?

 
 

Évidemment, il y a toutes les questions de sécurité et de vie privée liées à ces technologies, sur lesquelles je ne vais pas m'étendre.  J'espère que les gens ont enfin compris qu'une enceinte connectée les écoute 24 heures sur 24, conserve l'historique de toutes leurs demandes et même l'enregistrement vocal.

Moi ce qui m'inquiète bien plus, c'est que lorsque vous posez une question à un assistant personnel, celui-ci ne fournit qu'une seule réponse (à l'inverse des moteur de recherche avec une interface graphique, qui proposent une multitude de résultats possibles).

D'abord, une seule réponse, c'est un seul point de vue, ce qui pose de grandes questions en terme de pluralité de l'information.  À l'heure des "fake news-nouvelles fallacieuses", c'est très préoccupant.  Ensuite, cette réponse unique des assistants personnels pose de grandes questions en matière de transparence sur les partenariats :  êtes-vous sûrs qu'on vous fournira la "meilleure" réponse possible pour vous (et la meilleure sur la base de quoi ?) ou parce qu'un annonceur aura payé pour que ce soit lui qu'on vous conseille plutôt qu'un autre ?

Par ailleurs, Google (Home), Amazon (Alexa), Apple (Siri) et les autres développent des voix de synthèse qui imitent le plus possible la voix humaine dans ses intonations, son débit, ses respirations et ses émotions, ce qui est extrêmement compliqué techniquement.

Pourtant, quand vous parlez à un robot, la seule chose qui vous intéresse, c'est ce qu'il vous dit, pas comment il le dit...  Donc si les Gafam travaillent là-dessus malgré tout, c'est qu'ils y ont un intérêt : brouiller les lignes entre ce robot et l'humain.

 

Pour nous mettre en confiance...

 
 

Oui, car le fonctionnement de notre cerveau est ainsi fait: on a tendance à faire confiance à un humain et à avoir de l'empathie pour lui. 

Brouiller les lignes entre machine et humain a pour objectif de nous faire progressivement oublier que c'est une machine que l'on a en face de nous et donc à lui faire de plus en plus confiance.

C'est la technique de vente numéro 1 des commerciaux : susciter l'empathie des clients !  Et si en plus cette machine dispose d'une multitude de données sur vous (elle connaît donc vos failles), elle pourra vous vendre n'importe quoi si vous oubliez qu'il s'agit d'une machine.

Regardez, Amazon et Google exigent même que les enfants leur disent "s'il te plaît" avant toute requête, sous prétexte de leur apprendre la politesse !   Concrètement, on habitue les humains dès l'enfance à traiter les robots (c'est-à-dire une chose) comme un semblable et à lui devoir le respect.   Et c'est grave.

On tombe dans tout ce que les films de science-fiction nous montraient pour nous mettre en garde il y a 10, 20 ou 30 ans (Intelligence artificielle de Spielberg, Blade Runner, etc...) et pourtant on saute dedans à pieds joints en se disant "c'est chouette"

Sources:  Guillaume Champeau est un spécialiste des questions éthiques liées au numérique.  Fondateur et ancien rédacteur en chef de Numerama (de 2001 à 2016), il est aujourd'hui directeur de l'éthique et des affaires juridiques de Qwant, le moteur de recherche français qui ne collecte pas les données de ses utilisateurs et garantit le non filtrage des résultats. Magazine Archimag pour le Groupe Serda ; Journal Les Affaires pour Transcontinental

Choix de photos, collection de textes, mise en page, références et titrage par : JosPublic
Mise à jour le 17 janvier 2019

Ci-dessous: des textes en lien direct avec le sujet:

  Le portrait de chacun, grâce aux "j'aime ou like", ou accepter de faire violer ses pensées les plus intimes

Google fait disparaître les sites en marge des grandes publications et qui surtout pensent à gauche du spectre politique

   L'ordinateur robot a-t-il surclassé l'humain?

Notes & Références encyclopédiques:

 

Notes & Références encyclopédiques:

Deux bombes ont explosés au marathon de Boston...

 

Double attentat du Marathon 2013 de Boston - Le dossier sur Wikipédia en français

 

Retour au texte

la campagne en faveur de la start-up Cynk...

 

Cynk Tech, la start-up fantôme qui valait 4 milliards de dollars.

En quelques jours, le cours du titre s'est apprécié de près de 25.000% en Bourse. Certaines analystes estiment qu'il s'agit d'une « escroquerie organisée ». - Sur Les Echos de France, le 11 juillet 2014.

 

Retour au texte

une étude d'Alessandro Bessi et d'Emilio Ferrara...

 

Social bots distrot the 2016 U.S. Presidential election online discussion bye Allandro Bessi and Emilio Ferrara - Sur Frist Monday volume 21, number 11, 7 november 2016

 

Retour au texte