Cybercriminalité : les entreprises de plus en plus victimes d’attaques ciblées

Le nombre d’attaques ciblées identifiées par Symantec a augmenté de plus de 50 % en 2015.

Rendu public il y a quelques jours, le rapport annuel de Symantec fait état d’une forte augmentation des attaques par hameçonnage ciblé (spear-phising). Le nombre de tentatives d’escroquerie identifiées par Symantec serait ainsi passé de 841 en 2014 à 1 305 en 2015, enregistrant une hausse de 55 %. Contrairement à l’hameçonnage classique, où les faux courriels de banques, d’assurances ou de l’administration sont adressés « au hasard » à un plus grand nombre possible d’internautes, le « spear-phishing » cible une victime en particulier (généralement l’employé d’une entreprise). Le courriel adressé est généralement très bien conçu, très personnalisé et donc très convaincant. Le risque que le destinataire ouvre la pièce jointe, le a contaminé ou transmette des données sensibles est donc élevé.

Les PME en ligne de mire

Longtemps, les grandes entreprises ont été les principales victimes de ces escroqueries par courriels personnalisés. En 2011, note Symantec, la moitié des attaques de « spear-phishing » visaient les entreprises de plus de 2 500 employés. Les PME de moins de 250 salariés n’étaient ciblées que dans 18 % des cas. En 2015, le taux d’attaque des petites entreprises est désormais de 43 % et celui des grandes sociétés est passé à 35 %.

Pour limiter les risques de contamination par « spear-phishing », outre avoir un antivirus à jour, il convient de n’ouvrir les pièces jointes ou de ne cliquer sur les as insérés dans un courriel que lorsque l’on connaît l’expéditeur et que le courriel n’apparaît pas comme incongru (demande anormale ou urgente). Lorsque l’expéditeur réclame la communication de données sensibles (coordonnées bancaires, par exemple), le principe est de le contacter par téléphone pour vérifier qu’il ne s’agit pas d’une escroquerie. Enfin, en cas de doute, il faut purement et simplement supprimer le courriel.

© Les Echos Publishing 2016

Page pro sur Facebook : par où commencer ?

À en croire les derniers chiffres publiés, plus de 1,4 milliard de personnes disposent d’un compte sur Facebook, dont 24 millions en France. Un vaste public avec lequel de plus en plus d’entreprises souhaitent entrer en contact pour recruter, trouver des clients, mettre en avant des produits ou encore travailler leur image. Retour sur le b.a.-ba de la création d’une page « entreprise » sur Facebook.

Les premières démarches Il faut à peine quelques minutes pour créer une page et la renseigner.

Pour concevoir une page entreprise, il faut d’abord créer ou disposer d’un compte Facebook ouvert au nom d’une personne physique. Et attention, il est conseillé de résister à la tentation de créer pour l’occasion un compte au nom d’une personne fictive. Sans quoi, Facebook sera en droit, si ses services le constatent, de supprimer le compte et, par voie de conséquence, la ou les pages « entreprises » qui s’y trouvent attachées.


À noter : la création et l’utilisation d’une page entreprise sur Facebook sont gratuites. En outre, plusieurs pages peuvent être créées à partir d’un même compte.

Via la page d’accueil de ce compte, il convient maintenant de cliquer sur « Créer une page » dans le menu déroulant de la barre des tâches et de choisir le type de page le plus adapté à l’objectif poursuivi. Six types de pages sont proposés. Les quatre premiers intéressent les entreprises. Les deux derniers visent plutôt le monde associatif et les particuliers :– lieu ou commerce local ;– entreprise, organisme ou institution ;– marque ou produit ;– artiste, groupe ou personnalité publique ;– divertissement ;– cause ou communauté.

Une fois le type de page retenu, un menu déroulant est proposé, grâce auquel il est possible de sélectionner l’activité du commerce ou de l’entreprise ou la nature des produits ou des services présentés. Un seul choix est possible.

Enfin, une photo de profil (logo de l’entreprise, image du produit ou de la devanture du magasin) est demandée ainsi qu’un texte descriptif de quelques lignes et, bien entendu, le nom du magasin, de l’entreprise, de la marque ou du produit.

En outre, lors de cette procédure de création, il est également demandé de choisir une adresse Internet Facebook. Cette dernière pourra être diffusée sous la forme d’un a dans les pages du site Web de l’entreprise, par exemple, ou en pied de courriel. Ceux qui cliqueront dessus accéderont directement à la page entreprise. Cette adresse est construite de la manière suivante : www.facebook.com/nom-choisi.


Attention : tant que la page rassemble moins de 200 fans, il est possible de changer son nom. Il suffit pour cela d’aller dans le menu « À propos ». Au-delà, le changement de nom ne peut être fait que par les services de Facebook sur demande de l’administrateur de la page.

La prise en main De nombreuses fonctions permettent de personnaliser le fonctionnement de la page « pro » de Facebook.

La page étant créée, il reste à en compléter le descriptif en cliquant sur « À propos » (adresse, téléphone, site Web, courriel…) et à en spécifier les paramètres.

Ces derniers sont très souvent laissés de côté par les créateurs de pages alors qu’ils offrent des possibilités nombreuses et pertinentes. Il est notamment possible :– de définir la visibilité de la page (publiée ou non publiée). Tant que la page n’est pas totalement construite, il est conseillé de la maintenir au statut « non publiée » ;– de définir les droits de publication des visiteurs (interdiction, autorisation, modération de leurs commentaires) ;– d’autoriser les gestionnaires de la page à mettre en ligne des publications temporaires (elles disparaissent de la page à une heure définie par le gestionnaire qui les met en ligne) ;– d’interdire la publication de la page à des utilisateurs de certains pays ou au contraire de leur réserver ;– d’autoriser les gestionnaires de la page à utiliser plusieurs langues (dans cette hypothèse, les visiteurs n’accèdent qu’aux contenus écrits dans leur langue) ;– de restreindre l’accès de la page en fonction de l’âge des visiteurs ;– d’autoriser ou de supprimer la possibilité d’être contacté par message privé ;– de modifier le classement des commentaires (date ou pertinence) ;– d’activer un filtre à injures ;– d’établir une liste de mots interdits d’affichage sur la page ;– de recevoir une notification signalant un événement intervenu sur la page (mention de la page, nouveau commentaire, nouvel abonné, nouveau « J’aime »…) ;– d’afficher un temps de réponse aux questions posées par les visiteurs de votre page (attention à bien respecter cet engagement) ;– de programmer un système de réponse instantanée automatique.

Une fois tous les paramétrages établis et les différents textes et visuels mis en place, il ne reste plus qu’à publier la page et à la faire connaître.

De l’administrateur à l’analyste Plusieurs fonctions peuvent être attribuées aux gestionnaires d’une page « pro » de Facebook.

Le menu « Paramètres » permet en outre (rubrique « Rôles de la page ») d’identifier les personnes en charge de la gestion de la page et de définir leur fonction et leur degré d’habilitation. Cinq rôles de « gestionnaires » sont attribuables :

Les rôles des gestionnaires
Administrateur Editeur Modérateur Annonceur Analyste
Gestion des rôles et des paramètres de page X
Modification de la page et ajout des applications X X
Création et suppression des publications au nom de la page X X
Envoi de messages au nom de la page X X X
Répondre aux commentaires et aux publications sur la page et les supprimer X X X
Suppression et exclusion des utilisateurs de la page X X X
Création de publicités X X X X
Consultation des statistiques X X X X X
Voir qui a publié du contenu au nom de la page X X X X X

Plusieurs personnes peuvent intervenir sur la même page en ayant le même rôle ou des rôles différents.


À noter : l’administrateur dispose du droit de supprimer une page entreprise à tout moment via le menu « Paramètres ».

Et les statistiques ?

À partir du moment où la page compte plus de 30 fans, elle se voit associer un outil de statistique gratuit. Il comptabilise les mentions « J’aime » déposées par les visiteurs et leur évolution dans le temps ainsi que le nombre de personnes ayant vu les posts publiés. Cet outil totalise également le nombre « d’engagements », c’est-à-dire le nombre d’actions suscitées par une publication (clics, partages, commentaires).

© Les Echos Publishing 2017

Gérer le trop plein de courriels

Quelques pistes pour faire face au flux quotidien de mails entrants sans perdre son temps ni le moral.

À en croire une récente étude publiée par le cabinet américain Radicati, pas moins de 120 courriels prendraient place, chaque jour, dans nos boîtes aux lettres électroniques professionnelles. Pire, selon Adobe, nous consacrerions, en moyenne, plus de 5 heures à les lire, à les classer ou encore à y répondre. Un flux ininterrompu de mails que l’adoption de bonnes pratiques et le secours de quelques outils peuvent, heureusement, nous aider à endiguer.

Prendre le temps de faire le point

Il suffit de se plonger dans sa boîte de réception pour s’apercevoir qu’un grand nombre (pour ne pas dire l’immense majorité) des courriels qui, chaque jour, s’y échouent n’ont que très peu d’intérêt professionnel. Il convient donc de mettre en place des parades destinées à « structurellement » en limiter le nombre. D’abord, s’il est possible d’agir sur la source, il ne faut pas s’en priver. Il est conseillé de supprimer les abonnements à des newsletters dont, en définitive, on ne tire aucun profit ou d’inviter certains collaborateurs ou partenaires à ne plus systématiquement nous mettre en copie de tous leurs échanges.

Organiser le tri

Cette seule démarche n’est bien sûr pas suffisante. En complément, il est nécessaire de s’appuyer sur les outils de tri qui sont associés à la plupart des outils de messagerie électronique. Ces derniers ont pour vocation d’analyser un courriel entrant en prenant en compte une de ses caractéristiques comme, par exemple, son expéditeur, son ou ses destinataires ou encore un terme contenu dans son champ « objet ». Une fois le critère de tri arrêté, il reste à définir une règle de traitement. Cette dernière s’appliquant automatiquement pourra, notamment, mettre en œuvre le transfert du courriel dans un répertoire dédié ou à un collaborateur, lui affecter un attribut visuel permettant de signaler son importance et son urgence de traitement ou, plus simplement, l’expédier à la corbeille sans autre forme de procès. Pour créer des règles de tri, les utilisateurs de Gmail devront utiliser les onglets « libellés » et « filtres et adresses bloquées » du menu « paramètres ». Ceux d’Outlook devront aller dans le menu « Fichier/Gérer les règles et les alertes/Nouvelle règle ». La mise en place de ces règles permet, par exemple de « ranger » dans des répertoires dédiés tous les messages une fois qu’ils ont été lus, ou ceux qui nous sont adressés en copie (dont on peut supposer qu’ils ne nécessitent pas un traitement particulier ni urgent).

Et Pêle-mêle ?

Ces mêmes utilisateurs d’Outlook disposent également d’un système de tri « intelligent » baptisé Pêle-mêle. Une fois activé, cet outil crée un répertoire éponyme dans lequel il transfère les courriels entrants qu’il « estime » sans intérêt. Pour forger son jugement, le système se base sur nos habitudes de consultation. Ainsi, il fera disparaître de nos boîtes de réception les courriels que nous n’ouvrons jamais et qui nous sont adressés par un même expéditeur. Le même traitement sera adressé aux courriels envoyés en priorité basse. Mais attention, l’outil n’est pas infaillible. Il convient donc, très régulièrement, d’examiner le contenu du répertoire Pêle-mêle. Et dans l’hypothèse où un mail y aurait été malencontreusement transféré, il est indispensable de le re-transférer dans la boîte de réception, sans quoi le prochain courriel du même expéditeur aura toutes les chances de subir le même sort.

© Les Echos Publishing 2016

L’ONU donne son feu vert aux véhicules « autonomes »

La Convention de Vienne sur la circulation routière vient d’être modifiée afin de permettre la libre circulation des véhicules dotés d’un système de conduite automatisée.

Jusque-là, la Convention de Vienne de 1968 sur la circulation routière interdisait l’utilisation d’un système de pilotage automatique, même partiel. Depuis le 23 mars dernier, le texte international a été amendé sous l’égide de la Commission économique pour l’Europe des Nations Unies (UNECE) et rend désormais possible la circulation d’automobiles équipées d’outils de conduite automatisée « à condition qu’ils soient conformes aux règlements des Nations Unies sur les véhicules ou qu’ils puissent être contrôlés voire désactivés par le conducteur ». La présence d’un conducteur apte à prendre le contrôle du véhicule reste ainsi, pour le moment du moins, toujours nécessaire dans le véhicule. En outre, la Convention prévoit, dans son article 8, que « le conducteur doit éviter toute activité autre que la conduite ». Laisser le volant à un logiciel pour lire un magazine, regarder un film ou somnoler n’est pas encore d’actualité.

Des systèmes d’aide à la conduite

Bien plus que les voitures totalement autonomes, telle que la célèbre Google Car, l’amendement récemment adopté vise à légaliser l’utilisation des systèmes d’aide à la conduite déjà présents sur certains véhicules et en phase de généralisation. Dans son communiqué l’UNECE cite les systèmes de maintien de trajectoire, les fonctions d’assistance au stationnement ou encore d’autopilote sur autoroute permettant la circulation automatisée d’un véhicule à grande vitesse.

Différents règlements devraient être mis en place et d’autres modifiés afin de favoriser le développement de ces différents outils d’aide à la conduite. Ces nouvelles avancées réglementaires devraient intervenir d’ici 2017.

Plus largement, l’UNECE rappelle que la « conduite automatisée » devrait être plus écologique et surtout considérablement accroître la sécurité des automobilistes et des piétons. Les experts les plus optimistes estiment que la généralisation des véhicules équipés d’un système d’autopilotage devrait diviser par 10 le nombre d’accidents de la route. L’avenir nous le dira.

© Les Echos Publishing 2016

Les internautes français s’équipent de bloqueurs de publicité

30 % des internautes utilisent un logiciel pour empêcher l’affichage des publicités en ligne. Un véritable défi pour les entreprises qui vivent des recettes publicitaires.

À en croire le dernier Baromètre Adblock Ipsos – IAB, 30 % des internautes français ont équipé leur navigateur d’un logiciel destiné à empêcher que des publicités s’affichent sur les pages Web visitées. Un taux qui n’est que de 28 % chez les 35-49 ans, mais qui grimpe à 39 % chez les 25-34 ans et atteint 53 % chez les 18-24 ans. 69 % d’entre eux affirment utiliser un bloqueur de publicités depuis plus d’un an.

Trop de pub…

Sans surprise, les internautes considèrent qu’Internet est saturé de publicités. À la question « Pourquoi vous êtes-vous équipé d’un bloqueur ? », ils répondent à 82 % qu’ils désiraient « faire barrière aux intrusions indésirables ». En outre, ils sont respectivement 71 % et 61 % à trouver que la publicité sur Internet est de plus en plus « énervante » et « répétitive ».

… tue la pub

Pour autant, les auteurs de l’étude précisent que les internautes français ne sont, par principe, pas hostiles à la publicité et au fait qu’elle constitue, pour certains sites, un mode de financement. 13 % des internautes interrogés affirment même désactiver leur bloqueur de publicités lorsqu’ils visitent certains sites qu’ils souhaitent soutenir. Plus globalement, ils considèrent à 58 % que la publicité est mieux ciblée qu’avant. Et qu’ils seraient prêts à désinstaller leur bloqueur si le volume des publicités était moindre et si elles étaient plus discrètes. Pour les personnes interrogées, une publicité « acceptable » n’interfère pas sur la navigation (69 %), se ferme facilement (65 %) et n’empêche pas de visualiser un contenu (62 %).

© Les Echos Publishing 2016

Les rançongiciels s’attaquent aux Mac

Longtemps préservés, les Mac sont à leur tour victimes des tristement célèbres « ransomwares ».

Si les Mac sont moins sensibles aux virus informatiques que les PC, ils ne sont pas pour autant immunisés contre leurs attaques. C’est la désagréable expérience que plusieurs centaines d’utilisateurs de Mac ont vécues ces derniers jours, après avoir « contracté » KeRanger en installant la mise à jour infectée d’un outil de téléchargement baptisé « Transmission ». Trois jours à peine après avoir pris place sur la machine, le malware, comme tout bon rançongiciel, cryptait certaines données présentes sur le Mac puis informait leur utilisateur qu’il devrait payer une rançon de 400 $ s’il espérait y accéder à nouveau.

Des preneurs d’otage très efficaces

KeRanger est responsable de la première attaque d’envergure de rançongiciel venant frapper les Mac. Côté PC, cela fait bien longtemps que ces malwares ne sont plus une nouveauté et qu’ils affectent aussi bien les particuliers que les entreprises. Un des derniers en date, baptisé « Locky », sévit depuis le mois de février en France. Il entre en action lorsque l’on clique sur la pièce jointe d’un courriel (il a récemment été identifié dans la pièce jointe d’une fausse facture « Free Mobile »). Les victimes sont alors invitées à payer un bitcoin (375 €) pour obtenir une clé de déchiffrement permettant la « libération » des données indûment cryptées. Sans cette clé, il est presque impossible de récupérer les données.

Mieux vaut prévenir que guérir

Les rançongiciels se propagent comme la plupart des malwares. Il convient donc de ne pas ouvrir les pièces jointes associées à des courriels non désirés ou suspects (courriels contenant des informations non personnalisées, émanant d’un expéditeur inconnu…) et de mettre à jour ses antivirus et autres antispywares régulièrement. En outre, pour limiter les risques d’être victime d’une faille de sécurité lors d’une ballade sur un site web, il est impératif d’activer les mises à jour automatiques des programmes permettant la navigation (système d’exploitation, navigateur, Java…). Enfin, effectuer des sauvegardes régulières constitue la seule garantie de récupérer toutes ses données intactes. En cas d’attaque, plutôt que de payer une rançon, il suffira de restaurer les fichiers « pris en otage » après, bien entendu, avoir débarrassé la machine des virus.

© Les Echos Publishing 2015

Comment rédiger un tweet efficace

À elle seule, la règle des 140 signes maximum caractérise Twitter. Pour autant, être bref n’est pas suffisant pour permettre à un « tweet » d’atteindre un « taux d’engagement » élevé. Autrement dit d’être retweeté, classé comme favori, ou de susciter l’abonnement d’autres utilisateurs du 3réseau social le plus prisé de France. Zoom sur les qualités principales d’un bon tweet.

Respecter la ligne éditoriale et suivre l’actualité Pour ne pas déstabiliser ses abonnés, il est préférable de suivre une ligne éditoriale.

Parler de tout et de rien n’est pas une stratégie très efficace pour séduire et fidéliser des abonnés sur Twitter. Il est préférable d’opter pour une ligne éditoriale précise et simple à identifier. Une ligne éditoriale qui doit être définie en fonction :– de l’image que l’entreprise souhaite donner (expertise technique, convivialité, tradition, caractère innovant, comportement éthique…) ;– des objectifs qu’elle poursuit en communiquant sur Twitter (recherche de collaborateurs, recherche de partenaires, conquête et fidélisation de cats…).

Tous les tweets produits, retweetés ou distingués (via un « J’aime ») devront l’être dans le respect de cette ligne éditoriale.

Suivre l’actualité Twitter est le réseau de l’immédiateté. L’actualité y est très suivie et commentée.

Twitter est un outil très utilisé pour suivre l’actualité, tous domaines confondus. Produire des tweets qui feront partie des premiers à relayer une information est une bonne stratégie pour faire en sorte qu’ils soient lus et retweetés. Toutefois, pour y parvenir, il faut :– qu’une veille soit effectuée par une personne dans l’entreprise sur les domaines entrant dans sa ligne éditoriale ;– que cette personne soit suffisamment autonome pour, sans délai, rédiger un tweet et le mettre en ligne.

Les créneaux de publication Connaître les créneaux de présence sur Twitter est important pour définir une politique de publication.

D’une manière générale, pour accroître le taux d’engagement d’un tweet, il est conseillé de le mettre en ligne pendant les pics de fréquentation. Une des dernières études publiées sur le sujet (Quick Sprout – 2015) montre que :– lorsque l’on vise un lectorat de professionnels, il faut préférer les jours de la semaine. Le taux d’engagement étant de 14 % supérieur à celui constaté les samedi et dimanche ;– lorsque l’on cible un public de particuliers, le taux d’engagement est 17 % plus élevé les mercredi, samedi et dimanche.

Concernant les horaires, le créneau de base s’étale de 10 heures à 17 heures. L’étude précise d’ailleurs que le taux d’ouverture et de traitement des tweets est particulièrement élevé lors de la pause du déjeuner (autour de midi) et en fin d’après-midi (autour de 17 heures).


Précision : une étude réalisée par Over-Graph précise que la durée de vie moyenne d’un tweet (durée pendant laquelle il va être lu et relayé par les autres utilisateurs du réseau social) n’excède pas 4 heures. Aussi, pour assurer une présence continue sur Tweeter, il est conseillé d’envoyer plusieurs tweets quotidiens, espacés les uns des autres.

Intégrer un hashtag Les hashtags offrent une meilleure visibilité aux tweets.

Les hashtags sont des marqueurs (notés #nomdumarqueur) que l’on peut créer ou reprendre et qui permettent d’associer un tweet à un thème. Ce marqueur est important car il offre à un tweet la possibilité d’être vu par tous les non-abonnés qui utiliseront ce hashtag comme mot-clé dans une recherche sur le réseau social.


Exemple : un utilisateur vient de recevoir un tweet contenant le hashtag #courdescomptes. Il lui suffit alors de cliquer sur ce hashtag pour que s’affiche sur son écran d’autres tweets contenant le même marqueur. Cette pratique, qui permet de facilement consulter différents messages portant sur un même sujet, est très répandue sur Twitter.

Il est possible d’intégrer plusieurs hashtags dans un même tweet. Mais attention, au-delà d’un marqueur, les études montrent que le taux d’engagement généré par le tweet s’effondre.


Précision : dans un cadre baptisé « Tendances », qui apparaît sur la page d’accueil de chaque compte Tweeter, se trouve une liste de hashtags. Cette liste est conçue automatiquement par Twitter en fonction de la localisation de l’abonné mais aussi de ses centres d’intérêt.

Respecter les formes et mentionner les sources Des règles de forme et de courtoisie doivent être suivies sur Twitter.

Un tweet doit être correctement rédigé (orthographe soignée, ponctuation respectée, utilisation réduite des abréviations) et adopter un ton décontracté sans être incorrect. Il convient aussi d’utiliser les majuscules avec modération. Ces dernières, signifiant « je crie », sont regardées comme une marque d’agressivité.

Il est de tradition de citer ses sources sur Twitter. Pour ce faire, il suffit de faire apparaître l’adresse de leur compte Twitter (@nomducompte) dans le corps du tweet. Les personnes ainsi citées recevront une notification sur leur compte Twitter. Par reconnaissance ou par simple curiosité, elles ne manqueront pas de venir visiter le compte de la personne qui les a citées.

Intégrer des as et des images Les images augmentent l’effet viral des tweets.

Il ne faut pas hésiter à intégrer une image dans un tweet. L’effet viral de celle-ci est largement démontré et augmente considérablement les chances qu’à un tweet d’être retweeté. En outre, il est possible et conseillé d’intégrer aussi des as. Ces derniers vont permettre aux lecteurs du tweet d’accéder à des données plus riches (pages Web, blogs, vidéos en ligne…). Pour faire « entrer » les adresses des pages Web dans les 140 signes maximum du tweet, il faut utiliser un « réducteur d’URL », un service gratuit disponible en ligne (urlz.fr, ecra.se, url.exen.fr…).

© Les Echos Publishing 2015

SEO : les effets positifs des liens sortants

Une étude tend à démontrer que les liens sortants d’une page Web et pointant vers des sites de qualité sont pris en compte par le système de référencement de Google.

En septembre dernier, John Mueller, Webmaster Trends Analyst chez Google, avait affirmé dans un « hangout » que contrairement aux as entrants, les as sortants (c’est-à-dire pointant vers un autre site) n’apportaient aucun bénéfice SEO à la page dans laquelle ils étaient intégrés. Une situation que le site Reboot a souhaité vérifier en mettant en œuvre un test dont les résultats viennent d’être publiés puis relayés par le JDN et le site Abondance. Pour mener à bien cette expérience, 10 sites ont été créés. Chacun offrait des contenus non identiques mais similaires (taille de textes, balises, mots clés…) et intégrait deux termes inventés pour l’occasion et non référencés par Google : « Phylandocic » et « Ancludixis ». Sur ces 10 sites, 5 contenaient 3 as vers des sites réputés (université d’Oxford, université de Cambridge, Genome Research Institute) et les 5 autres n’en avaient aucun. Les as étaient attachés au terme « Phylandocic ». Aucun a n’était associé à « Ancludixis ».

Préférence aux as sortants

Pendant les 5 mois que dura le test, des recherches furent lancées en utilisant les termes « Phylandocic » et « Ancludixis ». Au final, quel que fut le terme pris en compte pour la requête, les sites qui se classèrent aux 5 premières places de la page des résultats de Google furent ceux intégrant les as sortants. Ajouter des as pertinents dans une page web, outre faciliter le surf des internautes visiteurs, semble ainsi offrir des avantages en termes de référencement naturel.

Attention toutefois à ne pas tomber dans l’excès en intégrant des as à tort et à travers. Pour rappel, Google ne tolère pas que l’on tente d’influencer son système de classement des résultats. S’il considère que des as sortants n’ont pas pour objectif d’améliorer l’expérience de l’internaute mais de favoriser le référencement de la page, il peut prendre des sanctions allant jusqu’à sa désindexation.

© Les Echos Publishing 2016

L’État veut en finir avec les zones blanches

268 petites communes françaises toujours situées en « zone blanche » devraient bénéficier d’une couverture de téléphonie mobile d’ici la fin de l’année.

Encore pas moins de 268 centres-bourgs de communes françaises ne disposent d’aucune couverture de téléphonie mobile. Une situation qui pénalise leurs habitants comme les entreprises qui y sont implantées et contre laquelle le Gouvernement a décidé d’agir en mobilisant 30 millions d’euros dans les prochains mois. L’État va ainsi partiellement se substituer aux collectivités territoriales pour notamment financer la construction des pylônes sur lesquels les opérateurs auront pour mission d’installer les antennes relais. D’ici le 31 décembre 2016, les 268 centres-bourgs dont la liste a été publiée au Journal officiel devraient enfin disposer d’une couverture de téléphonie mobile.

800 autres sites à couvrir

Le coup de pouce gouvernemental pour résorber les « zones blanches » ne se limite pas à ces 268 centres-bourgs. Ils portent aussi sur l’aménagement de 800 zones dites « prioritaires » situées à l’écart des petites communes. Des zones accueillant, par exemple, un regroupement de commerces, d’entreprises ou des activités de loisirs ou de tourisme. Un guichet administré par l’Agence du numérique a été mis en place pour identifier les 800 sites prioritaires. Entre la couverture des 268 bourgs et de celles des 800 sites prioritaires, l’investissement de l’État est estimé à 80 millions d’euros.

© Les Echos Publishing 2015

Le développement des robots pourrait faire exploser le chômage dans le monde

Lors d’une conférence récente, plusieurs scientifiques américains se sont inquiétés des impacts de la robotique et de l’intelligence artificielle sur l’emploi.

Les rapides progrès de la robotique et de l’intelligence artificielle (AI) devraient fortement peser sur le marché du travail dans les années à venir. L’affirmation n’est pas nouvelle et les inquiétudes qu’elle fait naître sont régulièrement relayées. Pour mémoire, en 2014, Bill Gates, Elon Musk et Stephen Hawking s’était tous trois publiquement émus du développement rapide et sans contrôle de l’intelligence artificielle. Le physicien britannique allant même jusqu’à envisager que le « développement d’une intelligence artificielle complète pourrait signifier la fin de l’espèce humaine ».

Il y a à peine quelques jours, dans le cadre d’une réunion à Washington de l’American Association for the Advancement of Science (AAAS), d’autres scientifiques ont, à leur tour, exprimé leurs craintes. Pour Moshe Vardi, professeur d’informatique à l’Université Rice (Texas), cité par The Guardian, « Nous nous approchons du moment où les machines seront plus performantes que les humains dans presque toutes les tâches ». Et de rappeler qu’il est donc essentiel de s’interroger sur le rôle que pourront tenir des humains dans une société dans laquelle de telles machines existeraient.

Des milliards investis

« L’intelligence artificielle est en train de passer du monde de la recherche au monde réel » complète Bart Selman, professeur d’informatique à la prestigieuse université de Cornell. Les systèmes sont désormais capables de voir, d’entendre et d’agir en quasi autonomie. En outre, précise le scientifique, Google, Facebook, IBM ou encore Microsoft investissent chaque année des milliards de dollars dans le recherche et le développement de l’intelligence artificielle. D’énormes progrès devraient ainsi intervenir dans ce domaine à court terme. Pour le professeur Vardi, d’ici 25 ans, la plupart des automobiles seront automatiques. Un tel changement devrait, selon l’enseignant, entraîner une baisse de 90 % du nombre d’accidents. Dans le même temps, les 10 % des emplois américains qui impliquent de conduire un véhicule devraient en grande partie disparaître. Plus largement, à en croire les scientifiques de l’AAAS, le développement des robots et de l’AI pourrait à terme, faire grimper le chômage à un taux avoisinant les 50 %.

Un sujet qui, au désespoir des scientifiques, n’est pas, malgré les enjeux, pris en compte par les ténors de la campagne d’investiture pour la prochaine élection présidentielle américaine. Pas sûr qu’il le sera davantage par les futurs candidats à l’Élysée lors des élections de 2017.

© Les Echos Publishing 2015