Le Web d’aujourd’hui serait-il le même sans Google ?

Twitter Facebook Google Plus Linkedin email

On a beau dire que Google est devenu le mal à cause de son fonctionnement basé sur le profilage de la population à des fins mercantiles (et aussi d’espionnage, les USA s’étant doté des lois pour pomper toutes les données collectées), je pense que personne ne se rend vraiment compte à quel point il est devenu incontournable pour le Web actuel. J’aimerai donc mettre en lumière quelques points pas très visibles mais essentiels je pense pour comprendre comment on est arrivé là.

Le Web a existé avant Google. Huit ans sans lui pour être exact. Et c’était… Alors j’ai commencé un an avant son arrivée. Et à l’époque Google a démarré comme moteur de recherche. Et seulement ça. Mais il a rapidement eu du succès parce que comparé aux autres moteurs existants qui cherchaient à gagner de l’argent en vous présentant une tétrachiée de contenus en plus (ce qu’on appelait à l’époque des portails), Google se concentrait sur la recherche, les résultats, sans fioriture, un design qui perdure encore maintenant malgré quelques ajouts. Il faut dire qu’on avait pas de très haut débit à l’époque, donc chaque octet comptait.

J’ai commencé vraiment à utiliser le moteur de recherche Google en 2002 (grosso modo avec mon premier pc à moi et ma connexion 56k AOL pourrie). A ce moment-là pour se rémunérer, vu qu’on ne paie pas pour l’utiliser, Google propose AdWords, un programme de publicité via l’achat de mot-clé, c’est à dire que vous pouviez payer des « mots-clés » pour remonter dans les résultats de recherche des utilisateurs. Déjà à l’époque, face aux parts de « marché » grandissante du moteur, ça a fait râler un peu, mais le référencement n’était pas aussi Google-centré que maintenant. Ce programme existe toujours à l’heure actuelle, cependant les résultats « sponsorisés » de la sorte sont clairement affichés comme tel. Mais ça marche, Google amasse déjà une manne financière importante. Vient naturellement ensuite AdSense, la régie publicitaire de Google. Il ne s’agit plus de demander aux gens de payer pour apparaître dans les résultats du moteur de recherche, il s’agit de rémunérer les sites qui donnent de la visibilité aux autres via de la publicité (ceux récupérant cette visibilité payent évidemment). Google fournit les outils, et prend sa commission au passage. Carton également, à l’époque les montants étaient facilement élevés même avec un trafic un peu faible. Mais la publicité n’était pas encore pernicieuse comme elle peut l’être aujourd’hui.

A ce moment-là, un certain Mozilla signe un partenariat avec Google pour lui reverser une partie des revenus issus des recherches effectuées directement au sein de Firefox, le tout nouveau navigateur web de la jeune fondation. Firefox vient décrasser un domaine pourri par Microsoft avec un Internet Explorer 6 largement majoritaire (on parle de plus de 90%), navigateur que Microsoft a annoncé laisser volontairement figé, laissant les innovateurs sans moyens pour proposer de nouvelles expériences aux utilisateurs. C’est pour ça que Firefox a été plus que bienvenu, et que vous avez certainement entendu parler de cette époque pré-firefox avec dégoût. Ou que vous lisez parfois « Chrome is the new IE », mais j’y reviendrait plus loin. Et avec une part de marché qui est allé jusqu’à 50%, autant dire que la puissance de Firefox a bien bénéficié à Google.

La même année que la sortie de la version 1.0 de Firefox justement, Google annonce et met à disposition Gmail, une solution de courrier électronique à l’interface elle aussi épurée. C’est à partir de ce moment-là je pense que le « compte Google » prend vraiment son envol, permettant de centraliser sur une seule identité toute l’activité des services Google que l’on utilise. Dans la vie de Gmail, un point qui a fait grincer des dents : Google annonce vouloir lire le courrier pour proposer sur l’interface web de Gmail des publicités ciblées. Demandez à n’importe qui s’il accepte que le facteur ouvre son courrier pour lui rajouter des flyers dans les enveloppes… En 2004 sort aussi un certain Google Maps. Pas grand chose à dire à part que son utilisation explosera réellement avec la navigation GPS sur Android, un service de plus incontournable là encore.

Je ne vais pas énumérer la totalité des services que Google a pu créer ou tuer depuis sa création, mais je vais en noter trois en particulier qui par la suite auront selon moi un impact majeur sur toute la planète qu’elle soit professionnelle ou non : le rachat de YouTube en 2005 et son explosion dans les années qui suivent, le rachat et la publication d’Android en 2007 (avec le succès que l’on sait, en 10 ans Android équipe plus de 70% des appareils mobiles du marché) et la publication du navigateur Google Chrome en 2008, avec désormais une part de marché qui frôle les 70% toutes plateformes confondues.

La principale particularité de la majorité des services que Google propose au public est qu’ils sont gratuits. Ils sont majoritairement financés par la publicité qu’une très grande partie des sites du web visibles affichent pour à minima se payer l’hébergement. Seules quelques fonctions parfois confidentielles mais essentielles pour les professionnels sont payantes (si vous n’avez pas entendu parler du récent tour de vis sur les accès à Google Maps, c’est à se marrer). Le fait que Google soit capable d’opérer tous ces services sans que vous déboursiez un seul centime devrait déjà vous effrayer. En l’espace de vingt ans, il a ancré l’idée d’un web gratuit pour ses utilisateurs (en dehors du prix de la connexion Internet), ce qui a déjà valu son lot de tensions, de fermetures de services qui n’attirent pas une masse critique, et l’absence de prise de conscience pour les plus jeunes que tout n’est pas gratuit dans la vie. Et je ne vais pas revenir sur tous les problèmes que posent Google Chrome.

Mais Google n’est pas uniquement un gros profiteur. En fait, le grand public n’a pas forcément connaissance de tout ce que Google a contribué pour qu’on aie un web moderne et plus sécurisé. Qu’on le veuille ou non, l’augmentation du trafic mobile (Google annonce régulièrement que les recherches depuis un mobile totalisent environ 50%, en augmentation légère mais constante dues à la maturité de Google Assistant), lié au fait que Google équipe 70% des terminaux mobiles du monde entier, lui donne une force de frappe d’expérimentation et de décision sans pareil. Ses datacenters ne sont pas clés en main mais reposent sur des technologies majoritairement open-source. Pour tirer le maximum de ses machines, Google a longuement expérimenté le noyau Linux et tenter d’en améliorer plusieurs points notamment au niveau du réseau, améliorations qu’ils ont très souvent reversé au projet mère, et tout le monde peut en profiter.

L’augmentation du trafic lié à la vidéo sur YouTube a poussé Google à mener des recherches sur la compression vidéo. En rachetant On2 Technologies, le géant a publié VP8, et le format Webm, un « substrat » du format mkv optimisé pour le web et le streaming. Si le VP8 est intéressant, il ne sera pas très utilisé en dehors de YouTube. Le VP9 doit prendre le relai du VP8 en réduisant le poids de moitié, un point essentiel notamment pour accompagner l’essor des contenus ultra haute définition. Sorti en 2012, et régulièrement raffiné depuis, le constat est le même que pour le VP8, il n’est pas très utilisé. Mais son aspect « sans brevet » va avoir une importance ici, puisque le VP9 servira de base aux travaux menant à l’AV1, une initiative beaucoup plus large que Google seul dans son coin. Les résultats de la création et du support de ce codec nouvelle génération ne se feront sentir que dans deux ans à priori, alors croisons les doigts pour que cette fois ce soit la bonne.

Aparté : le format d’image WebP, qui est dérivé des travaux sur le VP8 et le VP9, doit permettre des images plus légères à qualité égale par rapport au PNG ou surtout au JPG. Son support vient de se déployer dans Firefox et Edge. Il n’est donc pas idiot de se pencher sur le sujet.

Le web repose sur un protocole, une langue, qui s’appelle HTTP. La langue actuelle la plus répandue date de 1999. Et n’a pas évolué du tout depuis, ou alors tellement peu que le numéro de version n’a pas changé. Au point que vous pouvez toujours utiliser un navigateur web sorti il y a vingt ans pour contacter un site web d’aujourd’hui. Ça sera moche visuellement mais d’un point de vue purement protocolaire ça fonctionne. Le problème c’est que c’est un protocole lent, verbeux, et la multiplication des contenus dans une même page web provoque maintenant un réel gaspillage de ressources réseau et donc CPU. Via son navigateur Chrome, Google a expérimenté un remplaçant nommé SPDY. Les spécifications sont publiques, et côté navigateurs même Firefox finit par le supporter. Mais rien n’est standardisé. Cependant, SPDY va très très fortement inspirer le vrai standard qu’est HTTP/2, qui a été finalisé en 2015, et qui se déploie petit à petit (il est d’ailleurs exploitable sur le blog). Le gain est réel, et sur des réseaux mobiles contraints et instables c’est forcément bienvenu.

Google est également en train de préparer la suite, qui doit encore mener à de meilleurs performances, en la personne de QUIC. Ce même QUIC a servi de base à des travaux pour ce qui devrait aboutir à HTTP/3. Toujours sur le sujet des protocoles, via son hégémonie dans la recherche sur le web, la volonté de mettre en avant les sites avec chiffrement dans ses résultats a poussé beaucoup d’acteurs qui n’avaient que peu d’égard pour la confidentialité des échanges avec leurs utilisateurs se mettre en marche pour basculer sur le chiffrement. La réalité économique de ces conséquences a poussé certains acteurs à proposer de quoi répandre l’usage pour tous gratuitement, grâce à Let’s Encrypt. Au point que celui-ci devient un point de faiblesse s’il vient à tomber, car il est seul sur son créneau à être supporté par autant d’acteurs.

Quoiqu’on pense des travers actuels de l’apprentissage profond (deep learning), ou le terme que le grand public retient à savoir l’intelligence artificielle (j’ai déjà expliqué pourquoi je n’aime pas trop ce terme, et je n’ai pas changé d’avis, pour l’instant), Google s’en est servi partout dans ses outils, et n’a pas oublié de les publier en open-source pour que tout un chacun puisse s’en servir directement sans redévelopper de zéro. Si Google a développé ses propres puces matérielles dédiées à ces algorithmes, avec la perspective que ça soit exploitable par les cartes graphiques aux architectures friandes de calcul parallèle, tout le monde y gagne : Google en visibilité et en crédibilité dans le domaine, ainsi qu’en retour de développeurs qui eux de leur côté peuvent bénéficier d’outils avancés sans les années de recherche nécessaires, pour se concentrer sur leur produit final.

Et pour être impliqué dans le sujet au quotidien avec mes clients, le choix de Google de mieux référencer les sites « mobile-first » et surtout le HTTPS sur le moteur de recherche imposent à tous les sites de se conformer pour garder la visibilité des 90+% de recherches effectués sur le moteur du géant, visibilité sans laquelle il ne pourraient subsister quelque soit le modèle économique sur lequel ils reposent. Et moi-même je dois reconnaître que c’est important et pratique, mobile-first imposant une légèreté bienvenue dans une orgie de JavaScript aussi pourri qu’inutile (quoique malheureusement incontournable), et HTTPS, je vais pas vous refaire le tableau.

Et si je voulais encore mentionner un point important qui m’a fait déployer une configuration sur plus de 4000 serveurs chez LBN : sur Gmail vous étiez prévenus quand un mail vous avait été envoyé par un correspondant sans aucune forme de chiffrement ou de protection (contenu ou transport). En annonçant un traitement en deux étapes : d’abord une simple alerte, le temps de permettre aux expéditeurs de rentrer dans le rang, puis en classant en SPAM ceux qui n’auront pas agi. Autant vous dire qu’avec plus d’un milliard de comptes de réception, tous les sites marchands peu regardant de la confidentialité des échanges se sont vite alignés (je laisse volontairement de côté la contradiction confidentialité et Gmail, je note juste la conséquence pour l’intégralité de l’écosystème). Microsoft n’a pas mis longtemps à suivre sans pour autant communiquer sur le sujet, rendant évidemment les investigations compliquées pour comprendre leur classement, ce qui fait que maintenant une grosse partie du trafic lié au mail se fait de manière sécurisée. Quand au contenu ça c’est encore une autre histoire, ça fait plus de 20 ans qu’on arrive pas à faire accepter des outils qui existent, parce que ce sont des outils complexes pour le commun des mortels.

Et je suis sûr qu’on pourrait continuer comme ça longtemps, s’il était possible d’avoir des vrais retours on pourrait parler de l’initiative Project Loon, un réseau de ballons stratosphériques équipés pour fournir une connectivité 4G où les réseaux classiques sont absents (terrestres ou sans-fil), et où le satellite coûte trop cher. Si vous avez d’autres initiatives positives qui ont été initiées ou soutenues par Google, ça viendra facilement compléter le tableau (quelqu’un pour nous faire l’éloge de kubernetes ?).

On le voit donc, malgré ses très mauvais aspects sur le penchant économique du web, ou sur le profilage et la violation de l’intimité des individus, ses apports techniques sont impossible à oublier. Il n’est pas dit que les évolutions aient été aussi rapides, que le fruit de certaines recherches qu’ils ont mené de manière ouvertes l’aient été avec d’autres acteurs (on pense notamment à Microsoft qui a mis très longtemps à commencer à jouer dans la même catégorie, et encore les travers sont fréquents). J’attends encore de voir les effets de l’AV1 en dehors de nos PCs qui sont les seuls pour l’instant à avoir les épaules nécessaire pour le décoder (sans parler de l’encoder), mais il y a fort à parier que sans ça, la MPEG LA continuerait de saigner la planète entière pour l’utilisation de H264 et H265 pour la vidéo pendant de longues années. HTTP/2 ne serait peut-être pas encore une réalité. Les progrès du deep learning ne seraient pas aussi visibles, avec entre autres un IBM qui préfère se garder sa solution et la vendre clé-en-main.

Google est donc partout : il permet encore à une quantité non négligeable de sites de survivre via la publicité, son service de mail est utilisé par plus d’un milliard de personnes à travers le monde, j’ai déjà évoqué les 70% d’Android qui ont permis à Google en partie de répandre son navigateur pour maintenant plus des deux tiers des webonautes, YouTube compte plus d’un milliard et demi d’utilisateurs mensuels (public et créateurs). Bref, Google domine le Web et il y a peu de chances que ça change pour l’instant. Le problème commence à être visible : quand Microsoft dominait les accès aux Web, il a conditionné les capacités de celui-ci (au-delà de la différence de bande passante globale du réseau à l’époque). Microsoft domine encore le marché PC et les différents errements liés à Windows 10 (espionnage de l’intimité, instabilité des mises à jour, absence de contrôle sur ces mises à jour, tentative d’imposer ses outils) sont une plaie pour une quantité beaucoup trop importante d’utilisateurs pour que ça dure encore longtemps.

Pour l’instant si on avait surtout vu des développeurs feignants ne pas supporter correctement tous les navigateurs (en ne testant certaines fonctionnalités parfois peu finalisées que sur Chrome, par exemple), là Google commence à vous pousser indirectement vers ses propres outils en usant artificiellement de fonctions uniquement disponibles dans ceux-ci. Le dernier exemple en date concerne YouTube, et sa refonte qui ne fonctionne de manière fluide que dans le navigateur maison, en raison de choix techniques discutables pour un service de cette visibilité. En étant majoritaire, Google pense qu’il n’a plus à se soucier de respecter les concurrents. C’est une posture plus que détestable qui ne va pas dans le sens d’un écosystème ouvert ou les décisions sont prises à plusieurs de manière publique.

Vous vous souvenez tout à l’heure quand je parlais de la maxime « Chrome is the new IE » ? Dans un monde nourri d’innovations, la monoculture est un problème, car un seul acteur dirige toutes les avancées. Même si artificiellement la base de Chrome, Chromium, est ouverte et les contributeurs nombreux, le logiciel final que les gens utilisent au quotidien contient plusieurs additions qui ne sont pas partagées et peuvent imposer leur loi. Quand Internet Explorer était seul, seul Microsoft avait le pouvoir de le faire évoluer, et avait fait le choix de ne pas le faire. Quand Internet Explorer 7 sort avec Vista en 2006, il ne fait que rattraper son retard sur certaines fonctionnalités (les onglets !) et le support de standards tout frais qu’avaient réussi à pousser Firefox et Opera via le W3C pendant ce temps-là, et que les développeurs avaient fini par adopter (on a eu droit à une période magnifique de hacks dégueulasses en JavaScript ou côté serveur pour pouvoir supporter à la fois les standards et Internet Explorer…). Donc laisser Google décider seul de l’avenir du Web, c’est très mauvais.

Par chance pour l’instant Gmail n’est pas aussi pénible que Microsoft sur le mail, jusqu’au jour où ils prendront la même direction et refuseront les quantités de mails qui ne viennent pas d’un gros fournisseur (en substance c’est ce que fait Microsoft maintenant sur Office 365 et c’est une catastrophe). Il est encore possible d’accéder à Gmail via des protocoles standardisés que sont l’IMAP (et même imposent l’IMAPS, soit le même mais chiffré, logique) et SMTP (même combat pour SMTPS), mais certaines fonctions non standards sont mécaniquement impossible à utiliser. Qu’est-ce qui empêche Google de supprimer ce support et imposer soit l’interface Web, soit les applications mobiles ?

Google impose déjà sa loi sur les smartphones Android, en forçant les constructeurs à pré-installer l’intégralité des outils Google pour se voir valider la commercialisation d’un téléphone. Il vient d’être condamné en Europe pour ça d’ailleurs, mais le contournement est pernicieux : si vous voulez valider un Android sans Google Assistant et sans Chrome par exemple, vous devrez… payer 40$ par appareil vendu. Une situation difficilement tenable commercialement parlant pour les fabricants qui continueront donc de permettre à Google de vous sucer le téléphone, mais Google pourra se cacher derrière l’argument que l’alternative existe. Avec ce comportement comment voulez-vous que des alternatives soient possibles et surtout soient vues par des utilisateurs majoritairement peu techniques qui n’installent en fait que très peu d’applications sur leurs téléphones ? Certains n’ont-ils pas pesté que Samsung faisait tout en doublon dans leurs smartphones, sans penser qu’ils n’avaient peut-être pas le choix ?

David Legrand réagissait en 2017 à la question du démantèlement de Google. Il n’était certes pas le seul, mais posait pas mal de bonnes questions et pointaient intelligemment du doigt pas mal de problématiques liées au géant et à son influence sur le monde pas seulement numérique mais physique. Contraint dans mon fauteuil pendant tout le mois de décembre chez ma mère, je n’ai pas pu m’empêcher de frissonner de peur en voyant les multiples publicités pour les enceintes connectées, aussi bien Google Home qu’Alexa d’Amazon, en pensant au pouvoir supplémentaire qu’on donne à ces sociétés privées américaines sur nos propres vies physiques (le sous-titre de cet article résume bien la situation et pourquoi on devrait les éviter comme la peste). Et la solution n’est pas simple, comme ces outils sont gratuits tout le monde les utilise, et on n’imagine pas devoir payer pour l’intégralité de ce que propose le Web aujourd’hui. J’ai du mal à voir un avenir radieux pour tout ça, pas pour moi, j’ai les capacités techniques et financières de m’en sortir, mais pour le restant du monde…

1
Poster un Commentaire

avatar
1 Fils de commentaires
0 Réponses de fil
0 Abonnés
 
Commentaire avec le plus de réactions
Le plus populaire des commentaires
1 Auteurs du commentaire
Gilles Auteurs de commentaires récents
  S’abonner  
plus récent plus ancien
Notifier de
Gilles
Invité
Gilles

Et bien j’ai comme toi connu les débuts d’internet et je regardais avec curiosité et moultes émoustillements quelle route cela allait prendre. Tu oublies de préciser un truc : avant Google, personne n’avait eu l’idée de proposer un moteur de recherche. Tout le monde proposait des portails : Yahoo étant le plus utilisé, DMoz le plus convoité. Et le portail était la norme. L’idée de Google d’indexer des contenus et de les proposer à la consultation via un moteur de recherche a réellement révolutionné la façon de consulter internet (et d’y accéder aussi). Mais je pense amha, que si Google… Lire la suite »