Petit glossaire de l'ère digitale par Apptitude.

Axel Pasqualini

Axel Pasqualini Associé · Directeur avril 2024

Chaque jour dans le cadre de notre métier, nous entendons et employons bon nombre de mots, certains issus de l’anglicisme inhérent au monde de la Tech, qui sont liés de loin ou de près aux demandes du marché et aux tendances dans le développement de produits digitaux.

Nous sommes aussi témoins du fait que ces mêmes mots ont tendance à devenir matière à créer des contenus de toutes sortes sur les réseaux sociaux et les médias plus classiques. Il est pour nous extrêment intéressant de voir la conversation autour de l’innovation se démocratiser peu à peu, mais ces mots d’actualité sont-t’ils toujours utilisés à bon escient?

Voici donc, sous forme de petit glossaire digital, une sélection de « Buzzwords » (dans le bon sens du terme) par notre équipe et comment nous les percevons chez Apptitude :

 

Machine learning ??

Le machine learning est l’un de ces mots à la mode dont tout le monde parle actuellement. Pour faire simple, l’apprentissage automatique (terme officiel en français) est un moyen de donner aux ordinateurs la capacité d’apprendre sans être explicitement programmés pour faire une tâche spécifiée par un développeur. Il y a principalement 2 types de processus qui rendent cela possible :

Apprentissage supervisé
Les algorithmes apprennent à mapper une information entrante à l’aide d’un cadre donné via des exemples et possibilités établies et classifiées. (Ici un exemple peut s’agir une séquence de conduite d’un véhicule utilisée à son tour pour apprendre à un ordinateur à conduire).

Apprentissage non supervisé
Où les algorithmes apprennent en interprètant et classifiant par eux-mêmes les données mises à disposition. (Ils sont utilisés par exemple pour créer des segments de clientèle autodeterminés basés sur l’historique des achats).

Les applications de l’apprentissage automatique sont vastes et de nouvelles façons de les utiliser apparaissent chaque jour. Il peut s’agir de simples cas d’utilisation comme la prédiction du prix d’une voiture d’occasion, à des cas plus complexes comme l’identification de transactions frauduleuses en ligne.

Malheureusement, le mot lui-même est actuellement utilisé à tout-va. Par exemple, à la radio, j’entends parfois dire que les listes d’anniversaires du jour sur Facebook sont générées via du machine learning. ??‍♂️Ce n’est clairement pas le cas… En outre, malgré l’utilisation foisonnante de « machine learning » dans la publicité, certains outils en ligne se vantant de vous aider à optimiser votre site web, utilisent plutôt le A/B testing et d’autres techniques, qui sont à vrai dire plus des méthodes de tests statistiques que du machine learning en soi.

Mauro Santos
Développeur – Full Stack

 

IA – Intelligence Artificielle ??

Le terme « Intelligence Artificielle » a été beaucoup utilisé pour décrire divers processus et algorithmes. Il est en effet difficile de fixer une limite pour définir *ce qu’est* l’IA et ce qui *ne l’est pas*.

Afin de mieux distinguer ce qui définit une IA, nous devrions essayer d’examiner ces deux mots séparément. Il semble logique qu’une « Intelligence Artificielle » présente les deux caractéristiques d’être une Intelligence et d’être Artificielle, cependant, le terme « IA » est un terme qui existe depuis un certain temps : Sa propre définition a fluctué au fur et à mesure que les technologies autour de ses principes de base ont évolué.

Même si sa popularité n’a augmenté que récemment, le terme est né dans les années 50. L’un des pionniers de l’IA nous dévoile de quoi il s’agissait à l’origine, en 1955 :

« Le nouvel effort passionnant pour faire penser les ordinateurs… des machines avec des idées, dans le sens le plus large et le plus littéral. »

Source: chartsofhumanity.com

De nos jours, les dictionnaires le définissent bien plus précisément, mais gravitent toujours autour des mêmes concepts :

« […] la capacité d’un ordinateur numérique ou d’un robot commandé par ordinateur à accomplir des tâches communément associées à des êtres intelligents. »

Source : Encyclopædia Britannica 

Étant donné que ces deux définitions ont été formulées des décennies à part, je pense qu’on peut définir que l’intelligence artificielle concerne davantage les machines qui accomplissent un travail exigeant habituellement une intelligence humaine, plutôt que des modèles mathématiques. Cette définition est certes encore large, mais nous pouvons supposer qu’elle est liée donc aux capacités humaines.

Déterminer si un visage est heureux ou triste est quelque chose que les humains sont capables de bien faire, donc si une machine le fait, c’est probablement une « intelligence artificielle ». De même que la capacité de trier une liste de numéros, ne peut pas être considérée comme de l’IA en soi.

Kewin Dousse
Développeur – Front-End

 

Digitalisation, numérisation ? ?

Il existe un certain débat ça et là autour des mots « Numérisation » et « Digitalisation » ainsi que leur utilisation. Pour les puristes du français, amis de Larousse et autres Académiciens, « Digitalisation » est un anglicisme inacceptable, il faut utiliser « Numérisation »! Pour moi, ce n’est pas si simple…

À l’origine, le mot « digit » vient du latin « digitus (-tum) » et exprime un lien clair avec le doigt ; le doigté pour les musiciens, l’empreinte digitale dans NCIS et bien d’autres que je vous laisse imaginer…

En anglais, on parle aussi du doigt, mais « digits » signifie également « chiffre ». Vous savez cet alphabet de 10 caractères (0 à 9) qui permet de former les nombres ? C’est peut-être pour ça que l’on apprend d’abord à compter sur ses doigts ? C’est quand même bizarre que l’on nous parle du 0 bien après les 9 autres.

Si l’on avance dans le temps (depuis l’époque où l’on parlait latin), on trouve dans notre histoire cette fameuse Révolution Industrielle, au milieu du 18ème siècle, c’est le début de l’automatisation du dur labeur humain : la naissance du premier moteur, la machine à vapeur. Un siècle plus tard, la 2e révolution industrielle va ouvrir de nouvelles voies avec l’arrivée de l’électricité et du pétrole.

Le siècle d’après (le 20ème donc) marque l’arrivée de Turing, de l’électronique, l’ordinateur etc… L’Homme commença alors à automatiser et numériser toutes sortes de tâches, de processus, de documents au cours de ce siècle. Puis enfin, nait Internet et sa démocratisation que je placerais à l’an 2000 pour simplifier.

C’est à partir de ce point là, à mon humble avis, que l’on peut différencier Numérisation de Digitalisation, au delà de son étymologie.

Au 20ème siècle, nous numérisions…
Au 21ème siècle, on digitalise!

Avec l’avènement d’Internet dans la société (plus seulement réservé à quelques geeks), l’hyper-pénétration du Smartphone (plus d’un par personne), le phénomène des réseaux sociaux, le Wifi partout et le resto-texto ; c’est un profond changement de modèle social et économique, sans frontière, ni génération ou sexe, qui justifierait donc à lui-seul son mot dédié dans le Larousse.

Axel Pasqualini
Associé – Directeur

 

Blockchain ⛓⛏

Il ne faut pas s’y méprendre, la blockchain est effectivement une invention très puissante. Cependant, certaines limitations inhérentes à son mode de fonctionnement réduissent actuellement son utilité à quelques cas très précis, et contrairement à la croyance populaire, il serait totalement contre productif de vouloir l’appliquer à tout-va dans le cadre d’une entreprise normale, principalement en raison des points suivants :

Contenu
L’intérêt de la blockchain réside dans l’impossibilité de modifier son contenu une fois qu’il y a été écrit, tout en préservant la capacité d’y ajouter du contenu par différents acteurs indépendants.

S’il n’y avait qu’une seule entité intéressée à ajouter du contenu dans une blockchain, il serait beaucoup plus simple et moins énergivore de simplement publier ces données et les signer numériquement avec la clé cryptographique de cette entité.

Coût et attractivité
L’impossibilité de modifier le contenu d’une blockchain est garanti par la puissance de calcul investie pour « miner » (c’est à dire résoudre un problème mathématique difficile à l’aide d’un ordinateur) sur cette chaîne.

Il est donc fondamental qu’assez d’acteurs soient intéressés à miner sur une blockchain en particulier pour que le coût de la puissance de calcul nécéssaire à la modification du contenu de la chaîne soit plus élevé que le gain potentiel obtenu par la dite modification.

Vérification
Le contenu d’une blockchain est public. Il est possible d’encrypter ses données avant de les publier dans la blockchain, mais il sera probablement difficile de trouver des gens prêts à miner une chaîne dont ils ne peuvent vérifier le contenu.

C’est pourquoi la blockchain se prête particulièrement bien à la mise en place de cryptomonnaies, où chaque transaction doit être publique et irréversible. Elle rend aussi possible les « smart contracts« , des programmes publiés dans la blockchain qui s’exécutent lorsqu’une condition est remplie (par exemple lorsque quelqu’un a versé une somme en cryptomonnaies à une adresse donnée). Étant donné que le programme est non modifiable et exécuté par tous les participants au minage de la chaîne, l’acheteur a la garantie que l’action programmée sera bien exécutée.

Avec de fortes garanties de sécurité et une transparence inhérente au système, peut-être même que l’on verra un jour paraître des cryptomonnaies étatiques pour lutter contre le blanchiment d’argent et la fraude fiscale.

Matthieu Girod
Développeur – Full Stack & Mobile

 

AR – Réalité augmentée, VR – Réalité virtuelle ??

Il existe souvent une confusion entre la réalité virtuelle (VR) et la réalité augmentée (AR), ainsi que leur champ d’application. Précédemment vues comme des technologies “gadget” limitées au monde du divertissement, leur utilisation dans des environnements industriels, d’ingénierie et de recherche deviennent peu à peu monnaie courante avec un intérêt particulier porté sur les nombreuses possibilités qu’elles offrent en termes de visualisation dans l’espace notamment.

En soi, les termes pourraient être différenciés comme suit :

VR = Réalité virtuelle
Accessible grâce à un casque VR principalement. Elle permet à l’utilisateur de se plonger dans des expériences et environnements entièrement virtuels avec un certain nombre d’interactions possibles.

AR = Réalité augmentée
Accessible grâce à un terminal, un écran ou avec des lunettes intelligentes. Elle permet à l’utilisateur de visualiser via ce terminal des expériences et données virtuelles juxtaposées au monde réel. Cette technologie est très souvent confondue avec l’hologramme et la technique du Fantôme de Pepper notamment dans les médias.

MR = Réalité mixte
Accessible via un casque VR principalement mais qui cette fois permet la perception de l’environnement réel, créant donc une expérience qui bascule entre AR et VR.

Avec l’évolution des objets connectés et les nouveaux types de terminaux, ces technologies ont donc des grands jours devant-elles et auront tendance à se démocratiser notamment dans l’espace public, les supports publicitaires / informatifs et le visual merchandising (affichage d’informations dans les magasins, vitrines high-tech etc…).

Si vous souhaitez en savoir plus sur ces expériences virtuelles, Aniwaa a publié un excellent guide à ce sujet que vous pouvez trouver ici.

Michael Vuilleumier
Designer – User Experience & Interface