vendredi 12 décembre 2014

Thierry Bardy- ‘nexus des forces’ ou les technologies stratégiques selon Gartner

Thierry Bardy -tags ; Gartner,tendances, technologies stratégiques , prospectives, futur.

Thierry Bardy Adetem /Marketing

 

 

 

 

 

 

 

 

Les 10 technologies stratégiques  annoncées par Gartner au début 2014, ont- elles été tendancielles (examen  11 mois après...)

L’informatique devient source d’informations, sociale, mobile et en nuage. Cette convergence va provoquer des mutations professionnelles. Elle suscite déjà une demande accrue en infrastructures programmables, à l’échelle du web.

 Les réseaux sociaux, l’informatique mobile, le Cloud et la transformation de données en informations forment le nouveau moteur de l’IT. David Cearley, vice-president du Gartner, désigne ces convergences par le ‘nexus des forces’, un phénomène révélant dix technologies stratégiques pour la plupart des entreprises en 2014.
Qu’est-ce qu’une technologie stratégique ? Selon le cabinet d’études, elle doit présenter un impact significatif sur l’entreprise dans les trois années à venir. Il peut s’agir de nouveaux concepts ou systèmes transformant ses plans, programmes et initiatives à long terme ou bien apportant une perturbation potentielle sur son marché ou encore un atout commercial pour ses premiers utilisateurs.

1 Le suivi de nombreux terminaux mobiles

Deux à trois fois plus de collaborateurs mobiles accèderont au système d’informations de l’entreprise. C’est une conséquence inattendue des programmes BYOD où l’utilisateur apporte son propre équipement informatique. Cette situation impose aux services informatiques et financiers une contrainte considérable. La politique en matière de ressources matérielles appartenant aux collaborateurs doit faire l’objet d’une révision en profondeur. La plupart des sociétés ne prennent en compte que les salariés qui accèdent à leur réseau au moyen de terminaux acquis et gérés par l’entreprise. Il est nécessaire d’élaborer des règles définissant clairement les attentes, ce que chacun peut et ne peut pas faire sur le système d’informations, tout en conciliant souplesse et exigences face à la confidentialité et à la protection des données personnelles.

2 Les apps mobiles en priorité

En 2014, le principal environnement de développement d’applications d’entreprise sera le navigateur Web, grâce aux performances améliorées des langages HTML5 et JavaScript. Le cabinet Gartner recommande aux développeurs de se focaliser sur la création de modèles d’interface utilisateur étendus, comportant les données vocales et vidéo. Plus compacts et plus ciblés, les services applicatifs (ou apps) vont se développer tandis que les applications mobiles commenceront à décliner. Les programmeurs chercheront à intégrer des apps pour former des solutions. La construction d’interfaces d’application utilisateur couvrant toute une gamme de terminaux nécessite une compréhension des blocs de construction. Le marché des outils de création d’apps grand public et axées sur l’entreprise est très fragmenté. Dans les années à venir, aucun outil particulier ne couvrira tous les services mobiles ; il faudra par conséquent en utiliser plusieurs. Ensuite, une nouvelle approche de l’expérience en situation de mobilité apparaîtra, capitalisant sur les sentiments et les émotions pour provoquer des changements de comportement chez l’utilisateur.

3 L’Internet des objets et des lieux

Le réseau internet dépasse le cadre des PC et des terminaux mobiles pour englober tous les actifs de l’entreprise, ses équipements de terrain ainsi que ses biens de consommation comme les automobiles et les téléviseurs. Le problème, c’est que la plupart des organisations et des fournisseurs de technologies n’ont pas encore exploré les possibilités de cet internet élargi. Ils ne sont pas prêts, d’un point de vue opérationnel et organisationnel. Il faut donc imaginer la numérisation des produits, des services et des biens les plus importants. La combinaison de services et de flux de données nés de cette numérisation globale peut créer quatre nouvelles opportunités d’usage : le suivi des objets, la valorisation des données, leur exploitation et leur expansion. Ces quatre modèles pourront s’appliquer à n’importe quel internet, celui des personnes, des objets, des informations ou des lieux. L’entreprise doit explorer ces quatre modèles et pas seulement l’internet des objets.

4 Le Cloud hybride et son broker de services

Le regroupement de Cloud personnels et de services externes de Cloud privés devrait s’imposer. Les organisations vont concevoir des services Cloud privés en pensant à l’avenir hybride. Elles s’assureront des futures possibilités d’intégration et d’interopérabilité. Les services Cloud hybrides pourront être constitués de différentes manières, relativement statiques ou plus dynamiques. La gestion de cet assemblage dépendra d’un élément assumant la fonction de courtier de services Cloud ou CSB (cloud service broker). Il va traiter l’agrégation, l’intégration et la personnalisation des services Cloud. Les organisations qui s’ouvriront au Cloud Computing hybride à partir de services Cloud privés assumeront les fonctions de CSB. Le Cloud hybride apporte des ressources complémentaires, en cas de pics de trafic ou ponctuellement. Mais les premiers services Cloud hybrides seront, en majorité, statiques et non dynamiques. Ils seront vraisemblablement composés d’un Cloud interne privé et d’un service Cloud public pour couvrir une fonctionnalité ou stocker des données particulières. Davantage de déploiements émergeront au fur et à mesure des évolutions du CSB, une infrastructure privée IaaS pouvant tirer parti de fournisseurs de services externes, en fonction des stratégies et des usages.

5 L’architecture nuage/client

Les modèles d'architectures applicatives sont également en train de se transformer. Dans l’architecture nuage/client, le client exécute une application riche sur un terminal connecté à Internet ; le serveur accueillant un ensemble de services applicatifs hébergés sur une plateforme Cloud, de plus en plus élastique et évolutive. Tandis que les données enregistrées et les applications vont s’étendre à plusieurs terminaux clients, le Cloud constituera le point de contrôle. L’environnement client pourra être une application native ou bien fondée sur le navigateur web. De nombreux terminaux, aussi bien PC de bureau que mobiles, offriront davantage de puissance pour la navigation web. Cette faculté, associée au coût des réseaux et à la nécessité de gérer la bande passante consommée, incitera à minimiser l’empreinte des applications Cloud de calcul et de stockage, et à exploiter l’intelligence et le stockage du dispositif du client. Cependant, des demandes de plus en plus complexes de la part des utilisateurs mobiles se traduiront par de nouveaux besoins en capacités de traitement et en stockage, côté serveur.

6 L’ère du Cloud personnel

L’ère du Cloud personnel marquera un déplacement de la puissance des terminaux vers les services. Dans ce nouvel univers, l’organisation aura moins à se préoccuper des caractéristiques des appareils, même si ces derniers seront encore nécessaires. Les utilisateurs se serviront de tout un ensemble d’équipements, le PC demeurant l’une des possibilités, mais aucun terminal ne constituera la plateforme principale. C’est plutôt le Cloud personnel qui assumera cette fonction. L’accès au Cloud et au contenu stocké ou partagé à partir du Cloud sera maîtrisé et sécurisé, au lieu de cibler uniquement le terminal lui-même.

7 Tout est défini par logiciel

L’approche Software-defined anything (SDx) – où tout est défini par logiciel - est un concept qui résume la montée en puissance de normes favorisant les infrastructures informatiques programmables et les datacenters interopérables. Elle provient de l’automatisation inhérente au Cloud Computing, de la démarche DevOps et du dimensionnement rapide de l’infrastructure. Ce collectif SDx comporte également différentes initiatives comme OpenStack, OpenFlow, l’Open Compute Project et Open Rack qui partagent des visions similaires. Au fur et à mesure de l’évolution des silos technologiques et de l’émergence de consortiums, il faudra rechercher des normes nouvelles et des passerelles profitables aux gammes de produits, en mettant au défi les fournisseurs de technologies individuelles de s’engager en faveur de véritables normes d’interopérabilité relevant de leurs domaines respectifs. Bien que l’ouverture constitue toujours un objectif revendiqué par les fournisseurs, différentes interprétations des SDx restent possibles. Les fournisseurs de technologies SDN (réseau), SDDC (data center), SDS (stockage) et SDI (infrastructure) s’efforceront tous de maintenir leur leadership dans leurs domaines respectifs, tout en déployant des initiatives SDx. Ils pourraient ne se conformer aux normes qu’à contrecœur, risquant de fragiliser leurs marges et d’ouvrir des espaces concurrentiels élargis, même si le consommateur bénéficie de la simplicité, de la diminution des coûts et de l’efficacité de la consolidation.

8 L’informatique à l’échelle du web

Les technologies de l’information à l’échelle du web forment un modèle mondial qui bouscule des positions établies, selon plusieurs critères. Les grands fournisseurs de services Cloud comme Amazon, Google ou Facebook sont en train de réinventer l’informatique et la manière de délivrer des services et des contenus. Leurs facultés d’évolutivité s’expriment en taille, vitesse et agilité. Pour suivre le rythme, les entreprises devront émuler les architectures, les processus et les pratiques de ces prestataires d’infrastructures et de services Cloud. Elles entreront dans une ère informatique à l’échelle du web. Cette approche modifie la chaîne de valeurs des technologies informatiques de manière systémique. Les datacenters sont conçus dans une perspective d’ingénierie industrielle, recherchant la moindre occasion de réduire les coûts et les gaspillages. Au-delà du réaménagement des installations pour les rendre plus éco-énergétiques, cela inclut également la conception, en interne, de composants matériels clés comme les serveurs, les baies de stockage et les réseaux. Les architectures axées sur le web permettront aux développeurs de construire des systèmes très souples et résistants, toujours opérationnels en dépit des pannes.

9 Des machines intelligentes

D’ici à 2020, de nouvelles machines intelligentes vont se développer. On assistera à la prolifération d’assistants personnels sensibles au contexte, de conseillers intelligents comme Watson d’IBM et de systèmes industriels mondiaux avancés. Le grand public accèdera aussi aux premiers exemplaires de véhicules autonomes. L’ère des machines intelligentes sera sans doute la plus perturbatrice de toute l’histoire de l’informatique. Les nouveaux systèmes concrétiseront plusieurs visions précoces en effectuant des tâches que l’on pensait réservées aux personnes, et non aux machines. Le Gartner prévoit que les utilisateurs s’investiront dans leurs propres machines intelligentes ; ils les contrôleront et s’en serviront pour améliorer leurs résultats. Les entreprises investiront aussi dans de nouvelles formes d’assistants numériques. Une fois passée la première vague d’achats professionnels, les machines intelligentes se démocratiseront.

10 L’impression 3D

Les livraisons mondiales d’imprimantes 3D devraient croître de 75% en 2014 avant de doubler en 2015. Bien que d’onéreux robots de “fabrication additive” existent depuis vingt ans, le marché des périphériques vendus entre 500 et 50 000 dollars est naissant et déjà en pleine croissance. L’essor du marché grand public a sensibilisé les entreprises au fait que l’impression 3D est un véritable moyen viable et rentable de réduire les coûts, en raison de l’amélioration des logiciels de conception, de la rationalisation du prototypage et de la fabrication de petites séries.

Aucun commentaire:

Enregistrer un commentaire