Accueiléconomie numériqueIntelligence artificielle et Big Data extirpent la valeur des données

Intelligence artificielle et Big Data extirpent la valeur des données

- Advertisement -

Par John Schroeder

Le marché du big data devrait croître de 1,7 milliard de dollars en 2016 à 9,4 milliard de dollars d’ici à la fin 2020, selon les prévisions d’Ovum. Le paysage de ce marché se transforme vite, les fusions-acquisitions accélèrent tandis que l’entreprise tente d’acquérir de nouvelles compétences analytiques.

 « L’accélération des déploiements Big Data fait passer au premier plan la valeur des données » , observe John Schroeder, président et fondateur de MapR Technologies. Selon lui, l’intégration de l’analytique dans les applications d’entreprise, via la plateforme CDP (Converged Data Plateform de MapR), fournit aux équipes devOps une souplesse et un très large panel de modèles de traitement des données allant d’Hadoop à Spark, en passant par le SQL, le NoSQL, les fichiers et les flux de messages (streaming). Du coup, le marché 2017 devrait suivre six les grandes tendances suivantes.

1 – Le retour en vogue de l’intelligence artificielle

Dans les années 60, Ray Solomonoff a jeté les premières bases d’une théorie mathématique de l’intelligence artificielle. En 1980, la première conférence nationale de l’AAAI (American Association for Artificial Intelligence) s’est tenue à Stanford, marquant la mise en application des théories dans des logiciels. Un temps « oubliée », l’intelligence artificielle est désormais revenue au centre des débats, couvrant des concepts tels que les machines intelligentes, l’apprentissage automatique, les réseaux neuronaux et l’informatique cognitive. Quelles sont les raisons de ce retour en vogue ? Trois viennent à l’esprit : vitesse, variété et volume. Les plateformes capables de satisfaire ces trois critères avec des modèles de traitement modernes et traditionnels qui s’adaptent horizontalement sont 10 à 20 fois plus économiques que leurs homologues classiques. Google a par exemple prouvé l’efficacité des algorithmes simples, exécutés fréquemment sur de vastes ensembles de données, par rapport à d’autres méthodes se limitant à des ensembles restreints. En 2017, nous commençons à constater tout l’intérêt de l’application de l’intelligence artificielle à des tâches répétitives et volumineuses, où la cohérence est plus efficace qu’une supervision humaine intuitive, sujette à erreurs et coûteuse.

2 – Le Big Data pour la gouvernance ou pour un avantage concurrentiel

En 2017, le débat entre gouvernance et valeur des données va occuper le devant de la scène. Si les entreprises disposent aujourd’hui de mines d’informations sur leurs clients et partenaires, celles qui se démarqueront seront celles qui gèreront leurs données en fonction de la règlementation, ou non, des applications. Les données relatives aux applications réglementées nécessitent une gouvernance portant sur leur qualité et leur traçabilité de sorte qu’un organisme réglementaire puisse en suivre toutes les transformations et remonter jusqu’à leur source. Cette obligation constitue toutefois un frein pour des applications non réglementées telles que l’analyse du client à 360 degrés ou la présentation d’offres, dans lesquelles un degré accru de cardinalité, un traitement en temps réel ainsi qu’une combinaison de données structurées et non structurées produisent des résultats plus efficaces.

3 – Les applications orientées business permettront d’éviter que les lacs de données ne deviennent des marécages

En 2017, les entreprises passeront d’un « attentisme » vis-à-vis des data lakes à une approche orientée métier. Aujourd’hui, des capacités analytiques et opérationnelles sont nécessaires pour s’adresser aux clients, traiter leurs demandes et s’interfacer en temps réel avec des équipements au niveau individuel. Par exemple, tout site marchand doit pouvoir fournir des recommandations personnalisées et permettre de connaître les prix en temps réel. Les prestataires de santé doivent traiter les demandes de remboursement valables et bloquer celles qui sont frauduleuses, en combinant des outils analytiques avec les systèmes opérationnels. Les grands médias personnalisent désormais les contenus diffusés par l’intermédiaire des box Internet. Les constructeurs automobiles et les sociétés de covoiturage interagissent à grande échelle avec les véhicules et les conducteurs. Toutes ces applications requièrent une plateforme souple, à même d’assurer le traitement analytique et opérationnel pour accroître la valeur tirée d’applications supplémentaires allant des analyses de back-office aux activités de front-office. En 2017, les entreprises iront résolument au-delà̀ d’une approche se bornant à poser des questions vers une architecture destinée à dégager de la valeur à court et à long terme.

4 – La souplesse des données fera la différence

Le développement des logiciels est devenu souple, assurant une production opérationnelle en continu. En 2017, les modèles de traitement et d’analyse vont évoluer pour offrir un niveau d’agilité́ comparable à mesure que les entreprises prennent conscience que la souplesse des données – la capacité́ de comprendre celles-ci dans leur contexte et de les exploiter – est une source d’avantage concurrentiel. L’émergence de modèles de traitement souple va permettre l’exploitation des mêmes instances de données pour l’analytique en mode batch (par lots), l’analytique interactive, la messagerie globale, les bases de données et les modèles à basent de fichier. Des modèles analytiques plus agiles seront également possibles des lors qu’une même instance de données sera compatible avec un éventail élargi d’outils. Il en résultera, au final, une plateforme de développement souple et des applications supportant la gamme la plus large de modèles de traitement et d’analyse.

5 – La blockchain va transformer certaines applications de services financiers

La blockchain est une technologie globale distribuée qui révolutionne le stockage des données et le traitement des transactions. Elle opère sur des ordinateurs répartis à travers le monde, où les « chaînes de blocs » sont visibles de tous. Les transactions sont stockées dans des blocs dont chacun fait référence au précédent. Ces blocs sont horodatés et conservent les données sous une forme inaltérable. Il est ainsi impossible de pirater la blockchain puisque tout le monde en voit la totalité. Son efficacité est donc évidente pour les consommateurs. Par exemple, les clients n’auront plus à attendre l’exécution de leur transaction ni à se soucier des conséquences d’une fuite dans un grand datacenter. Pour les entreprises, la blockchain est synonyme d’économies et d’avantage concurrentiel. En 2017 apparaîtront certaines applications révolutionnaires dans les services financiers, ayant de vastes retombées sur le mode de stockage des données et de traitement des transactions.

6 – L’apprentissage automatique va maximiser l’impact des micro-services

Cette année, nous allons voir s’intensifier l’intégration de l’apprentissage automatique et des micro-services.

Jusqu’à présent, les déploiements de micro-services étaient axés sur des services légers et ceux incorporant l’apprentissage automatique se limitaient généralement à des intégrations de type « Fast Data », appliquées à des flux étroits de données en streaming. En 2017, nous verrons le développement s’orienter vers des applications « stateful » (à persistance d’état) qui exploitent le Big Data ainsi que l’incorporation de méthodes d’apprentissage automatique s’appuyant sur des données historiques en masse afin de mieux appréhender le contexte des nouveaux flux de données reçues. (Article original publié sur www.dcloudnews.eu)

John Schroeder, Président – fondateur de MapR Technologies

Articles associés

Fil d'actualité

Articles de la semaine