Les Prévisions Sur Le Développement De L’ia En 2018 Étaient Toutes Correctes Et Elles Fixaient Un Objectif Pour 2019.

Par Super Neuro
« Nous formulons cinq prédictions pour la science des données, l'apprentissage automatique et l'intelligence artificielle en 2019. Nous revenons également sur les prédictions de l'année dernière pour voir lesquelles se sont réellement réalisées. »

Par William Vorhies
directeur éditorial, DataScienceCentral ; Président et scientifique en chef des données, Data-Magnum; Président, EB5C
Un bref aperçu des prévisions de l’année dernière
Prédiction 1 : La création de modèles et la préparation des données deviendront davantage automatisées. Les opérations de science des données plus importantes seront intégrées sur une seule plateforme. Seul un petit nombre de scientifiques des données est nécessaire pour effectuer de nombreuses tâches.
C’est vrai, avec l’intégration de bout en bout sur des plateformes d’analyse avancées, la science des données sans code est en plein essor.
Prédiction 2 : La science des données évoluera vers la spécialisation et le data scientist « full stack » n’existera plus.
J'ai également deviné correctement. De nos jours, les gens accordent plus d’attention aux ingénieurs de données qu’aux scientifiques de données. Parce que les ingénieurs de données sont plus pratiques.

Prédiction 3 : Les non-scientifiques des données seront mieux à même d’effectuer des analyses complexes et à volume élevé que les scientifiques des données.
C'est la vérité. Comme le montre la popularité de Data Viz et de Visual Analytics, les non-scientifiques des données tirent davantage de valeur des outils sophistiqués de science des données.
Prédiction 4 : L’apprentissage en profondeur sera difficile. Peu de scientifiques des données sont compétents dans ce domaine, ce qui limitera l’application de l’intelligence artificielle à moins que les plateformes d’apprentissage profond ne soient plus rationalisées et productisées.
Microsoft et Google ont tous deux lancé des plateformes d’apprentissage automatique en profondeur, en commençant par l’apprentissage par transfert et en évoluant vers l’AutoDL complet (apprentissage automatique). Il existe également quelques plateformes AutoDL intégrées. Par exemple, one clicks.ai dispose d'une plateforme AutoML et AutoDL complète. Gartner a récemment nommé DimensionalMechanics, propriétaire de la plateforme AutoDL, parmi les « cinq meilleures entreprises en vogue ».
Prédiction 5 : Malgré le battage médiatique, la pénétration de l’IA et de l’apprentissage profond ainsi que l’ampleur et la profondeur de leur impact sur le marché seront décevantes.
Outre le développement rapide des chatbots, l’application de l’IA est en réalité très limitée. L’IA a été surfaite. Dans les entreprises réelles, la proportion d’entreprises qui utilisent réellement l’IA et l’apprentissage automatique est très faible.
Prédiction 6 : Le public (et les gouvernements) commenceront à examiner sérieusement les implications sociales et de confidentialité de l’IA.
En observant certaines actions du gouvernement américain et de l’Union européenne, nous pouvons constater que ces questions sont prises au sérieux, comme la future réglementation sur la confidentialité en Californie et les déclarations anti-cryptage de l’Australie.

Sans surprise, nos six prédictions de l’année dernière étaient correctes. Bien que certains points de vue restent les mêmes cette année, nous essayons toujours de faire des prévisions et des analyses plus spécifiques.
Prévisions pour 2019
Prédiction 1 : Les données deviendront plus importantes que les algorithmes
Il n’y a pas eu de percée majeure dans les algorithmes d’apprentissage profond et d’apprentissage automatique classique depuis plus d’un an. Une version légèrement améliorée des réseaux convolutionnels temporels (TCN) a été utilisée à la place des RNN pour réduire la latence dans le PNL, mais il n'y a eu aucune innovation du tout. Les bons algorithmes sont soit déjà bien connus, soit peuvent être développés à l’aide de l’apprentissage automatique.
À ce stade, disposer d’une grande quantité de données de haute qualité est la clé de la transformation numérique d’une entreprise. Cela a également conduit à une concurrence et à des opportunités dans les solutions de fourniture de données, qui peuvent être grossièrement divisées dans les directions suivantes.
La première direction est de savoir comment obtenir des données de formation étiquetées avec précision. Les entreprises comme Figure Eight qui travaillent sur l’étiquetage des données promeuvent des stratégies rentables et intelligentes. Par exemple, l’apprentissage actif peut faire le meilleur choix entre l’étiquetage des données et la garantie de l’exactitude du modèle.

La deuxième direction consiste à accéder à des données tierces. Des services comme DymstData sont entrés dans l’espace en tant que centres d’échange pour des centaines de fournisseurs de données supplémentaires. Ils ont également pour rôle de protéger les informations personnelles sensibles, et leurs utilisateurs peuvent appliquer des rôles pour accéder à certaines informations sensibles, ce qui est particulièrement important dans les services financiers et de santé.
La troisième direction consiste à suivre et à enregistrer automatiquement la source des données dans le modèle. En particulier lorsque des données en streaming provenant de sources multiples sont intégrées et changent en temps réel, savoir d’où proviennent les données et comment les utiliser est un aspect important. Tibco et certaines autres plateformes d’analyse intègrent cette fonctionnalité.
Prédiction 2 : Tout deviendra plus facile à mesure que l’IA/ML déplacera les plateformes d’analyse vers des programmes spécifiques à l’industrie ou aux processus.
En observant le paysage des startups IA/ML, la concurrence se déplace vers des industries ou des applications spécifiques. Ces programmes, ou mini-plateformes, sont axés sur la résolution de problèmes spécifiques à l’industrie dans diverses entreprises, telles que le marketing, les ventes B2B, les soins de santé, la fintech et d’autres groupes définis.
Ces nouvelles applications se concentrent sur l’intégration de l’IA/ML, de sorte que lorsque l’entreprise se met à jour, elle n’a pas besoin du support d’un grand groupe interne de scientifiques des données et s’appuie uniquement sur ces développeurs.

Certains appellent cela la marchandisation de l’IA/ML, mais il est plus juste de parler de professionnalisation de l’IA/ML.
Une telle transformation est comparable au passage de la transformation des processus (réingénierie) à la planification des ressources de l’entreprise (ERP) à la fin des années 1990. À l'époque, la réingénierie exigeait que les entreprises utilisent des solutions informatiques complexes développées sur mesure pour améliorer les processus, ce qui a ouvert la porte à de grandes sociétés ERP et CRM intégrées telles qu'Oracle, PeopleSoft, SAP, etc.
Les nouveaux fournisseurs s’efforcent tous de fournir des solutions complètes sur leurs marchés spécifiques, mais finissent inévitablement par proposer des plateformes ERP plus petites.
Gardez également un œil sur les entreprises de taille moyenne et petite qui ne disposent pas de grandes équipes de science des données ou qui s’appuient entièrement sur des modèles développés sur mesure pour accélérer leur adoption de l’IA/ML.
Prédiction 3 : L’essor des ingénieurs et des analystes de données
Cela ne veut pas dire que le monde a abandonné les scientifiques des données. Cela prend encore un processus. Mais lorsque certaines compétences vous font défaut, le marché comble ce manque de différentes manières.
Une façon d’y parvenir est d’utiliser les applications de renseignement spécifiques à l’industrie et aux processus évoquées ci-dessus, qui ne nécessitent pas un grand nombre de data scientists internes.
La deuxième approche est celle des plateformes d’apprentissage automatique automatisé (AML) qui émergent rapidement. Cela est plus efficace en science des données et signifie que moins de scientifiques des données peuvent effectuer beaucoup de travail.
Étant donné que le nombre de modèles augmente plutôt que de diminuer, la charge de travail sera transférée aux ingénieurs de données qui possèdent les deux compétences.
Tout d’abord, il a pu créer l’infrastructure nécessaire à la science des données, comme un lac de données et des instances Spark.
La deuxième consiste à prendre les modèles et à s’assurer qu’ils sont mis en œuvre dans le système opérationnel et à suivre leur précision et leur actualisation.
Certains ingénieurs de données sont également responsables des opérations de données, garantissant la propreté et le prétraitement des flux de données.

Une autre tendance dans les plateformes d’analyse est la croissance des outils d’analyse visuelle et de visualisation des données. Aujourd’hui, la plupart de ces outils sont entièrement intégrés aux ensembles d’outils de science des données, permettant aux analystes de données et aux responsables LOB d’extraire davantage de valeur et même de guider le travail d’analyse. Ils ne remplaceront pas les data scientists, mais ils renforceront le rôle que joue l’analyse avancée au sein des équipes.
Prédiction 4 : Puces neuromorphiques : l'IA et l'IoT passent au premier plan
Ces deux technologies différentes sont à un stade semi-mature en même temps pour résoudre un problème de longue date : la latence.
Par exemple, imaginez que lorsque vous souhaitez traduire un mot de texte ou une image à l'aide de votre appareil mobile, votre appareil renvoie ce signal à l'application où la traduction a lieu dans le cloud de traduction, puis à votre appareil.
Google et d'autres services de traduction instantanée sont passés du RNN à une structure CNN spécialisée, à savoir un réseau convolutif temporel, car le RNN ne s'adapte pas bien au MPP, contrairement au CNN. Cette conversion réduit la latence, mais le signal reste intact.
Une technologie qui résoudra ce problème est celle des réseaux 5G. Tout le monde sait que la 5G sera rapide, mais son véritable avantage est qu’elle peut transporter des volumes de trafic plus importants.

La deuxième solution consiste à introduire de nouvelles puces neuromorphiques (également appelées réseaux de neurones à pointes). Cette architecture de réseau neuronal pourrait être la clé pour parvenir à l’intelligence artificielle générale (AGI). Mais cela prendra du temps.

Actuellement, les principaux fabricants de puces et certaines start-ups développent des puces dédiées aux réseaux neuronaux pulsés, optimisées pour CNN et RNN, dont certaines sont également optimisées pour une consommation d'énergie extrêmement faible.
Combinées, ces capacités permettront de déplacer l’apprentissage en profondeur vers les puces situées à la périphérie du réseau. Il sera intéressant de voir comment l’IoT et d’autres applications de données en streaming se développeront à partir de cette année.
Prédiction 5 : Différents cadres d'IA fusionneront les uns avec les autres
Actuellement, les modèles texte, voix, image et vidéo sont devenus courants, mais leur développement rencontre encore de grands obstacles. Parce que les modèles construits sur un framework (tel que Caffe2, PyTorch, Apache MXNet, Microsoft Cognitive Toolkit et TensorFlow) ne peuvent pas être facilement portés vers un autre framework.
Heureusement, cela a également suscité certaines innovations. Par exemple, AWS, Facebook et Microsoft ont collaboré pour créer l’Open Neural Network Exchange (ONNX), qui permet aux modèles d’interagir entre différents cadres.

Alors que le nombre de modèles partagés entre les développeurs, les applications et les appareils augmente, ONNX sera une technologie clé cette année.
C'est une prédiction pour cette année. Attendez simplement l’année prochaine pour regarder en arrière et voir à quel point ce domaine est différent de ce que vous aviez imaginé.