Aller au contenu

[VUlgarisation/Marketing] Comment le deep learning a stimulé l’IA


Mathieu_D

Messages recommandés

8 Jan Comment le deep learning a stimulé l’IA – La série de l’IA épisode 2

POSTED AT 17:37H IN ARTICLES BY MARCOM

L’apprentissage profond (deep learning) a révolutionné notre capacité à aborder des problématiques complexes. La reconnaissance d’images, de visages, de sons et le traitement du langage sont maintenant des tâches automatisables avec d’excellents taux de conformité alors que ce n’était qu’un rêve il y a seulement quelques années. Mieux encore, les outils permettant de réaliser ces actions sont devenus extrêmement simples à utiliser et se démocratisent.

Les réseaux de neurones ont permis cette révolution grâce des ordinateurs plus puissants qui permettent enfin de répondre à leur appétit dévorant en terme de calculs. Les frameworks modernes comme Keras permettent de les exploiter de manière simple et rapide.

Un exemple ? Imaginez que vous souhaitiez laisser entrer dans votre maison uniquement les personnes souriantes devant votre interphone. Avec Keras, en utilisant les réseaux de convolution, vous pouvez le programmer en moins de 50 lignes de code. Votre porte ne s’ouvrira qu’aux personnes souriantes.
Quelque soit le business, l’analyse des images permet d’apporter une connaissance plus fine des process ou des clients et de créer de nouveaux usages. L’imagerie médicale a naturellement fait des progrès et les diagnostics sont de plus en plus précis. Les véhicules voient leur environnement et deviennent autonomes. En retail l’expérience client est renouvelée : il est maintenant possible de visualiser un nouveau canapé ou une nouvelle décoration dans son salon en réalité augmentée ou de rechercher une paire de chaussures sur un site e-commerce à partir d’une photographie.

Les réseaux récurrents ont grandement amélioré notre capacité à traiter le langage et les séquences. Un programme peut apprendre Shakespeare pour générer des poèmes « à la façon de » , les applications sont nombreuses, comme avec la musique par exemple. Les chatbots ou agents conversationnels peuvent interagir pour apporter une réponse à un client ou servir un employé. Vous souhaitez catégoriser automatiquement une réclamation client, c’est possible. Traduire une langue à l’oral ? Possible aussi. Résumer un document ? Possible également.

La gestion des projets d’apprentissage profond demande des spécificités et l’entrainement des réseaux neuronaux réclame une attention particulière. Il faut veiller à bien couvrir fonctionnellement la problématique à traiter en tenant compte des biais éthiques qui se manifestent. La communication entre les équipes de data scientists et des experts du métier concernés est primordiale pour la réussite des projets.
Les prototypes de projets d’IA sont relativement rapides à mettre en place lorsque la problématique est bien cernée et la data nécessaire bien identifiée.

 

https://blog.aid.fr/2019/01/18/comment-le-deep-learning-a-stimule-lia-la-serie-de-lia-episode-2/ 

  • Yea 1
Lien vers le commentaire

Tiens ben en vérifiant mes maj des softs adobe je suis tombé sur ça:

https://www.adobe.com/fr/sensei.html

 

Citation

Qu’est-ce qu’Adobe Sensei ?

Grâce à l’intelligence artificielle (IA) et à l’apprentissage automatique d’Adobe Sensei, vous découvrez des opportunités cachées, accélérez les processus fastidieux et offrez une expérience pertinente à chaque client. Plus simplement : vous travaillez mieux, plus intelligemment et plus vite avec Adobe Sensei.

 

Lien vers le commentaire
Il y a 6 heures, Mathieu_D a dit :

En retail l’expérience client est renouvelée : il est maintenant possible de visualiser un nouveau canapé ou une nouvelle décoration dans son salon en réalité augmentée

Quel rapport fais-tu entre réalité augmentée et ML ?

Je demande parce que à ma connaissance, il n'y a pas trop de ML la dedans. Si tu as des exemple ou ce n'est pas le cas, je veux bien une ou deux refs.

Lien vers le commentaire
15 minutes ago, Greg42 said:

Quel rapport fais-tu entre réalité augmentée et ML ?

Je demande parce que à ma connaissance, il n'y a pas trop de ML la dedans. Si tu as des exemple ou ce n'est pas le cas, je veux bien une ou deux refs.

Un exemple très explicite : Deepfake

 

Après en retail le step 1 c'est la recherche d'image par similarité (j'aime bien ce truc je cherche un truc pareil dans le catalogue qui a la même tête). Le step 2 c'est comment ce canapé  irait ben dans mon salon. Le step 3 c'est "comment je pourrais créer une ambiance wabi sabi dans mon jardin à partir des trucs au catalogue Leroy Merlin"  (à ma connaissance le step 3 n'est pas encore en prod nulle part)

 

Sinon si j'ai posté  ce lien c'et plutôt pour avoir des retours sur mon article de blog à tout prendre.

 

Sinon ML/DL et réalité augmentée : https://www.adma.com.au/resources/retail-trends-machine-learning-augmented-reality

( les mots clefs deep learning augmented reality renvoient beaucoup de réponses)

Lien vers le commentaire
il y a 25 minutes, Mathieu_D a dit :

Un exemple très explicite : Deepfake

 

Après en retail le step 1 c'est la recherche d'image par similarité (j'aime bien ce truc je cherche un truc pareil dans le catalogue qui a la même tête). Le step 2 c'est comment ce canapé  irait ben dans mon salon. Le step 3 c'est "comment je pourrais créer une ambiance wabi sabi dans mon jardin à partir des trucs au catalogue Leroy Merlin"  (à ma connaissance le step 3 n'est pas encore en prod nulle part)

 

Sinon si j'ai posté  ce lien c'et plutôt pour avoir des retours sur mon article de blog à tout prendre.

 

Sinon ML/DL et réalité augmentée : https://www.adma.com.au/resources/retail-trends-machine-learning-augmented-reality

( les mots clefs deep learning augmented reality renvoient beaucoup de réponses)

Ok je vois ce que tu veux dire, même si je ne suis pas sûr de ranger Deepfake dans la case "réalité augmentée".

 

Et pour l'instant, il me semble que les app qui te permettent de visualiser un canapé, un pokemon, ou autre n'utilisent pas trop de ML, d'ou ma remarque.

 

Ceci dit, je suis d'accord que c'est quelque chose qui va venir, mais pour l'instant, j'ai plutôt l'impression qu'on en est au step 1, que le step 2 ne sont pas fait avec des modèles type ML, que le step 3 n'est pas du tout au point pour l'instant (pour le rendu du moins, les GAN font encore des trucs moche quand ce n'est pas un visage).

Lien vers le commentaire
×
×
  • Créer...