Sparklane à Devoxx
Devoxx France est l’une des conférences les plus importantes pour les développeurs en France. On peut y retrouver plus de 200 présentations ainsi qu’une partie salon avec de nombreux exposants. Cette année, l’équipe Sparklane était présente à Devoxx France afin de suivre l’actualité et les tendances en développement et IA.
Un retour d’expérience très sympathique de l’utilisation de ChatGPT pour essayer de résoudre les problèmes de code
AdventOfCode.
Il s’agit de challenges de codes proposés chaque année en décembre. Chaque jour présente un challenge de plus en plus difficile.
Cette présentation montre qu’en itérant avec ChatGPT (en lui faisant corriger ses erreurs par exemple) il est possible de résoudre les premiers challenges. Cependant au delà d’une certaine complexité ChatGPT n’arrive plus vraiment à comprendre les problèmes.
Cela permet de mettre en avant les capacités ainsi que les limites actuelles de ChatGPT, ce qui est intéressant pour savoir si l’utilisation d’un outil comme
Copilot devrait être envisagé ou non.
Une présentation au format court présentant presque exclusivement sous forme de démonstrations temps réel la librairie de traitement d’image OpenCV. C’était interessant car nous avions l’impression qu’OpenCV était une librairie relativement dépassée aujourd’hui en terme d’approches et de résultats. Visiblement ce n’est pas le cas, la librairie continue de se mettre à jour et propose même quelques algorithmes récents de Deep Learning. Elle ne permet peut-être pas forcément d’obtenir les résultats de l’état de l’art sur certaines problématiques mais elle propose des algorithmes éprouvés et souvent très rapides. Pour le prochain sujet de traitement d’image que l’on devra traiter chez Sparklane, OpenCV sera clairement une possibilité que l’on explorera.
Une conférence présentant un projet de détection d’objet dans des images appliqué à la reconnaissance de la langue des signes. L’algorithme utilisé était
YoloV7, une des approches les plus classique et performante en détection d’objet par Deep Learning.
La présentation montrait comment itérer pour améliorer les résultats du modèles notamment à travers de l’augmentation de données et du suivi des performances avec
Weights & Biases
Le projet est ensuite déployé sur le cloud ovh avec
Streamlit qui permet d’avoir rapidement une interface graphique interactive.
Chez Sparklane, nous n’utilisons pas Streamlit mais ça semble une solution efficace pour rapidement mettre des démonstrateurs IA concrets dans les mains d’utilisateurs métiers (cela parait plus simple à mettre en place que du
Dash par exemple)
Une présentation intéressante qui met en évidence les différences d’approches entre les principaux frameworks de Deep Learning à travers l’explication des contraintes d’apprentissage d’un réseau de neurone. Ensuite, une sorte d’état de l’art des librairies principales pour ces différents frameworks a été presentée. Cette présentation nous a conforté dans l’utilisation de Pytorch chez Sparklane. En effet, c’est ce framework qui semble présenter l’écosystème le plus dynamique et complet, même si Tensorflow est aussi très actif et utilisé.
Une présentation en anglais, très dynamique et passionnée sur l’utilisation de
ChatGPT pour améliorer l’outil de
cfp de Devoxx Belgium.
Il y a eu plusieurs démos utilisant
Langchain, une librairie très récente qui permet de simplifier les appels à ChatGPT et les connections avec d’autres outils.
Par exemple avec Langchain il est possible d’extraire, de traduire et de résumé très simplement les transcriptions de vidéo youtube. Il est aussi très simple d’extraire des mots-clés résumant des paragraphes entier par exemple.
Cette conférence montrait qu’en quelques lignes de codes (et un appel à l’API de ChatGPT) il est désormais possible de faire des choses qui semblaient très difficiles il y a seulement quelques mois.
A nous maintenant de voir comment utiliser et mettre en place cette nouvelle technologie au sein de nos produits.
Sparklane présentait aussi une conférence cette année, une université sur les modèles de langage d’IA. Ce format long de 3h rentre dans le détail sur le fonctionnement et la mise en place de modèles de Deep Learning.
Il s’agit en quelque sorte d’un retour d’expérience sur le projet de recherche sémantique mené en interne et basé sur ces technologies (vous pouvez retrouver la série d’articles sur ce sujet
ici).
Les slides ainsi que les sources de la présentation sont disponibles.