18 mois après l’arrivée de ChatGPT, l’IA générative a-t-elle trouvé sa place au sein des entreprises françaises ?
LD - Effectivement, l'intégration de l'IA générative au sein des entreprises françaises a connu une évolution significative au cours des 18 derniers mois. Cependant, il est essentiel de reconnaître que les entreprises sont confrontées à des défis de mise à l'échelle, dépassant les tests et les preuves de concept (POC) pour parvenir à des applications stables en production, générant un retour sur investissement (ROI) tangible.
Chez LightOn, nous comprenons cette complexité inhérente à l'intégration de l'IA dans les processus d'entreprise. C'est pourquoi notre plateforme Paradigm a été développée dans le but d'accompagner les entreprises dans ce processus, en les aidant à déployer des solutions stables et performantes en production, allant bien au-delà des phases expérimentales initiales.
Chez LightOn, nous comprenons cette complexité inhérente à l'intégration de l'IA dans les processus d'entreprise. C'est pourquoi notre plateforme Paradigm a été développée dans le but d'accompagner les entreprises dans ce processus, en les aidant à déployer des solutions stables et performantes en production, allant bien au-delà des phases expérimentales initiales.
Au-delà de la technologie, l’enjeu est-il le déploiement de cette technologie ? Est-ce la force de votre plate-forme Paradigm et globalement de l’offre LightOn ?
LD - Effectivement, le déploiement efficace de la technologie est crucial et représente l'un des atouts majeurs de notre plateforme Paradigm. Nous avons conçu Paradigm pour transcender les phases de POC, en fournissant des solutions prêtes à l'emploi adaptées aux besoins spécifiques des entreprises. Notre approche initiale a été de répondre à la demande élevée pour des outils comme "Chat with Docs", permettant une utilisation optimale de l'intelligence artificielle dans la gestion documentaire des entreprises.
Actuellement, nous élargissons nos offres pour couvrir divers besoins fonctionnels, aidant ainsi à automatiser les tâches répétitives et à alléger les charges de travail. Un autre avantage distinctif de Paradigm est sa capacité à s'intégrer facilement dans l'infrastructure existante des clients, garantissant une utilisation sécurisée des données sans risque d'exposition à des tiers.
Actuellement, nous élargissons nos offres pour couvrir divers besoins fonctionnels, aidant ainsi à automatiser les tâches répétitives et à alléger les charges de travail. Un autre avantage distinctif de Paradigm est sa capacité à s'intégrer facilement dans l'infrastructure existante des clients, garantissant une utilisation sécurisée des données sans risque d'exposition à des tiers.
Entre les modèles dans le cloud (LLM) et les modèles embarqués (SLM), quelle pourrait être la taille du marché de ces IA « on premise » exécutées sur les infrastructures privées des entreprises ?
LD - La taille optimale des modèles d'IA "on premise" doit trouver un équilibre entre la performance, la capacité des entreprises à s'équiper en GPU, et le coût pour assurer un retour sur investissement convaincant. La tendance actuelle est à la création de modèles plus compacts, adaptés aux infrastructures privées, tout en conservant une efficacité opérationnelle.
Bien qu'il soit difficile de prédire précisément la taille idéale des modèles, nous observons une demande croissante pour des configurations de 8 à 30 milliards de paramètres. Cette évolution reflète une adaptation du marché aux besoins réels des entreprises, visant à maximiser l'efficacité tout en minimisant les coûts.
Bien qu'il soit difficile de prédire précisément la taille idéale des modèles, nous observons une demande croissante pour des configurations de 8 à 30 milliards de paramètres. Cette évolution reflète une adaptation du marché aux besoins réels des entreprises, visant à maximiser l'efficacité tout en minimisant les coûts.